Produkt

Datenschutz bei der Nutzung von KI-Anwendungen: Wie NENNA.AI Unternehmen dazu befähigt, KI DSGVO-konform zu nutzen

18.02.2025

Was ist NENNA.AI? 

Generative Künstliche Intelligenz (KI) hat in unzähligen Bereichen das Potenzial einen enormen Sprung in der Effektivität bestehender Arbeitsprozesse zu bewirken. Der Einsatz von KI-Modellen etabliert sich in vielen Unternehmen als Optimierungstool. KI-Anwendungen versprechen Effizienzgewinne, doch spätestens seit der Einführung der EU-KI-Verordnung haben viele Firmen verstanden, dass die Technologie auch Risiken mit sich bringt.

Es müssen Vorsichtsmaßnahmen getroffen werden, wenn wir verantwortungsvoll mit dem Tool arbeiten wollen. Aus sozial-gesellschaftlicher Ebene und in Bezug auf den Datenschutz.

Genau hier setzt NENNA.AI an. Unsere Mission ist es, Unternehmen eine sichere und datenkonforme Nutzung von KI-Tools zu ermöglichen. Unsere AI-Enablement-Lösung maskiert persönliche Daten direkt beim Prompten. Das gibt Nutzenden die Möglichkeit, Ihre Eingabe zu checken und persönliche Daten DSGVO-sicher zu schützen. Gleichzeitig ermöglicht NENNA.AI, den generierten Text so aus der Anwendung zu kopieren und zu demaskieren, dass diese für den Verwendungszweck erhalten bleiben. NENNA.AI ist eine SaaS-Lösung und direkt im Browser und für 300+ Anwendungen nutzbar. 


Wieso müssen personenbezogene Daten bei der Eingabe in Large Language Models (LLMs) wie ChatGPT maskiert werden?  

Eine entsprechende Marktstudie zum Thema Generative KI hat im dritten Quartal von 2024 erarbeitet, dass 30 % der Unternehmen, die KI nutzen bereits Sicherheitsvorfälle vermerkt hatten. In einer weiteren von Gartner durchgeführten Studie, nannten Fachleute der Industrie generative AI als eine der größten momentanen Risiken für IT und Politik. Auch ChatGPT-Nutzende haben Bedenken über Datenlecks bei OpenAIs KI-gestütztem Chatbot geäußert. Dabei wurden sensible Daten wie persönliche Informationen, Chatverläufe und Login-Daten offengelegt.

Ein Großteil der Cyberangriffe, die auf Firmen gelingen, werden nicht durch die Technologie selbst ermöglicht, sondern wird auf das Fehlverhalten der Mitarbeitenden zurückgeführt – das Berichtet das HandelsblattJournal in der 2024 Ausgabe zum Thema Cybersecurity & Datenschutz.

Mitarbeitende nutzen oftmals eigenständig generative KI-Tools wie Chatbots oder Textgeneratoren, um ihre Arbeit zu erleichtern. Eine aktuelle Bitkom-Umfrage zeigt, dass in 34 % der deutschen Unternehmen Mitarbeiter*innen generative Anwendungen wie ChatGPT über private Accountsnutzen nutzen, auch wenn keine firmeninternen Lösungen vorhanden sind.

Es ginge darum, eine gute „Cybersecurity-Kultur“ aufzubauen und zu diesem Zweck müssen Maßnahmen ergriffen werden, um Mitarbeitende entsprechend zu schulen, was der EU AI Act seit Februar vorsieht. Probleme in der Cybersecurity müssen erkannt und klar kommuniziert werden. Entsprechende technische Tools können Mitarbeiter*innen bei der Umsetzung diverser Vorsichtsmaßnahmen gegenüber organisatorischen Maßnahmen helfen. NENNA.AI bietet ein Framework, mit dem Unternehmen Maßnahmen gemäß dem EU AI Act und DSGVO bewerkstelligen können.

Wieso eine Enablement-Plattform wie NENNA.AI den Unterschied für die KI-Nutzung in Unternehmen bedeutet 

Mit NENNA wird die Arbeit mit KI-Modellen bei gleichzeitigem Datenschutz möglich – das ist AI Enablement. Firmen dürfen personenbezogene Daten laut Datenschutz-Grundverordnung (DSGVO) nicht in KI-Modelle wie ChatGPT eingeben, da diese weitergegeben werden können. Insbesondere beim Launch von DeepSeek ist das Thema Datenschutz stark in den Mittelpunkt gerückt. Einige Länder wie Italien, USA und Taiwan haben die Nutzung des Modells in bestimmten Bereichen wie Behörden untersagt, da die Datenschutz-Aspekte dazu zu riskant sind. Das darf nicht ohne die Zustimmung der entsprechenden Personen geschehen.

Bleiben wir bei dem Beispiel von ChatGPT: Das Problem ist, dass eingegebene Daten gespeichert und genutzt werden, um das Modell zu trainieren.  Unternehmen sollten daher proaktiv Schutzmechanismen für KI-Lösungen implementieren und klare Richtlinien für deren Einsatz festlegen, um Sicherheitsbedenken zu adressieren und die Vorteile von KI-Technologien effektiv zu nutzen.

Mit NENNA.AI werden datengeschützte Inhalte gar nicht erst in LLMs eingegeben, da sie zuvor maskiert werden. Setzen Firmen bereits bei der Eingabe an, können Verluste von privaten Daten unterbunden werden. So entfällt die Sorge, dass Daten unkontrolliert abfließen oder KI-Tools zum Unternehmens-Risiko werden.  

Schutz vor Datenlecks & Schatten-IT: Sicherer KI-Einsatz ohne Compliance-Risiken 

Die Software schützt Daten direkt auf dem Rechner der Mitarbeitenden, sodass diese Informationen die Geräte nie verlassen. Dadurch bleibt das geistige Eigentum geschützt, und wertvolle Informationen werden nicht von KI-Anbietern zum Training ihrer Modelle verwendet. Zudem beendet NENNA.AI die Risiken durch Schattennutzung, d.h. die Nutzung von LLMs ohne die Erlaubnis des Unternehmens.  

Der Upload von vertraulichen Dokumenten kann also kaum kontrolliert werden. Dies führt nicht nur zu möglichen Verstößen gegen die DSGVO, sondern kann darüber hinaus eine böswillige oder ungewollte Verletzung vertraglicher oder gesetzlicher Geheimhaltungspflicht mit sich ziehen. In dem Fall können Beschäftigten und unter Umständen auch deren Arbeitgebern Schadensersatzansprüche, Vertragsstrafen oder arbeitsrechtliche Konsequenzen drohen.

Um rechtliche Rahmenbedingungen bei der Nutzung von KI geht es hier zu unserem AI Privacy Webinar - Sichere Nutzung von KI für Anwälte, Kanzleien und Legal-Abteilungen am 25.03.2025.

Wie hilft NENNA.AI bei der Nutzung von generativer KI? 

NENNA.AI wird über den Browser genutzt und funktioniert als Schutzschicht, die persönliche Daten wie Name, Anschrift, Telefonnummern und Bankinformationen maskiert, bevor sie an generative KI-Modelle weitergegeben werden. Im Prinzip wie eine Virenschutz-Software. Das funktioniert sowohl mit Prompts als auch mit Dateien. Es können also zum Beispiel Verträge und Kundenbriefings direkt mit den KI-Modellen im Browser datenschutzrechtlich sicher genutzt werden. 

Kanzleien können mit NENNA.AI vertrauliche Mandantendokumente sicher analysieren, während ein Finanzdienstleister KI-gestützte Kundenanalysen durchführt. Dadurch eröffnet NENNA.AI Unternehmen in unterschiedlichsten Branchen die Möglichkeit, die Effizienz von KI-Lösungen kontrolliert zu nutzen.

NENNA.AI gibt unternehmensweite Kontrolle der KI-Nutzung und ermöglicht eine AI-Governance-Strategie durch das Guardrails Modul. Das bedeutet, firmenweite Administratoren können entscheiden, welche KI-Anwendungen erlaubt sind und welche nicht. Die Plattform von NENNA.AI unterstützt auch Dokumente wie PDF- und Word-Dateien, die in LLMs hochgeladen und maskiert werden können. 

Die Nutzung von NENNA.AI ist effizient: Der Nutzer kann die Daten direkt in NENNA wieder demaskieren und in zu verarbeitende Dokumente wie E-Mails, Word-Dateien oder Verträge übertragen. Dadurch können Aufgaben wie Übersetzungen, Schriftverkehr oder personenbezogene Vertragsfragen sicher und effizient erledigt werden. So profitieren Unternehmen von einer schnellen Textverarbeitung und einem echten Wettbewerbsvorteil, da KI optimal genutzt werden kann. 

Bei Fragen zu NENNA.AI, dem Wunsch einer Demo oder unserer Beratung zur KI-Nutzung im Unternehmen sprechen Sie uns gerne an!

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2025. All right reserved to Nenna.ai

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2025. All right reserved to Nenna.ai

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2025. All right reserved to Nenna.ai