Newsletter

NENNA.AI monthly newsletter – Dezember

19.12.2024

nenna dezember newsletter 2024
nenna dezember newsletter 2024
nenna dezember newsletter 2024

🎄🎅 Christmas Editon

Willkommen zu unserer Dezemberausgabe! NENNA ist im Dezember 1 Jahr alt geworden und wir sind Stolz darauf, wo wir heute stehen. 2024 war mega spannend und 2025 wird noch mehr für uns bringen. Seid gespannt.

Da sich das Jahr nun seinem Ende neigt, möchten wir die Gelegenheit nutzen, um Euch herzlich für die Unterstützung und das Vertrauen zu danken. ❤️

Wir wünschen Euch und euren Liebsten ein besinnliches Weihnachtsfest voller Freude, Wärme und schöner Momente. Möge das neue Jahr für Euch Gesundheit, Glück und Erfolg bringen. 🎉🎁✨ Wir sehen uns drüben!

Unsere Themen

  • EDSA - personenbezogene Daten in KI

  • Microsoft Copilot - Analyse

  • NENNA - "Feature of the Month"

  • KI-Verordnung: KI-Kompetenz ab 2.Feb.2025

  • Was es sonst neues gibt

KI-Modelle enthalten personenbezogene Daten

EDSA veröffentlicht Stellungnahme zum Datenschutz bei KI-Modellen

Der Europäische Datenschutzausschuss (EDSA) hat eine Stellungnahme veröffentlicht, die betont, dass KI-Modelle, die mit personenbezogenen Daten trainiert wurden, nicht automatisch als anonym gelten. Die Anonymität muss im Einzelfall geprüft werden, wobei die Wahrscheinlichkeit der direkten oder indirekten Rückverfolgbarkeit berücksichtigt wird.

Details:

  • Anonymisierung von KI-Modellen: Der EDSA betont, dass KI-Modelle, die mit personenbezogenen Daten trainiert wurden, nicht automatisch als anonym gelten. Die Anonymität muss im Einzelfall geprüft werden, wobei die Wahrscheinlichkeit der direkten oder indirekten Rückverfolgbarkeit berücksichtigt wird.

  • Berechtigtes Interesse als Rechtsgrundlage: Die Stellungnahme erläutert, dass Verantwortliche prüfen müssen, ob die Verarbeitung personenbezogener Daten zur Entwicklung und zum Einsatz von KI-Modellen auf berechtigtes Interesse gestützt werden kann. Dies erfordert eine dreistufige Prüfung: Identifizierung des berechtigten Interesses, Notwendigkeit der Verarbeitung und Abwägung mit den Rechten der betroffenen Personen.

  • Folgen unrechtmäßiger Datenverarbeitung: Der EDSA weist darauf hin, dass unrechtmäßige Verarbeitung personenbezogener Daten in der Entwicklungsphase eines KI-Modells Auswirkungen auf die Rechtmäßigkeit der weiteren Nutzung des Modells haben kann. Daher ist es entscheidend, bereits in frühen Phasen datenschutzkonforme Maßnahmen zu ergreifen.

Warum ist das wichtig:

Die Stellungnahme des EDSA bietet klare Leitlinien für Unternehmen und Organisationen, die KI-Technologien entwickeln oder einsetzen. Sie unterstreicht die Bedeutung des Datenschutzes in allen Phasen des KI-Lebenszyklus und hilft, rechtliche Risiken zu minimieren sowie das Vertrauen der Nutzer in KI-Systeme zu stärken.

Datenschutz-Folgenabschätzung für Microsoft 365 Copilot

Die Datenschutz-Folgenabschätzung von SURF identifiziert Risiken bei der Nutzung von Microsoft 365 Copilot, darunter fehlende Transparenz, internationale Datenübermittlungen und begrenzte Kontrollmöglichkeiten für Institutionen. Der Bericht schlägt technische Maßnahmen vor, um Datenschutzkonformität sicherzustellen.

Details:

  • Datenverarbeitung: Microsoft 365 Copilot verarbeitet Eingaben der Nutzer sowie kontextbezogene Daten aus Microsoft Graph, um KI-gestützte Funktionen bereitzustellen. Es fehlt jedoch an ausreichender Transparenz darüber, welche Daten konkret verarbeitet werden und wie diese genutzt oder gespeichert werden.

  • Datenübermittlungen: Die Nutzung von Microsoft 365 Copilot birgt potenzielle Risiken bei der Übertragung personenbezogener Daten in Drittländer wie die USA. Diese Datenübermittlungen stehen im Widerspruch zur DSGVO, wenn keine adäquaten Schutzmaßnahmen wie Standardvertragsklauseln oder zusätzliche Sicherheiten implementiert sind.

  • Kontrollmöglichkeiten: Bildungseinrichtungen haben nur begrenzte Möglichkeiten, die Nutzung und Verarbeitung von Daten durch Copilot zu steuern. Funktionen wie lokale Datenverarbeitung, granulare Datenschutzeinstellungen oder umfassende Verschlüsselung sind nicht ausreichend integriert, was die sichere Anwendung erschwert.

Warum ist das wichtig:

Technische Schutzmaßnahmen wie Verschlüsselung, lokale Datenverarbeitung und klare Datenkontrolle sind entscheidend, um sensible Daten zu schützen und DSGVO-Konformität zu gewährleisten.

NENNA - "Feature of the Month"

Schutz sensibler Daten bei Dokumentenupload

Der Schutz von Dokumenten ist bei NENNA Shield in 2024 einer der meistgenutzten Use Cases. Wir decken mit dieser Lösung mehrere Anwendungsfälle in der täglichen Nutzung von KI ab. Sie hilft der Geschäftsführung mit Verträgen zu arbeiten und trotzdem finanzielle und Reputationsrisiken zu vermeiden. Sie unterstützt die Rechtsabteilung bei der Einhaltung gesetzlicher Vorgaben und reduziert Haftungsrisiken. Wir schützen damit auch die HR-Abteilung, die die Anonymsierung von Mitarbeiterdokumenten vornehmen kann.

Die Maskierung von sensiblen Daten in PDF- und Word-Dokumenten schützt vertrauliche Informationen und minimiert Risiken für Datenschutzverletzungen in verschiedenen Abteilungen eines Unternehmens und sorgt gleichzeitig für Zeitersparnis und Effizienz.

KI-Kompetenz-Pflicht ab Februar 2025

Ab dem 2. Februar 2025 verpflichtet die europäische KI-Verordnung Unternehmen, sicherzustellen, dass ihre Mitarbeitenden über ausreichende KI-Kompetenz verfügen. Dies betrifft alle Anbieter und Betreiber von KI-Systemen, einschließlich der Nutzung von Tools wie ChatGPT oder Microsoft Copilot.

Details:

  • Durchführung von Risikoanalysen: Unternehmen müssen kontextbezogene Risikoanalysen für eingesetzte KI-Systeme durchführen, um potenzielle Gefahren zu identifizieren und zu minimieren.

  • Schulungen für Mitarbeitende: Mitarbeitende sind zu schulen, um sicherzustellen, dass sie KI-Tools sachkundig und rechtssicher einsetzen können, wobei ein Bewusstsein für Chancen und Risiken geschaffen werden soll.

  • Entwicklung und Implementierung interner KI-Leitlinien: Es sind klare interne Richtlinien und Prozesse im Umgang mit KI zu etablieren, um Verantwortlichkeiten festzulegen und die Einhaltung der gesetzlichen Vorgaben zu gewährleisten

Warum ist das wichtig:

Die Einhaltung der KI-Kompetenz-Pflicht ist entscheidend, um rechtliche Risiken zu vermeiden und den verantwortungsvollen Einsatz von KI-Systemen im Unternehmen sicherzustellen.


Was es sonst Neues gibt

Perplexity: Perplexity AI plant, ab Anfang nächsten Jahres neben Websuchen auch die Integration von Diensten wie Notion, Google Docs und Slack, um personalisierte Antworten aus verschiedenen Quellen bereitzustellen. Die Anbindung sensibler Unternehmensdaten an KI-Systeme birgt jedoch Risiken wie Datenschutzverletzungen, Sicherheitslücken und Kontrollverlust über die Datenverwendung. Unternehmen sollten daher sorgfältig prüfen, welche Daten sie freigeben, und sicherstellen, dass angemessene Schutzmaßnahmen implementiert sind, um die Integrität und Sicherheit ihrer Informationen zu gewährleisten.

Meta: Die irische Datenschutzbehörde hat den Facebook-Mutterkonzern Meta wegen eines Datenlecks mit einer Geldstrafe von 251 Millionen Euro belegt. Unbefugte nutzten eine Sicherheitslücke beim Hochladen von Videodateien, um auf Profile anderer Facebook-Nutzer zuzugreifen. Meta informierte die Behörde 2018 über diesen Verstoß.

Events

Wir sind in der kommenden Zeit auf diesen Veranstaltungen, wenn Ihr uns gerne mal persönlich treffen wollt, kommt dort vorbei:

09.01 AI Sports Summit - Wolfsburg
22.01-23.01 Fintechworld - Köln
19. - 20.03 Transform - Berlin
21. - 23.05 GITEX Europe - Berlin

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2024. All right reserved to Nenna.ai

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2024. All right reserved to Nenna.ai

Wie nutzt Ihr Unternehmen KI?

Sprechen Sie uns an für einen 30-minütigen-Call. Wir beantworten gerne alle offenen Fragen und demonstrieren das Produkt. NENNA hilft, KI-Nutzung auch in Ihrem Unternehmen sicherzumachen.




Foto Sales Nenna, Lars Moll und Florian Spengler
nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2024. All right reserved to Nenna.ai