Schatten-KI in deutschen Unternehmen: Der NENNA Guide zum Cybersecurity-Risiko

18.11.2025

Schatten-KI in deutschen Unternehmen: Der NENNA Guide zum Cybersecurity-Risiko

Vertrauliche Informationen verlassen täglich unkontrolliert Unternehmen. So landen geschäftskritische Daten in KI-Systemen, die außerhalb des europäischen Rechts agieren. Oft unbewusst, oft, weil keine Alternative zur Verfügung steht oder sich Unternehmen den wirklichen Risiken nicht bewusst sind.

Unser NENNA Guide zur KI-Schattennutzung:

Was ist Schatten-KI und was macht sie so gefährlich?

Gemeint ist jede KI-Anwendung, die in Unternehmen ohne Wissen oder Genehmigung genutzt wird. Sie entsteht, wenn Mitarbeiter private Accounts oder online im Browser nutzbare, kostenlose Zugänge zu ChatGPT, Gemini, Deep Seek oder anderen Tools nutzen, um beispielsweise E-Mails zu verfassen, Dokumente zusammenzufassen, Bildmaterial für Social Media-Posts oder Slides für Präsentationen zu erstellen – ohne interne IT-Freigabe. In der Praxis heißt das:

Laut der globalen KPMG-Studie „Trust, attitudes and use of AI: A global study 2025“ (KPMG & University of Melbourne, 2025) nutzen bereits 73 Prozent der Beschäftigten generative KI am Arbeitsplatz, zumeist über frei zugängliche Tools. Laut dem deutschen Bitkom e.V., wissen 42 Prozent der deutschen Unternehmen bereits, dass Mitarbeiter private KI-Tools wie ChatGPT oder Gemini geschäftlich nutzen. Weitere 17 Prozent vermuten es, können es aber nicht sicher nachweisen. Der Anteil hat sich im Vergleich zum Vorjahr verdoppelt. Für Unternehmen besonders gefährlich: Fast jedes vierte Unternehmen kennt die tatsächliche Lage nicht genau. Das bedeutet: Die Kontrolle über sensible Daten entgleitet vielen Organisationen schneller, als Prozesse angepasst werden können. (bitkom, 2025)

Die unkalkulierbaren Datenschutz-Fallen

Eingaben in solche Tools – wie Prompts oder hochgeladene Dokumente – werden gespeichert und für KI-Training verwendet. Viele öffentliche KI-Tools speichern Eingaben auf Servern in nichteuropäischen Rechtsräumen; darunter der USA oder China. Gemini, der AI-Dienst von Google, speichert eingegebene Prompts in der freien Browser-Variante 18 Monate auf Servern in den Vereinigten Staaten von Amerika, wenn Sie dies nicht manuell ausschalten oder den Zeitraum ändern. Selbst wenn Sie sich die Mühe gemacht haben die Einstellung „Aktivitäten speichern“ zu deaktivieren, verwendet Google Chats dennoch, um Ihnen zu antworten und Gemini sicher zu halten, auch mithilfe von Prüfern. Deep Seek speichert alle Prompts direkt in China: "When you use our Services, we may collect your text input, prompt, uploaded files, feedback, chat history, or other content that you provide to our model and Services".

Dabei werden Geschäftsgeheimnisse Teil der Wissensbasis der KI. Bei generativer KI mit Web-Suche werden eingegebene Firmendetails systematisch weiterverarbeitet und dauerhaft im Modell festgeschrieben, teilweise für Web-Abfragen, die voraktiviert sind, an Suchmaschinen wie Google gesendet und auch dort gespeichert. Das bedeutet: Einmal eingegebene Daten sind ab diesem Moment außer Kontrolle. Folgen für Geheimhaltung, Datenschutz und Compliance sind schwer abschätzbar. Heute eingegebene Firmen- oder Kundendaten können morgen in Antworten für Wettbewerber auftauchen.

Laut der internationalen KMPG-Studie gaben 48-49 % der Befragten an, sensible Unternehmensdaten in öffentliche KI-Systeme hochzuladen – darunter Finanzzahlen, Vertriebs- und Kundendaten oder sogar urheberrechtlich geschütztes Material. Am häufigsten passieren solche Verstöße ausgerechnet dort, wo Unternehmen Regeln eingeführt haben. 67 % der Mitarbeitenden in Firmen mit einem KI-Verbot und 56 % in Unternehmen mit KI-Richtlinie laden dennoch sensible Daten in öffentliche Tools. In Organisationen ohne Policy (33 %) oder mit unklarem Regelwerk (38 %) passiert das deutlich seltener. (KPMG & University of Melbourne, 2025)

Trotz Sorge um Datenverluste: viele Unternehmen haben keine Guidelines

85 Prozent der KI-Anwender haben konkrete Cybersecurity-Bedenken. Trotzdem nutzen sie AI-Tools, weil sie leicht zugänglich und einfach bedienbar sind. (KPMG & University of Melbourne, 2025) Die niedrigen Hürden führen dazu, dass Schatten-KI auch in sensiblen Geschäftsprozessen eingesetzt wird. Somit wird der Nutzen über die Sicherheit gestellt.

Nur 23 Prozent der Unternehmen haben bislang eigene Regeln für den KI-Einsatz formuliert – und selbst diese decken oft nicht alle Schatten-Anwendungen ab (bitkom, 2025). Die Zahlen zeigen klar: Verbote funktionieren nicht, und Policies allein sorgen nicht für Sicherheit. Ohne konkrete Anleitung, klare Prozesse und echte Schulung zur verantwortungsvollen KI-Nutzung entstehen Schatten-KI-Risiken – unabhängig davon, was offiziell erlaubt oder verboten ist. (KPMG & University of Melbourne, 2025)

Zudem zeigen Studien, dass Unternehmen keine vollständige Übersicht haben, wo KI eingesetzt wird. Die Angriffsfläche wächst durch KI-Systeme schneller, als Governance-Strukturen hinterherkommen. (Deloitte, 2025) Es fehlen Sicherheitsprüfungen vor dem Einsatz neuer KI-Tools (World Economic Forum, 2025b). Die Lage wird laut Tagesspiegel Background, der über eine Microsoft-Studie berichtet, noch klarer: In Politik und Verwaltung nutzt fast jede zweite Person (45 %) nicht geprüfte KI-Tools, trotz bekannter Risiken. Gleichzeitig sieht die Bevölkerung KI zunehmend als Sicherheitsbedrohung: 67 % fürchten den Missbrauch von KI für Cyberangriffe, 66 % Manipulationen von KI-Systemen. Dennoch handeln viele nicht: Nur 43 % ergreifen überhaupt Schutzmaßnahmen. Dazu kommt ein massives Wissensdefizit: 73 % fühlen sich schlecht über KI informiert, 69 % sorgen sich um den Schutz ihrer persönlichen Daten (Tagesspiegel, 2025).

In dieser Mischung entsteht Schatten-KI mit vielen Risiken: Datenabfluss, Modellmanipulation, Compliance-Verstöße und Haftungsrisiken können die Folge sein. Unternehmen schaffen sich so unbeabsichtigt ihre eigene Schwachstelle.

Während professionelle Angreifer KI längst für Deepfakes, Phishing oder automatisierte Malware nutzen, werden im Unternehmensumfeld so häufig ungeprüfte Services eingesetzt – und erhöhen durch Prompt-Leaks oder ungewollte Datenabflüsse die eigene Angriffsfläche.

Technische Sackgasse: Warum klassische IT-Sicherheit nicht umfassend hilft

Herkömmliche Firewalls oder Monitoring-Lösungen erkennen die Nutzung von KI-Diensten kaum, denn KI-Traffic sieht aus wie normaler Webverkehr. Geschäftskritische Informationen können unbemerkt in externe KI-Modelle gelangen, ohne dass klassische Schutzmechanismen Alarm schlagen. Eine Ausnahme ist, wenn die Nutzung von KI im Browser komplett gesperrt wird. Doch selbst dann ist KI in bestehenden Tools weiterhin integriert und kaum zu überblicken. Man müsste die ständigen Entwicklungen im Monitoring mit viel Aufwand verfolgen. Zudem besteht die Gefahr, dass Mitarbeitende einfach eigene Devices benutzen, um KI zu nutzen.

Unternehmen verlieren die Übersicht, welche Daten das Haus verlassen und wie sie verarbeitet werden. Dadurch entstehen erhebliche Compliance-Risiken, Haftungsfragen und potenzielle Reputationsschäden, wenn vertrauliche Informationen über KI-Modelle Dritten bekannt werden.

Handlungsempfehlung für Unternehmen

In der Praxis heißt das: Wer Schatten-KI eindämmen will, sollte klare Regeln für den Einsatz von Künstlicher Intelligenz festlegen. Der Bitkom e.V. empfiehlt Unternehmen KI-Wildwuchs durch verbindliche Richtlinien zu verhindern und sichere KI-Services für Mitarbeitende bereitzustellen. So behalten Sie die Kontrolle und reduzieren Risiken nachhaltig.

Auch deutsche Leitmedien warnen zunehmend vor den Risiken von KI und insbesondere vor unkontrollierter „Schatten-KI“. So berichtet heise online über den deutlichen Anstieg von Schatten-KI-Nutzungen in Unternehmen – etwa, dass nur rund ein Viertel der Firmen klare Regeln für KI-Einsatz besitzt (Förster, 2025). DER SPIEGEL zeigt in einem aktuellen Bericht, wie leicht vertrauliche Informationen in öffentlichen Chatbots wie ChatGPT gefährdet sind und dass Unternehmen dadurch erhebliche Datenschutz- und Sicherheitsrisiken eingehen (Böhm & Breithut, 2025). Die Süddeutsche Zeitung bestätigt diese Warnungen: Sie beschreibt KI-Browser und frei zugängliche KI-Assistenten als potenzielle „trojanische Pferde“, die sensible Daten abgreifen können, und berichtet zudem über eine hohe Nutzung von Schatten-KI in Behörden sowie über wachsende Datenschutzgefahren durch unkontrollierte KI-Tools (Rinaldi, 2025; Ross, 2025; Berlin, 2025).

NENNA ist die technische Maßnahme, mit der Unternehmen sensible Daten bei der Arbeit mit KI schützen und eine datensichere Lösung für alle KI-Anwendungsfälle erhalten, dank einer eigenen KI-Oberfläche mit integriertem Datenschutz und zusätzlichem Schutz für sämtliche KI-Modelle im Browser. NENNA ergänzt technische Maßnahmen um organisatorische wie KI-Schulungen und schafft damit die Basis für einen ganzheitlich sicheren, unabhängigen und wirtschaftlichen KI-Einsatz und ermöglicht so Unternehmen, KI-Anwendungen datenschutzkonform nach DSGVO/GDPR zu nutzen – dem verpflichtenden europäischen Rechtsrahmen, der für alle Organisationen in Deutschland und der EU gilt.

KI sicher und vollumfänglich nutzen ist ein Wettbewerbsvorteil. Lesen Sie hier unsere Use Cases für Branchen bei der Arbeit mit KI.

Quellen:

KPMG International & University of Melbourne. (2025). Trust, attitudes and use of AI: A global study 2025. https://assets.kpmg.com/content/dam/kpmgsites/ae/pdf/trust-attitudes-and-use-of-ai-global-report.pdf.coredownload.inline.pdf

Bitkom e.V. (2025). Presseinformation "Beschäftigte nutzen vermehrt Schatten-KI". https://www.bitkom.org/Presse/Presseinformation/Beschaeftigte-nutzen-Schatten-KI

Bitkom e.V. (2025). Leitfaden "Generative KI im Unternehmen". https://www.bitkom.org/Bitkom/Publikationen/Generative-KI-im-Unternehmen

Förster, M. (2025, 21. Oktober). Schatten-KI in Unternehmen nimmt deutlich zu. heise online. https://www.heise.de/news/Schatten-KI-in-Unternehmen-nimmt-deutlich-zu-10790550.html

Deloitte. (2025). Cyber Security – Cybersecurity trifft KI und Generative KI. https://www.deloitte.com/de/de/services/consulting/perspectives/cybersecurity-meets-ai-genai.html

World Economic Forum. (2025). Global Cybersecurity Outlook 2025. World Economic Forum. https://www.weforum.org/publications/global-cybersecurity-outlook-2025

Tagesspiegel. (2025, 12. November). Schatten-KI macht Deutschland angreifbar. https://background.tagesspiegel.de/it-und-cybersicherheit/briefing/schatten-ki-macht-deutschland-angreifbar

Böhm, M., & Breithut, J. (2025, 26. Oktober). Wie sicher sind Geheimnisse beim Chatbot von OpenAI? Der Spiegel. https://www.spiegel.de/netzwelt/web/chatgpt-wie-sicher-sind-geheimnisse-beim-chatbot-von-openai-a-62cdb47d-0ffe-4d97-8ee1-13e2432d128d

Rinaldi, G. (2025, 11. November). Umfrage: Hohe Nutzung von ‚Schatten-KI‘ in Behörden. SZ Dossier / Süddeutsche Zeitung. https://www.sz-dossier.de/meldungen/umfrage-hohe-nutzung-von-schatten-ki-in-behoerden-a1a949bf

Ross, M. (2025, 31. Oktober). Warum sich KI-Browser als Trojanische Pferde erweisen. SZ Dossier / Süddeutsche Zeitung. https://www.sz-dossier.de/gastbeitraege/warum-sich-ki-browser-als-trojanische-pferde-erweisen-8e058ef2

Berlin, S. (2025, 28. September). Die Flut an KI-Assistenten nervt. Und ist gefährlich. Süddeutsche Zeitung. https://www.sueddeutsche.de/wirtschaft/kuenstliche-intelligenz-datenschutz-widerspruch-workslop-ki-etikette-li.3316313

nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2024. All right reserved to Nenna.ai

nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH
Kadiner Str. 11
10243 Berlin
Germany

Copyright © 2024. All right reserved to Nenna.ai

nenna icon und schriftzug

Empowering enterprises with secure AI usage.

Mitglied im bitkom, bitkom logo in hell
ai made in Germany Siegel vom KI Bundesverband e.V.
ai made in Germany Siegel vom KI Bundesverband e.V.

Kontakt

+49 (0) 1579-2372018

hello@nenna.ai

nenna.ai GmbH

Kadiner Str.11

10243 Berlin

Copyright © 2024. All right reserved to Nenna.ai