Presse
News
Schatten-KI verstehen und managen: Die wichtigsten Quellen für Ihre Unternehmensstrategie
24.11.2025
Künstliche Intelligenz hat sich zu einem integralen Bestandteil des Arbeitsalltags entwickelt, gleichzeitig gibt es Unsicherheit beim Einsatz in Unternehmen. Während die Potenziale immens sind, birgt der unkontrollierte Einsatz von KI-Tools im Unternehmen auch erhebliche Risiken. Hier sprechen wir von "Schatten-KI": Der Nutzung von generativer KI und anderen KI-Anwendungen durch Mitarbeitende, die außerhalb der offiziellen IT-Richtlinien und ohne Sicherheitsvorkehrungen erfolgt. Mit NENNA können Sie jede KI datensicher einsetzen, wir möchten, dass Unternehmen mit KI vollumfänglich und gleichzeitig sicher arbeiten können.
Diese Art der Schatten-IT ist nicht neu, gewinnt aber im Zeitalter der KI eine neue Dimension. Sensible Unternehmensdaten, vertrauliche Kundendaten oder geistiges Eigentum können unwissentlich an externe KI-Modelle übertragen werden, deren Datenschutzstandards nicht den Compliance-Anforderungen Ihres Unternehmens entsprechen. Die Folgen können von Datenlecks über Wettbewerbsnachteile bis hin zu massiven Reputationsschäden und rechtlichen Konsequenzen reichen.
Für Unternehmensentscheider, IT-Leiter und Compliance-Verantwortliche ist es unerlässlich, die Dynamik der Schatten-KI zu verstehen und wirksame Strategien zu entwickeln. In diesem NENNA GUIDE-Artikel haben wir die relevantesten Studien, Artikel und Leitfäden für Sie kuratiert und zusammengefasst, um Ihnen einen fundierten Überblick zu verschaffen und praktische Handlungsempfehlungen zu ermöglichen.
Kuratierte Leseempfehlungen zum Thema Schatten-KI
Die Realität der Schatten-KI: Was ist sie und wie verbreitet ist sie?
Die folgenden Quellen bieten einen hervorragenden Einstieg in das Thema und beleuchten, wie tief Schatten-KI bereits in Unternehmen verwurzelt ist und welche ersten Herausforderungen daraus entstehen.
Leitfaden "Generative KI im Unternehmen" (Leitfaden, Bitkom e.V.)
Dieser Bitkom-Leitfaden zeigt auf, wie weit die Nutzung generativer KI – oft durch private Anwendungen der Beschäftigten – in deutschen Unternehmen bereits verbreitet ist. Er warnt vor den Risiken einer unkontrollierten "Schatten-KI" und bietet gleichzeitig konkrete Empfehlungen, wie Unternehmen durch klare Regeln, sichere Zugänge und Transparenzpflichten einen verantwortungsvollen und datenschutzkonformen Umgang mit KI fördern können. Ein Must-read für die Strategieentwicklung.
Presseinformation "Beschäftigte nutzen vermehrt Schatten-KI" ( Bitkom e.V., Presseinformation / Studie)
Eine ergänzende Bitkom-Erhebung belegt, dass viele Beschäftigte private KI-Tools im Arbeitsalltag einsetzen, während Unternehmen oft noch keine klaren Richtlinien oder eigene Lösungen bereitstellen. Der Bericht hebt hervor, dass dieser "KI-Wildwuchs" zu einer erheblichen Schatten-KI führt. Für Entscheider liefert er wertvolle Einblicke in die Verbreitung und Empfehlungen, wie durch klare Vorgaben und sichere KI-Werkzeuge Risiken minimieren und der produktive Einsatz gefördert werden kann.
2. Konkrete Risiken: Datenlecks, Kontrolle und Trojanische Pferde
Diese Artikel tauchen tiefer in die spezifischen Gefahren der Schatten-KI ein und zeigen auf, wie schnell sensible Informationen unkontrolliert abfließen können und welche neuen Einfallstore für Cyberbedrohungen entstehen.
Wie sicher sind meine Geheimnisse bei ChatGPT? (Spiegel, Artikel)
Der SPIEGEL-Artikel deckt auf, wie unsicher der Umgang mit vertraulichen Daten bei externen Chatbots wie ChatGPT sein kann. Er erläutert, dass Zugriffe durch Dritte oder Behörden auf Chatverläufe nicht ausgeschlossen sind, und beleuchtet die begrenzten Kontrollmöglichkeiten über gespeicherte Daten. Für Unternehmen ist dies eine deutliche Mahnung, die Risiken der unkontrollierten Nutzung externer KI-Systeme zu erkennen und den potenziellen Verlust sensibler Informationen zu vermeiden.
Warum sich KI-Browser als Trojanische Pferde erweisen (Süddeutsche Zeitung, Artikel)
Cybersicherheitsexperte Mirko Ross erklärt in diesem SZ-Artikel, wie neue KI-Browser, die KI direkt ins Betriebssystem integrieren, zwar Komfort bieten, aber immense Risiken für Datenschutz und Informationssicherheit bergen. Der Text verdeutlicht, welche sensiblen Daten für die Funktion solcher Browser benötigt werden und wie dies neue Einfallstore für Missbrauch oder unerkannte Schatten-KI schafft. Ein wichtiger Denkanstoß für Unternehmen, die die Sicherheit ihrer Endpunkte und den Schutz ihrer Daten ernst nehmen.
3. Perspektiven und Strategien: Mitarbeiterakzeptanz, Management und Cybersecurity
Die nachfolgenden Studien bieten umfassende Einblicke in globale Trends, strategische Ansätze zur KI-Integration und die übergreifenden Cybersecurity-Herausforderungen, die auch durch Schatten-KI verschärft werden.
Trust, attitudes and use of AI: A global study 2025 (KPMG International & University of Melbourne, Studie 2025)
Diese globale Studie von KPMG und der University of Melbourne untersucht die Einstellungen von Mitarbeitenden zur KI am Arbeitsplatz. Für Unternehmen ist es entscheidend zu verstehen, wie Mitarbeiter KI wahrnehmen und nutzen. Die Studie liefert wertvolle Daten zur Akzeptanz, aber auch zu den Ängsten, die die unkontrollierte Verbreitung von Schatten-KI begünstigen können. Sie hilft, die interne Kommunikations- und Strategieentwicklung für eine sichere und effektive KI-Integration zu fundieren.
Agentic enterprise 2028: A blueprint for cost savings, job creation, and faster growth through agentic AI (Deloitte, Studie 2025)
Deloitte beschreibt in dieser Studie, wie Unternehmen durch den strategischen Einsatz "agentischer KI" (selbstständig handelnde Systeme) Effizienz und Innovationskraft steigern können. Der Bericht warnt explizit vor Fehlinvestitionen und unkontrollierten "Schatten-KI-Initiativen" außerhalb offizieller Strukturen. Er bietet eine strategische Anleitung, wie Unternehmen Autonomie und KI verantwortungsvoll skalieren können, um die Vorteile zu nutzen und gleichzeitig die Risiken der Schatten-KI zu managen.
Global Cybersecurity Outlook 2025. Insight Report. (Weltwirtschaftsforum in Kollaboration mit Accenture, Insight Report)
Dieser Bericht des World Economic Forum beleuchtet die zunehmende Komplexität der globalen Cyberlandschaft und die wachsenden Risiken durch den Missbrauch neuer Technologien wie KI durch Cyberkriminelle. Er unterstreicht die Notwendigkeit eines "Security-first"-Ansatzes. Für Unternehmen ist dies eine wichtige Erinnerung, dass Schatten-KI nicht nur ein internes Compliance-Problem ist, sondern ein erhebliches Cyber-Risiko darstellt, das in die gesamte Sicherheitsstrategie integriert werden muss.
Steal, deal and repeat – How cybercriminals trade and exploit your data (Europol, Bericht IOCTA: Internet Organised Crime Threat Assessment 2025)
Europols IOCTA-Bericht analysiert, wie Cyberkriminelle persönliche und unternehmensbezogene Daten erlangen und missbrauchen. Er hebt hervor, dass neben Systemschwachstellen oft menschliches Fehlverhalten – wie die unvorsichtige Nutzung externer KI-Tools – ausgenutzt wird. Für Unternehmen ist dieser Bericht essenziell, um die externen Bedrohungslandschaften zu verstehen, in die durch Schatten-KI unfreiwillig Informationen eingespeist werden könnten.
Schatten-KI in den Griff bekommen: NENNA.AI ist Ihr Partner
Die Bekämpfung von Schatten-KI und die Etablierung einer sicheren KI-Nutzung im Unternehmen ist keine leichte Aufgabe, aber eine, die unerlässlich ist. Angesichts dieser komplexen Herausforderungen ist es für Unternehmen entscheidend, proaktiv zu handeln und eine klare Strategie zu verfolgen.
NENNA.AI bietet mit unserer AI Privacy Plattform die maßgeschneiderten Lösungen, um die Potenziale von KI sicher, compliant und datenschutzkonform zu nutzen. Ob es darum geht, die Schatten-KI unter Kontrolle zu bringen, sensible Daten in Prompts und Dokumenten zu schützen oder eine sichere, DSGVO-konforme KI-Infrastruktur im Unternehmen zu etablieren – wir sind Ihr Partner.
Entdecken Sie, wie NENNA.AI mit "No leaks, no drama" Ihre KI-Strategie sicher macht – jetzt hier:
Quellen:
Bitkom e.V. (2025). Leitfaden "Generative KI im Unternehmen". https://www.bitkom.org/Bitkom/Publikationen/Generative-KI-im-Unternehmen
Bitkom e.V. (2025). Presseinformation "Beschäftigte nutzen vermehrt Schatten-KI". https://www.bitkom.org/Presse/Presseinformation/Beschaeftigte-nutzen-Schatten-KI
Böhm, M., & Breithut, J. (2025, 26. Oktober). Wie sicher sind Geheimnisse beim Chatbot von OpenAI? Der Spiegel. https://www.spiegel.de/netzwelt/web/chatgpt-wie-sicher-sind-geheimnisse-beim-chatbot-von-openai-a-62cdb47d-0ffe-4d97-8ee1-13e2432d128d
Ross, M. (2025, 31. Oktober). Warum sich KI-Browser als Trojanische Pferde erweisen. SZ Dossier / Süddeutsche Zeitung. https://www.sz-dossier.de/gastbeitraege/warum-sich-ki-browser-als-trojanische-pferde-erweisen-8e058ef2
KPMG International & University of Melbourne. (2025). Trust, attitudes and use of AI: A global study 2025. https://assets.kpmg.com/content/dam/kpmgsites/ae/pdf/trust-attitudes-and-use-of-ai-global-report.pdf.coredownload.inline.pdf
Deloitte. (2025, September). Agentic enterprise 2028: A blueprint for cost savings, job creation, and faster growth through agentic AI. Deloitte. https://www.deloitte.com/content/dam/assets-zone3/us/en/docs/services/consulting/2025/agentic-ai-enterprise-2028.pdf
World Economic Forum in collaboration with Accenture. (2025, January). Global Cybersecurity Outlook 2025. Insight Report. https://www.weforum.org/publications/global-cybersecurity-outlook-2025/
Europol. (2025). Steal, deal and repeat – How cybercriminals trade and exploit your data. Publications Office of the European Union, Luxembourg. https://www.europol.europa.eu/publication-events/main-reports/steal-deal-and-repeat-how-cybercriminals-trade-and-exploit-your-data












