...Loading
Missing alt text

Schatten-KI verhindern: 6 Tipps

Stand: 09.10.2025 10:00 Uhr

Wie Unternehmen Schritt für Schritt generative KI skalierbar und datenschutzkonform einsetzen und unkontrollierte KI-Nutzung im eigenen Haus verhindern.

Künstliche Intelligenz ist ein echter Gamechanger – sie ermöglicht Unternehmen neue Services, besseres Kundenverständnis, erhöht die Effizienz, beschleunigt Prozesse und pusht so die Wettbewerbsfähigkeit. Ohne Sicherheit, Kontrolle und klare Regeln geht das allerdings nicht, denn wie jedes andere Werkzeug muss KI mit Verstand eingesetzt werden. Ziellos damit herumzufuchteln, bringt vor allem Ärger. Ein solches Ärgernis ist die so genannte Schatten-KI oder Shadow AI. Darunter versteht man die vom Unternehmen nicht genehmigte – oft dem Unternehmen nicht einmal bekannte - Nutzung von KI-Tools durch Mitarbeiter, bei der nicht selten sensible Informationen, etwa zu Produkten, Firmen-Interna oder sogar Kundendaten, arglos in KI-Lösungen eingegeben werden.

„Bei vielen KI-Tools gelangen die Daten offen an die generative KI oder deren Hersteller, etwa in den USA. Auch bei Guardrails, also den Leitplanken, die den Einsatz einer KI-Lösung innerhalb bestimmter Vorgaben regulieren, sind Unternehmen von den Herstellern abhängig und können keine Einschränkungen vornehmen“, erklärt Rainer Holler, CEO von VIER. Das kann zu einem deutlichen Kontrollverlust und massiven Imageschäden führen. Diese Risiken müssen Unternehmen beim Einsatz von KI ausschließen und sie stattdessen verantwortungsvoll in bestehende Prozesse integrieren.

KI-Technologien zukunftssicher etablieren – so geht’s!

Tipp: KI-Einsatz strategisch planen

Der KI-Einsatz muss von der Unternehmensführung bestimmt und begleitet werden. Er ist kein reines IT-Projekt. Entsprechend sollten Unternehmen eine KI-Policy erarbeiten, die auch regelt, wer KI für welche Prozesse einsetzen darf und wie diese Nutzung kontrolliert wird.

Tipp: Mitarbeiter praxisnah schulen

Technisch lösbar ist vieles, aber ohne die Belegschaft geht es nicht. Mitarbeiter sollten daher die Chance erhalten, KI risikolos kennenlernen zu können. Und sie benötigen Informationen und Kenntnisse über Nutzung und Risiken. Sie sollten beispielsweise wissen, welche sensiblen Daten sie nicht in öffentliche Chatbots oder andere KI-Tools eingeben dürfen. Dazu eignen sich Awareness-Trainings, die auch über die Chancen von generativer KI informieren und Best Practices vermitteln.

Tipp: Datensicherheit gewährleisten

Personenbezogene Daten und Unternehmensinterna dürfen nicht in generative KI-Anwendungen eingegeben werden. Man kann sie aber dennoch nutzen – wenn sichergestellt ist, dass sensible Daten (Name, Adresse, Bankverbindung etc.) automatisch erkannt und pseudonymisiert werden, ehe sie an die KI gehen. So verbleiben geschäftskritische Daten auf dem hauseigenen Server und werden nicht an das LLM gesendet. Das LLM arbeitet mit dem anonymisierten Kontext. Nach Ausgabe der Antwort durch die KI werden die Daten re-pseudonymisiert und stehen dem Unternehmen wieder klar zur Verfügung. Als wertvolles Hilfsmittel haben sich hierzu AI Gateways etabliert.

Tipp: Regulatorische Anforderungen zuverlässig einhalten

Unternehmen müssen definieren, wo Daten verarbeitet und gespeichert werden. Und sie müssen prüfen, ob ihr KI-Anbieter DSGVO-konform arbeitet – beispielsweise durch Server in der EU bzw. in Deutschland – und ob der Anbieter den Einsatz von KI nach den Vorgaben des EU AI Acts unterstützt. Dazu gehören auch Guardrails als zentrales Tool zum Beschreiben und Durchsetzen von Richtlinien. Auch hier sind AI Gateways hilfreich.

Tipp: Zugriffskontrolle gewährleisten

Durch KI-Profile, die den Zugriff auf KI-Modelle organisieren und kontrollieren, rollenbasierte Berechtigungen und klare Richtlinien lässt sich die Nutzung von KI-Modellen für ganze Abteilungen und einzelne User steuern. So nutzen Mitarbeiter nicht nur KI-Tools, die für sie praktisch, sondern auch freigegeben sind. Und Sie ordnen die entstehenden Kosten präzise zu und dokumentieren die Nutzung gemäß Compliance-Anforderungen. Der Nutzung von Shadow AI wir damit der Boden entzogen.

Tipp: Transparenz & Nachvollziehbarkeit sichern

Im Rahmen des EU AI Acts müssen Unternehmen detailliert dokumentieren, welche Prompts und Outputs in geschäftskritischen Prozessen verwendet wurden. Darüber hinaus müssen Unternehmen ihre Entscheidungen, die auf KI-Ergebnissen beruhen, begründen und klare Verantwortlichkeiten für die finale Freigabe festlegen.

Gemeinsam den Einstieg schaffen

Fazit: Ob für Auswertungen, Zusammenfassungen, Präsentationen, Assistenz und vieles mehr: Generative KI verändert den Unternehmensalltag und verbessert Arbeitsschritte. Doch sensible Kundendaten und Interna dürfen nicht unkontrolliert an fremde KI-Modelle übergeben werden. Dennoch wollen und sollen Mitarbeiter KI einfach nutzen und kennenlernen. Das ist möglich, wenn Unternehmen ein paar Punkte beachten und Schritt für Schritt in die KI-Nutzung einsteigen.

    Autorin:

    Missing alt text

    Susanne Feldt

    Corporate Communications

    VIER

    Weiterführende Informationen

    Datensicherheit gewährleisten mit dem VIER AI Gateway

    VIER hat mit dem VIER AI Gateway ein Tool geschaffen, um die Datensicherheit bei der KI-Nutzung zu gewährleisten: Mehr zu VIER AI Gateway

    Wie verbreitet ist Schatten-KI? Ziemlich!

    In vielen Unternehmen nutzen Beschäftigte für die Erledigung beruflicher Aufgaben wie die Beantwortung einer E-Mail oder die Zusammenfassung eines Dokuments private KI-Tools wie ChatGPT & Co, das zeigt eine aktuelle Befragung des Bitkom. In 8 Prozent der Unternehmen ist der Einsatz privater KI-Tools, so genannte Schatten-KI, demnach weit verbreitet, in 17 Prozent gibt es mindestens Einzelfälle. Weitere 17 Prozent der Befragten wissen es nicht sicher, gehen aber davon aus, dass private KI-Lösungen genutzt werden. „Künstliche Intelligenz entwickelt sich im Alltag vieler Menschen zu einer Standardtechnologie. Mit der Verbreitung von KI-Tools, etwa auf dem Smartphone, wächst auch der Wunsch, die Vorteile bei der Arbeit zu nutzen“, kommentiert Bitkom-Präsident Dr. Ralf Wintergerst die Zahlen. „Doch die Unternehmen sollten KI-Wildwuchs vermeiden und der Entwicklung einer Schatten-KI vorbeugen. Dazu müssen sie klare Regeln für den KI-Einsatz aufstellen und ihren Beschäftigten KI-Technologien zur Verfügung stellen.“ Knapp ein Viertel (23 Prozent) der Unternehmen hat bereits Regeln für den Einsatz von KI-Tools aufgestellt, vor einem Jahr waren es erst 15 Prozent. Weitere 31 Prozent haben das fest vor. Doch 16 Prozent wollen das nicht und weitere 24 Prozent haben sich mit der Frage noch nicht einmal beschäftigt.

    Mehr zu den Befragungsergebnissen auf bitkom.org

    Zum Blog
    ...Loading