Shadow IT kennt jeder. Aber Shadow AI? Das hat's wirklich in sich. Da sagt man der AI Governance gleich mal „tschüss".
Und das passiert gerade flächendeckend. Nicht weil Mitarbeiter rebellieren. Sondern weil KI-Tools oft schneller, spezialisierter und näher am konkreten Problem sind als das, was intern verfügbar ist. Der Business Analyst, der seine Marktanalyse mit ChatGPT aufbereitet. Die Strategieabteilung, die Wettbewerbsberichte mit Claude erstellt. Der Produktmanager, der seine Roadmap von einem LLM strukturieren lässt. Nicht aus Protest, sondern aus Pragmatismus.
Microsoft nennt es „BYOAI" - Bring Your Own AI. Laut Work Trend Index bringen 78% der KI-Nutzer bereits eigene Tools mit in die Arbeit.
Das eigentliche Problem: Niemand weiß, auf welcher Grundlage die Ergebnisse basieren, die am Ende in der Entscheidungsvorlage landen. Was davon ist ein Fakt, was eine Einschätzung, was eine Halluzination? Mit Blick auf die ab August 2026 breit anwendbaren Vorgaben des EU AI Act wird genau diese Frage auch regulatorisch relevant.
Die Antwort ist nicht, KI zu verbieten. Das funktioniert nicht und wäre dumm. Die Antwort ist, Shadow AI aus dem Schatten zu holen. Mit klaren Spielregeln. Vielleicht braucht es dafür einfach einen "NDA für den KI-Agenten"...
Ein möglicher Baustein: eine Evidence Policy mit Confidence Labels. Jede KI-gestützte Aussage in einer Entscheidungsvorlage bekommt ein Label. BELEGT - Überprüfbare Quelle. ERFAHRUNG - Senior Judgment. HYPOTHESE - Annahme (zu prüfen). Drei Labels. Klingt simpel. Verändert aber schnörkellos, wie ein Unternehmen mit KI-generierten Ergebnissen umgeht. Denn plötzlich wird sichtbar, was fundiert ist und was nicht.
Mehr dazu demnächst: Ich arbeite gerade an einer Publikation zu Agentic Consulting (Methoden-Koffer). Shadow AI und wie man es in den Griff bekommt, ist eines der Kapitel. Praxisnah, mit konkreten Frameworks wie dem Label-System.
