Schatten-KI im Einkauf stoppen: Drei Wege, AI sicher zu nutzen statt zu verbieten

Mit jedem geonboardeten Lieferanten schliesst man ein separates NDA ab. Jedes Mal, wenn ein Einkäufer vertrauliche Lieferantendaten in ChatGPT, Claude oder Gemini hochlädt, ist das ein potenzieller Verstoss gegen genau dieses NDA. Nicht theoretisch. Tatsächlich. Und das passiert gerade in fast jeder Einkaufsabteilung, die ich kenne. Auch in solchen, in denen ChatGPT offiziell gesperrt ist.
Die Realität, die niemand offen ausspricht
Stell dir Frau Meier vor, Senior Einkäuferin in einem Schweizer Industriekonzern. Sie hat heute morgen einen 42-seitigen Rahmenvertrag eines neuen Lieferanten auf dem Tisch. Der Vertrag soll bis Freitag bewertet sein. Daneben liegen zwei Ausschreibungen, drei Lieferantenanfragen und ein eskaliertes Qualitätsthema.
Im Intranet hängt seit einem Jahr die Richtlinie: AI-Tools mit Firmendaten sind nicht erlaubt. Die IT hat ChatGPT auf dem Firmenlaptop gesperrt. Der Datenschutzbeauftragte hat ein Memo verschickt.
Frau Meier macht trotzdem das, was sie immer macht. Sie öffnet ChatGPT oder Claude auf ihrem privaten Handy, fotografiert die kritischen Klauseln und fragt: "Gibt es hier ungewöhnliche Haftungsregelungen? Was sollte ich verhandeln?" In zehn Minuten hat sie eine bessere Übersicht als nach zwei Stunden manueller Prüfung.
Frau Meier ist nicht die Ausnahme. Sie ist der Normalfall.
Das Verbot funktioniert nicht. Es verlagert das Verhalten nur dorthin, wo es niemand mehr sieht. Und genau das macht das Risiko gefährlich, denn was nicht sichtbar ist, kann auch nicht gesteuert werden.
Schatten-KI lässt sich nicht auditieren
Eine erste Reaktion vieler Compliance-Verantwortlicher ist: "Dann machen wir ein Audit. Wir messen, wie viel Schatten-KI bei uns wirklich genutzt wird." Das funktioniert nicht. Aus drei Gründen.
Erstens nutzen die Mitarbeiter AI-Tools auf privaten Geräten, in privaten Netzwerken, oft ausserhalb der Arbeitszeit. Da sieht niemand mit. Zweitens wird niemand offen zugeben, gegen eine interne Richtlinie zu verstossen. Eine anonyme Umfrage liefert höchstens eine Untergrenze, keine Wahrheit. Drittens: Selbst wenn ChatGPT gesperrt ist, gibt es Claude, Gemini und zwanzig andere Tools, die nicht gesperrt sind. Die Mitarbeiter sind kreativ, wenn der Druck im Job hoch ist.
Die DSGVO ist nicht euer grösstes Problem
In den meisten Diskussionen über Schatten-KI dreht sich alles um Datenschutz. Personenbezogene Daten, Drittland-Übermittlung, DSGVO-Bussgelder. Das sind reale Themen. Aber sie sind nicht das grösste Risiko. Das grösste Risiko liegt im Vertragsrecht.
Mit jedem geonboardeten Lieferanten wird ein separates NDA abgeschlossen. Die typische Geheimhaltungsklausel klingt sinngemäss so:
Vertrauliche Informationen dürfen ausschliesslich für den Vertragszweck verwendet werden. Eine Weitergabe an Dritte ist nur mit ausdrücklicher schriftlicher Zustimmung zulässig. Der Empfänger trifft angemessene technische und organisatorische Massnahmen, um die Vertraulichkeit zu wahren.
Sobald ein Einkäufer Lieferantendaten in ChatGPT oder Claude hochlädt, sind alle drei Punkte des NDA verletzt. OpenAI und Anthropic sind nicht Vertragspartei. Der Lieferant hat dem nie zugestimmt. Und die "angemessenen Massnahmen" enden spätestens dort, wo die Daten in einem US-Rechenzentrum landen.
Auch der Enterprise-Vertrag löst das Problem nicht
"Wir nutzen ja Claude for Enterprise. Mit Auftragsverarbeitungsvertrag." Diese Antwort höre ich oft. Sie löst das DSGVO-Problem zumindest weitgehend. Sie löst das NDA-Problem nicht.
Eine Auftragsverarbeitungsvereinbarung regelt das Verhältnis zwischen euch und dem LLM-Anbieter, im Hinblick auf personenbezogene Daten nach DSGVO. Eine Geheimhaltungsklausel regelt das Verhältnis zwischen euch und eurem Lieferanten, im Hinblick auf vertrauliche Geschäftsinformationen. Das sind zwei völlig unterschiedliche Rechtsregime.
Dazu kommt: Auch mit Datenresidenz in der EU unterliegen US-Konzerne wie Microsoft, OpenAI und Anthropic dem CLOUD Act. Im Konfliktfall können US-Behörden Zugriff verlangen, auch wenn die Daten physisch in Frankfurt liegen. Und mit dem EU AI Act kommt seit 2024 eine zusätzliche Compliance-Schicht hinzu, die auch für Schweizer Unternehmen mit EU-Geschäft gilt.
Drei Architekturvarianten für sichere AI im Einkauf
Die gute Nachricht: Es gibt drei Architekturvarianten, mit denen sich AI im Einkauf produktiv und sauber nutzen lässt.
Variante 1: Lokale Anonymisierung mit angeschlossenem LLM. Im Ergebnis bekommt eure Einkaufsabteilung eine eigene interne Web-Anwendung im Intranet. Der Einkäufer öffnet das Tool im Browser, lädt den Vertrag hoch und bekommt eine strukturierte Analyse zurück. Im Hintergrund passiert alles in drei Schritten: Zuerst anonymisiert ein Tool wie Microsoft Presidio den Vertrag lokal. Firmennamen, Personen und Kontodaten werden durch konsistente Platzhalter ersetzt. Dann geht der anonymisierte Text mit einem gezielten Prompt ans LLM. Und zuletzt werden die Platzhalter in der Ausgabe automatisch wieder durch die echten Namen ersetzt. Der Einkäufer sieht am Ende eine fertige Risikoanalyse mit den korrekten Firmennamen, obwohl das LLM zu keinem Zeitpunkt wusste, um welchen Lieferanten es geht. Genau diesen Workflow setzen wir bei Insave für Einkaufsabteilungen auf.
Variante 2: Enterprise-LLM mit Auftragsverarbeitungsvertrag. Für Standardverträge ohne hochsensible Inhalte oft der pragmatische Weg. Setzt voraus, dass eure NDA-Klauseln das hergeben und dass eure Branche keine besonderen Souveränitätsanforderungen hat.
Variante 3: Lokales LLM auf eigener Infrastruktur. Maximale Souveränität, höhere Investition. Sinnvoll bei sensiblen Branchen, regulierten Unternehmen oder wenn AI ohnehin breiter im Unternehmen ausgerollt werden soll.
Welche Variante die richtige ist, hängt von eurer Vertragslandschaft, eurer IT-Infrastruktur und eurem Compliance-Rahmen ab. Variante 1 bietet den besten Kompromiss aus Sicherheit und Leistung. Variante 3 ist der sauberste Weg, wenn ihr die Investition tragen könnt. Und Variante 2 ist ein pragmatischer Einstieg für Unternehmen, deren NDAs das hergeben.
Kostenvergleich: Schweizer KMU mit 12 Einkäufern
Variante 1: Anonymisierung + Cloud-LLM
Variante 2: Enterprise-LLM (z.B. Claude Team, ChatGPT Team)
Variante 3: Lokales LLM auf eigener Infrastruktur
Was es nicht ist: Ein Tool zum Selbst-Installieren
Zwischen "es gibt ein Open-Source-Tool" und "es funktioniert in eurem Einkaufsalltag" liegen die schwierigen 80 Prozent der Arbeit. Die Erkennungsregeln muessen auf eure Vertragstypen kalibriert werden. Eure Einkaeufer brauchen Schulungen und Prompt-Templates. Euer Datenschutzbeauftragter braucht eine Verfahrensdokumentation.
Der nächste Schritt
Wenn ihr den Verdacht habt, dass eure Einkäufer Schatten-KI nutzen, oder die Gewissheit, dass sie es tun, lasst uns sprechen. Im Erstgespräch schauen wir gemeinsam, welche eurer Verträge wirklich sensibel sind, welche Architekturvariante zu eurem Compliance-Rahmen passt und wie ihr in zwölf Wochen einen Workflow aufgesetzt bekommt, mit dem eure Einkäufer schneller arbeiten und der Lieferant trotzdem geschützt bleibt.
Bereit für die AI Transformation?
In einem kostenlosen Erstgespräch analysieren wir gemeinsam, wo AI euren Einkauf effizienter machen kann.
Kostenloses Erstgespräch buchenWeitere Artikel

Lieferantenbewertung mit KI: Von der Scorecard zum dynamischen Ranking
Klassische Lieferanten-Scorecards sind statisch und subjektiv. KI macht die Bewertung datengetrieben, dynamisch und vorausschauend.

Einkaufskosten senken mit AI: Drei Hebel, die sofort wirken
AI hilft Einkaufsabteilungen, Kosten zu senken. Drei konkrete Hebel, die sich schnell umsetzen lassen und messbaren ROI liefern.

Wie AI den Einkauf revolutioniert: 5 Use Cases mit sofortigem ROI
Erfahre, wie künstliche Intelligenz Einkaufsabteilungen effizienter macht und welche 5 Use Cases den grössten ROI liefern.