Der schnelle Einstieg in GenAI-Projekte birgt Risiken, die anfangs kaum erkennbar sind, warnt das Marktforschungs- und Beratungshaus Gartner. CIOs sollten diese „Blindspots“ schleunigst adressieren.
Technologien und Methoden rund um generative KI entwickeln sich mit beispielloser Geschwindigkeit, sagt Arun Chandrasekaran, Distinguished VP Analyst bei Gartner. „Der damit verbundene Hype erschwert es CIOs, in diesem dynamischen Umfeld den Überblick zu behalten.“
Allzu oft konzentrierten sich Unternehmen in ihren GenAI-Projekten auf kurzfristige Herausforderungen, darunter der direkte Geschäftsnutzen, Datensicherheit und Datenqualität. Dabei blieben Nebenwirkungen zweiter oder dritter Ordnung, Gartner nennt sie „Blindspots“, oft unbeachtet. Die berüchtigte Schatten-KI (Shadow AI) gehöre ebenso dazu wie technische Schulden, der Verlust von Kompetenzen oder die wachsenden Anforderungen an souveräne IT-Infrastrukturen. In vielen Fällen drohe zudem eine Abhängigkeit von einzelnen KI-Anbietern.
Der Umgang mit diesen Blindspots werde bis 2030 darüber entscheiden, ob Unternehmen ihre KI-Aktivitäten sicher skalieren, oder aber in Abhängigkeiten geraten, an Agilität verlieren oder durch interne Probleme ausgebremst werden. Die Analysten nennen einige kritische Bereiche, die CIOs im Auge behalten sollten.
Ausufernde Schatten-KI
Laut einer Gartner-Befragung von IT-Sicherheitsverantwortlichen aus 2025 vermuten oder wissen 69 Prozent der Unternehmen, dass Mitarbeitende unerlaubt öffentlich verfügbare GenAI-Tools nutzen. Dies könne zu sichtbaren und unsichtbaren Schäden führen, darunter der Verlust geistigen Eigentums, Datenlecks oder generell höhere Sicherheitsrisiken. Die Marktforscher prognostizieren, dass bis 2030 mehr als 40 Prozent der Unternehmen weltweit mit Sicherheits- oder Compliance-Vorfällen im Zusammenhang mit „Shadow AI“ konfrontiert sein werden.
„Um solche Risiken zu minimieren, sollten CIOs unternehmensweite Richtlinien für den Einsatz von KI-Tools definieren, fordert Chandrasekaran. Er empfiehlt zudem regelmäßige Audits und GenAI-Risiken auch in SaaS-Bewertungsprozesse zu integrieren.
Technische Schulden von GenAI-Systemen
Ähnlich wie in der klassischen IT können auch durch den breiten Einsatz generativer KI technische Schulden entstehen, argumentiert Gartner. Besonders gescheiterte oder wackelnde Projekte könnten eine Menge unbrauchbaren Code oder aufgegebene Apps samt damit verbundener Sicherheitsprobleme hinterlassen. Die Folge: Bis 2030 werde die Hälfte aller Unternehmen mit steigenden Wartungskosten und verzögerten KI-Upgrades zu kämpfen haben.
„Viele Unternehmen sind begeistert von der Geschwindigkeit, mit der GenAI Ergebnisse liefert“, beobachtet Chandrasekaran. „Doch die hohen Kosten für Wartung, Fehlerbehebung oder den Ersatz KI-generierter Artefakte (…) können den ROI von GenAI schnell zunichtemachen.“ IT-Verantwortliche sollten deshalb Standards zum Prüfen und Nachverfolgen KI-generierter Assets einführen und Kennzahlen zu technischen Schulden definieren.
Wachsende Anforderungen an Daten- und KI-Souveränität
Bis 2028 werden 65 Prozent der Regierungen weltweit Vorgaben für eine technologische Souveränität entwickeln, so eine weitere Gartner-Prognose. Dahinter stehe das Ziel, die Unabhängigkeit zu stärken und sich vor extraterritorialer Regulierung zu schützen.
Regulatorischen Beschränkungen könnten insbesondere bei einer grenzüberschreitenden Nutzung von Daten und Modellen KI-Rollouts verlangsamen, die Gesamtkosten (TCO) erhöhen und am Ende zu schlechteren Ergebnissen führen.
CIOs sollten deshalb Daten- und KI-Souveränität vom Start weg in ihre Strategien integrieren. Dazu gehöre, Rechts- und Compliance-Abteilungen frühzeitig einzubinden und schon bei der Anbieterauswahl Souveränität als Kriterium zu beachten.
Kompetenzverlust durch übermäßigen KI-Einsatz
Wer sich zu stark auf KI-Systeme verlässt, riskiert, dass menschliches Urteilsvermögen und Expertise verloren gehen. Dieses oft gehörte Argument führt auch Gartner an, wenn es um versteckte KI-Risiken geht. Der Kompetenzverlust gehe häufig schleichend vonstatten. CIOs bemerkten ihn erst, wenn kritische Aufgaben im Unternehmen nicht mehr ohne KI funktionieren oder ein menschlicher Eingriff in ein KI-System notwendig werde.
Chandrasekaran rät deshalb: „Um einen Know-how-Verlust zu verhindern, sollten Organisationen genau definieren, in welchen Bereichen menschliches Urteilsvermögen unverzichtbar ist.“ Entscheidend sei, KI-Lösungen so zu gestalten, dass sie menschliche Fähigkeiten ergänzen, nicht ersetzen.
Vendor Lock-in und mangelnde Interoperabilität
Ein in der Unternehmens-IT altbekanntes Problem betrifft schließlich auch den Einsatz generativer künstlicher Intelligenz. Viele Unternehmen setzten beim Skalieren von GenAI-Lösungen auf einen einzelnen Anbieter, berichtet Gartner. Das sei auf den ersten Blick einfacher und schneller. Doch die damit einhergehende Abhängigkeit könne die technische Flexibilität und Verhandlungsspielräume erheblich einschränken.
„CIOs unterschätzen oft, wie eng ihre Daten, Modelle und Workflows mit anbieterspezifischen APIs, Datenplattformen und Tools verknüpft sind“, kommentiert Chandrasekaran. Besser wäre es, von Anfang an auf offene Standards, offene APIs und modulare Architekturen zu setzen: „Interoperabilität sollte ein zentraler Bewertungsfaktor in allen GenAI-Pilotprojekten und Assessments sein.“
Wie immer sind Gartner-Prognosen für die kommenden Jahre mit Vorsicht zu genießen, längst nicht jede „aktuelle“ Erhebung ist auch repräsentativ. Dennoch legen die Analysten zu Recht den Finger in die Wunde. Wenn eines Tages ganze Armeen an KI-Agenten zentrale Workflows steuern, kann aus einem kleinen Blind Spot schnell ein geschäftskritisches Problem werden. Wer die Risiken kennt, kann rechtzeitig gegensteuern.
Fotocredit: pixabay/WOKANDAPIX