Direkt zum Inhalt

Zwischen Vertrauen und Verantwortung: Warum Datenintegrität der blinde Fleck in der KI-Transformation ist

Tech Trendscout Kolumne

Tech Trendscout Kolumne von Lisa Höllbacher

Künstliche Intelligenz ist derzeit in aller Munde – sei es in Vorstandsmeetings, Innovation-Laboren oder bei Gesprächen über die Zukunft der Arbeit. Was dabei oft übersehen wird: Das Fundament, auf dem all diese Innovationen ruhen, sind unscheinbare Daten. Und genau diese Basis ist derzeit fragiler, als es viele wahrhaben wollen.

In einem Gespräch mit dem KI-Experten Simon Kranzer – FH Lehrender, Unternehmer, Digitalstratege und Begleiter zahlreicher Transformationsprozesse – wurde eines besonders deutlich: Ohne verlässliche, gut beschriebene und verantwortungsvoll behandelte Daten kann KI nicht nur ineffizient, sondern sogar gefährlich werden.

Datenintegrität: Mehr als ein technisches Problem

Simon Kranzer bringt es auf den Punkt: „Sobald KI-Systeme selbstständig Entscheidungen treffen, wird die Qualität der zugrundeliegenden Daten zur kritischen Frage.“ Denn: Unvollständige, veraltete oder schlichtweg falsche Informationen beeinflussen nicht nur das Ergebnis von Modellen – sie können auch die Entscheidungen, die auf diesen Ergebnissen basieren, systematisch verzerren.

Was dabei oft unterschätzt wird: Datenqualität ist keine rein technische Aufgabe. Es braucht Strukturen, Rollen und Verantwortlichkeiten, die sicherstellen, dass Daten nachvollziehbar und vertrauenswürdig sind. Das beginnt bei klaren Zuständigkeiten – etwa in Form von Data Stewards – und reicht bis zu Governance-Strukturen, die auch externe Audits ermöglichen. Besonders spannend ist dabei die Frage nach der Herkunft der Daten: Können wir nachvollziehen, aus welcher Quelle sie stammen? Wer trägt Verantwortung dafür? Und wie aktuell sind sie?

Gerade in einer Zeit, in der KI-Agenten und automatisierte Entscheidungen zunehmend Einzug in alltägliche Prozesse halten – von HR-Algorithmen bis zu Finanzsystemen – wird es entscheidend, ob sich Unternehmen auf ihre Datenlandschaft verlassen können. „Früher hat halt am Ende noch ein Mensch draufgeschaut – heute entscheiden oft Maschinen im Hintergrund“, sagt Simon. Und genau das macht das Thema so dringlich.

Data Mesh: Ein organisatorischer Game Changer

Ein Begriff, der im Gespräch mehrfach gefallen ist und mir besonders hängen geblieben ist, lautet: Data Mesh. Dabei geht es nicht nur um Technologie, sondern vor allem um ein neues Verständnis davon, wie wir mit Daten in Organisationen umgehen. Weg vom zentralisierten Daten-Monolithen – hin zu dezentralen, aber gut orchestrierten Datenprodukten mit klaren Verantwortlichkeiten.

In diesem System werden Daten wie Produkte behandelt: Sie sind dokumentiert, aktualisiert, gepflegt – und vor allem: jemand ist dafür verantwortlich. Damit wird aus „Data is the new oil“ ein tragfähiges, nachhaltiges Ökosystem, das Vertrauen schafft – auch über Unternehmensgrenzen hinweg. Es erinnert an das, was wir von Produkten im realen Leben gewohnt sind: klare Herkunft, nachvollziehbare Qualität und Verantwortlichkeit. Warum also nicht auch bei Daten?

Und das Schöne: Diese Konzepte sind nicht nur Zukunftsmusik. Sie sind bereits heute umsetzbar – mit den richtigen Strukturen, mit Awareness und mit Menschen, die Daten nicht nur als technisches Nebenprodukt sehen, sondern als strategisches Asset begreifen.

Zwischen Verfügbarkeit und Vertraulichkeit

Ein weiteres Spannungsfeld, das Simon adressiert, liegt zwischen dem Wunsch nach offenen, zugänglichen Daten und dem gleichzeitigen Bedürfnis nach Datenschutz, Vertraulichkeit und Unternehmenssouveränität. Insbesondere in Europa sind wir hier in einer besonderen Position: Einerseits gelten strenge Datenschutzregeln, andererseits erwarten wir aber auch Innovationskraft und schnelle technologische Adaption.

Die Lösung liegt in intelligenten Datenarchitekturen, die beides ermöglichen – etwa durch anonymisierte Datenräume, differenzierte Zugriffskontrollen und den gezielten Einsatz von APIs. Der entscheidende Punkt ist aber ein anderer: Diese Systeme brauchen einen ethischen Unterbau, eine Governance, die Vertrauen nicht nur fordert, sondern auch verdient.

Simon erinnert dabei an die klassische Triade der IT-Sicherheit – Verfügbarkeit, Vertraulichkeit und Integrität – und plädiert dafür, die Gewichtung im KI-Zeitalter neu zu denken. Denn wenn Entscheidungen automatisiert getroffen werden, kann ein Mangel an Integrität zu weitreichenden Konsequenzen führen – bis hin zu systemischen Risiken. Datenintegrität wird damit zum entscheidenden Wegweiser.

Europas Chance: Qualität statt Quantität

In unserem Gespräch plädiert Simon besonders für eine europäische Perspektive, die nicht nur auf Geschwindigkeit und Volumen setzt, sondern auf Sorgfalt, Nachvollziehbarkeit und wertebasierte Entwicklung. „Wir reden so oft über unsere Nachteile in Europa – Bürokratie, Langsamkeit. Aber dabei übersehen wir, dass genau darin auch unsere Stärke liegen kann“, sagt er.

Vielleicht ist genau das unser USP im globalen KI-Wettlauf: Nicht die schnellste, lauteste oder datenreichste Lösung zu bauen – sondern die vertrauenswürdigste. Eine, die nicht nur funktioniert, sondern auch Verantwortung übernimmt. Für Menschen, für Organisationen, für die Gesellschaft.

Fazit: Datenintegrität ist der unsichtbare Hebel der KI-Zukunft

Daten sind nicht einfach da. Sie entstehen, sie verändern sich, sie tragen Intentionen in sich – bewusst oder unbewusst. Wer KI einsetzen möchte, muss daher auch bereit sein, sich mit den Grundlagen zu beschäftigen. Und das heißt: Daten ernst nehmen. Nicht als lästige Pflicht, sondern als strategisches Fundament.

Denn erst wenn wir Daten als das behandeln, was sie sind – Träger von Bedeutung, von Verantwortung und von Wirkung – kann KI wirklich das werden, was wir uns alle wünschen: ein Werkzeug für eine bessere, klügere, gerechtere Zukunft.