Direkt zum Inhalt

Wir werden wie sie

Menschen

Wie algorithmische Gleichförmigkeit unseren Sinn für Bedeutung zerstört und warum das teurer wird als wir denken

 
 „Sprache ist nicht nur ein Kommunikationsmittel. Jede Sprache trägt eine eigene Weltanschauung, eine eigene Art, Zeit, Beziehungen, Verantwortung und Sinn zu strukturieren.“  — Wade Davis

Das bekannte Problem und die Frage, die wir noch nicht stellen

KI-Systeme lernen aus Inhalten, die Menschen ins Netz stellen. Das Internet zeigt keine Wirklichkeit, es zeigt eine Inszenierung. Optimierte Profile, Erfolge ohne Kontext, Karrieren ohne Zweifel, Perfektion.

Dass Algorithmen diese Verzerrung verstärken und auf uns zurückspiegeln, ist bekannt und dokumentiert.

Aber die eigentlich relevante Frage wird kaum gestellt:

Was passiert mit uns – mit unserer Fähigkeit, Bedeutung zu empfinden – wenn wir uns lange genug in diesem Zerrspiegel betrachten?

Und was passiert mit uns als Gesellschaft, wenn Millionen von Menschen dasselbe tun?

Ikigai – das Gefühl, nicht das Diagramm

Wer über KI und Sinn schreibt, greift gerne zum bekannten Venn-Diagramm: vier Kreise, vier Fragen, eine Überschneidung.

Das ist kein japanisches Konzept!

Es wurde 2014 von einem britischen Blogger erstellt, der ein spanisches Purpose-Modell mit dem Wort Ikigai beschriftete. Japaner reagieren darauf nicht selten mit Befangenheit – es ist ihr Begriff, aber nicht ihr Gedanke.

Das echte Konzept wurde von der Psychiaterin Mieko Kamiya entwickelt. Ihr 1966 erschienenes Werk Ikigai-ni-Tsuite entstand aus der Arbeit mit an Lepra erkrankten Menschen – Menschen, die trotz verbesserter körperlicher Symptome tief litten, weil sie das Gefühl verloren hatten, dass ihr Leben zählt.

Kamiya unterscheidet zwei Dinge, die im Westen fast immer vermischt werden:

Ikigai-taishō: die Quellen von Bedeutung – Menschen, Tätigkeiten, Dinge.

Ikigai-kan: das Gefühl selbst – das lebendige Gespür, dass das, was ich tue, zählt.

Man kann alle richtigen Quellen haben – den richtigen Job, die richtige Berufung – und das Gefühl trotzdem verloren haben. Kamiya beschreibt das als eine der stillen Tragiken des modernen Lebens.

Genau hier greift KI ein: nicht beim Job. Beim Gefühl.

Wenn Algorithmen zunehmend definieren, was relevant, erfolgreich und sinnvoll erscheint, verschieben sie unser Bild möglicher Bedeutungsquellen. Leise. Stetig. Und das Ikigai-kan – das eigentliche Gefühl der Bedeutsamkeit – verliert seinen Boden.

Wer den Wert nicht kennt, zahlt den Preis dafür

Wenn Menschen nicht mehr wissen bzw. spüren, was für sie wirklich bedeutsam ist – nicht, was der Algorithmus empfiehlt, sondern was sie selbst, tief, als wertvoll empfinden – beginnen sie Entscheidungen zu treffen, die sich innerlich falsch anfühlen, aber äußerlich folgerichtig wirken.

Die Forschung zu chronischem Sinnverlust ist eindeutig: erhöhte Burnout-Raten, depressive Episoden, stille Abwanderung aus Organisationen und Gemeinschaften. Menschen, die funktionieren, aber nicht mehr wirklich anwesend sind.

Wer den Wert nicht kennt, zahlt den Preis dafür. Und dieser Preis kommt in harter Währung.

In Krankenständen. In Kündigungen ohne erklärbaren Grund. In Teams, die technisch kompetent sind, aber keine Energie mehr erzeugen. In Führungskräften, die alles richtig machen und trotzdem das Gefühl haben, dass irgendetwas grundlegend fehlt.

Wir nennen das dann Quiet Quitting und behandeln es als HR-Problem. Oder als Generationenproblem. Oder als Führungsproblem.

Es ist ein Sinnproblem. Und wir haben es mitgebaut.

Die Monokultur – oder: Was wir verlieren, wenn alle gleich optimiert sind

Ein Wald bestehend aus einer einzigen Baumart ist nicht nur ästhetisch monoton. Er ist strukturell anfällig. Ein Schädling, eine Trockenperiode, eine Veränderung der Bodenbedingungen – und das gesamte System kollabiert. Der Mischwald überlebt nicht trotz seiner Vielfalt. Er überlebt wegen ihr. Ob ein Wald schön ist, darf jeder für sich selbst entscheiden. Ob er resilient ist, ist eine Frage der Ökologie.

Dasselbe Prinzip gilt für menschliche Gesellschaften. Und es wird gerade systematisch untergraben.

Feedback-Schleifen zwischen algorithmischen Empfehlungen und menschlichem Verhalten erzeugen Konvergenz: Was oft empfohlen wird, wird häufiger gewählt. Was häufiger gewählt wird, bestätigt sich in den Daten. Was die Daten bestätigen, wird noch häufiger empfohlen. Das Ergebnis ist keine Vielfalt. Es ist Gleichförmigkeit - Normierung.

Wissenschaftler sprechen bereits vom „Artificial Hivemind“: Sprachmodelle konvergieren auf dominante kulturelle Ausdrucksmuster – meist westlich, meist englischsprachig, meist aus dem Kontext wirtschaftlicher Produktivität. Wenn Milliarden Menschen sich für kreative, bildungsbezogene und entscheidungsrelevante Fragen zunehmend auf dieselben Modelle stützen, überträgt sich diese Konvergenz auf menschliches Denken, Schreiben und Entscheiden.

Wir optimieren uns in eine Monokultur. Und Monokulturen sind nicht schön oder hässlich. Sie sind anfällig.

Biodiversität. Ethnodiversität. Beide in Gefahr.

Wir diskutieren den Verlust der Biodiversität als existenzielle Bedrohung. Mit Recht. Doch parallel dazu vollzieht sich ein Verlust, über den weit weniger gesprochen wird: der Verlust der Ethnodiversität.

Weltweit gibt es derzeit etwa 7.000 lebende Sprachen. Nahezu die Hälfte davon ist bereits bedroht. Die führenden KI-Sprachmodelle können souverän 60 bis 100 Sprachen bedienen – meist die großen Weltsprachen, für die profitable Trainingsdaten existieren. Was keine Daten hat, verschwindet zunächst aus der digitalen Welt. Und dann, eine Generation später, aus der echten.

Sprache ist nicht nur ein Kommunikationsmittel. Jede Sprache trägt eine eigene Weltanschauung, eine eigene Art, Zeit, Beziehungen, Verantwortung und Sinn zu strukturieren. Wenn eine Sprache stirbt, stirbt kein Wörterbuch. Es stirbt eine Art, die Welt zu verstehen.

Dasselbe gilt für kulturelle Praktiken, indigenes Wissen, tradierte Formen der Gemeinschaft und Entscheidungsfindung. Die Kogi im Norden Kolumbiens treffen Entscheidungen vorausschauend für die nächsten Generationen. Die japanische Kultur hat ein Konzept wie Ikigai-kan entwickelt, das wir im Westen seit Jahrzehnten nicht einmal übersetzen konnten. Das sind keine Kuriositäten. Das sind Problemlösungsstrategien für Herausforderungen, denen wir noch gar nicht begegnet sind.

Wir skalieren eine Technologie, deren Trainingsdaten die Welt so zeigen, wie der Westen sie inszeniert  und nennen das „Innovation“.

Das ist nicht nur eine Frage der Gerechtigkeit. Es ist eine Frage der kollektiven Intelligenz. Jede Perspektive, die verschwindet, ist eine Lösung weniger für die Probleme, die kommen.

Diversität ist kein Wert. Sie ist ein Funktionsprinzip.

Diversität ist kein Wert. Sie ist ein Funktionsprinzip – und der Unterschied ist entscheidend.

Werte kann man priorisieren, verschieben, in Krisenzeiten parken. Funktionsprinzipien nicht. Ein Wald ohne Vielfalt überlebt keine Trockenheit. Eine Organisation ohne Vielfalt überlebt keine echte Disruption. Das ist keine Meinung – das ist Systemlogik.

Organisationen, die das ernst nehmen, bauen entsprechend: Karrieresysteme, die nicht nur prämieren, was Algorithmen für messbar halten. Führungskultur, die Reibung nicht als Störung behandelt, sondern als Signal. Rekrutierung, die nicht nach kultureller Ähnlichkeit sucht, sondern nach produktiver Fremdheit.

Und sie helfen ihren Menschen aktiv dabei, ihr Ikigai-kan zu bewahren – das persönliche Gespür für Bedeutsamkeit, das sich nicht outsourcen lässt. Nicht an eine Strategie. Nicht an ein Kompetenzmodell. Und nicht an einen Algorithmus.

Fazit – Der Preis der Gleichförmigkeit

Wir erleben gerade zwei parallele Verlustprozesse, die beide dieselbe Wurzel haben: die Tendenz, Effizienz höher zu bewerten als Eigenart.

Der Verlust der Biodiversität ist sichtbar: Monokulturen kollabieren, Ökosysteme werden fragil. Der Verlust der Ethnodiversität ist leiser: Sprachen sterben, Weltsichten verschwinden, Bedeutungssysteme werden unsichtbar. Und der Verlust des individuellen Ikigai-kan ist am leisesten: Menschen funktionieren weiter, aber das Gefühl, dass es zählt, ist weg.

KI beschleunigt alle drei Prozesse. Nicht aus bösem Willen. Aus ökonomischer Logik. Trainingsdaten folgen dem Geld. Empfehlungsalgorithmen folgen der Masse. Feedback-Schleifen verstärken, was bereits dominant ist.

KI kann zeigen, was wahrscheinlich ist. Wir müssen entscheiden, was bedeutsam ist. Und wir müssen aufhören, diese beiden Dinge zu verwechseln.

Die Frage ist nicht, ob wir KI einsetzen. Die Frage ist, ob wir die Räume verteidigen, in denen das Eigenartige, das Abweichende, das Verschiedenartige noch atmen kann.

Denn was wir gerade riskieren, ist nicht, dass KI schlechter wird als wir. Sondern dass wir so werden wie sie.

Fünf Fragen – die wehtun dürfen

  1. Welche Fähigkeiten, Sichtweisen oder Hintergründe in meiner Organisation werden gerade unsichtbar gemacht – weil ein System sie nicht erfassen kann?
  2. Wenn ich ehrlich bin: Treffe ich Entscheidungen noch aus Überzeugung – oder weil die Daten keinen Widerspruch liefern?
  3. Welchen Preis zahlen wir bereits – in Krankenständen, in Abgängen, in stiller Abwesenheit – weil wir die Bedeutung von Bedeutung nicht ernst nehmen?
  4. Ist meine Organisation ein Mischwald – oder eine Plantage? Und was wäre der erste konkrete Schritt in Richtung Vielfalt?
  5. Wann habe ich zuletzt einer Perspektive echten Raum gegeben, die meiner komplett widerspricht – und was hat sie mir gegeben?

Fotocredit: Shutterstock/Daniel Fung