Zwischen Algorithmen und innerer Weisheit

Wenn du Google eine Frage gestellt hast, dann hast du wahrscheinlich eine lange Liste von Ergebnissen erhalten – oft im Millionenbereich. „Unzählige Treffer“, sagt Google. Und dann liegt es an dir: Du kannst die Seiten durchforsten, Meinungen vergleichen und dir selbst ein Bild davon machen, was wahr ist – was für dich wahr ist.

Doch seit 2023 hat sich etwas verändert. Du öffnest ChatGPT, stellst eine Frage – und bekommst oft eine einzige Antwort. Klar, direkt, selbstbewusst präsentiert. Diese Antwort wird nicht als Möglichkeit, sondern als Wahrheit dargestellt.

Was bedeutet das für uns? Es bedeutet, dass die Antworten, die wir erhalten, nicht mehr aus einem weiten Feld unterschiedlicher Perspektiven stammen. Wir bewegen uns nicht mehr durch ein offenes Spektrum von Ideen und Erfahrungen, sondern werden in eine Richtung gelenkt. Die Antworten, die wir erhalten, spiegeln nicht nur die Wahrheit wider – sondern die Perspektiven und Entscheidungen derjenigen, die die Algorithmen programmiert haben.

Beim Verstärkungslernen wird die KI darauf trainiert, bestimmte Antworten als „richtig“ oder „besser“ zu bewerten. Die Entwickler*innen legen also fest, welche Antworten als wünschenswert gelten und welche nicht. Das beeinflusst, welche Art von Wahrheit oder Perspektive letztlich bevorzugt wird.

Die Idee dahinter war also, dass die Antworten von KI-Systemen nicht neutral oder objektiv sind, sondern durch die Sichtweisen, Werte und Entscheidungen der Entwickler*innen (oft aus Kalifornien, weil dort die großen Tech-Unternehmen sitzen) geprägt werden.

Wir leben in einem Zeitalter, in dem die Wahrheit also zunehmend von Maschinen bestimmt wird. Und genau das könnte der grösste Weckruf unserer Zeit sein!