Schutz und Abwertung durch KI?

Ein X-Post des Schweizer Publizisten Daniele Ganser, der in meine Timeline gespült wurde, brachte ein Thema auf den Tisch, das viele Nutzerinnen und Nutzer von KI-Systemen beschäftigt:

Werden bestimmte Personen von Programmen wie ChatGPT gezielt geschützt, während andere systematisch abgewertet werden?

In dem Gespräch, auf das sich Ganser bezieht, taucht die These auf, dass internationale Persönlichkeiten wie Benjamin Netanyahu, Joe Biden, Bill Gates, Wolodymyr Selenskyj und Greta Thunberg unter „digitalem Schutz“ stünden, während kritische Stimmen im deutschsprachigen Raum – darunter Ganser selbst, aber auch Ken Jebsen, Ulrike Guérot, Anselm Lenz oder Albrecht Müller – "algorithmisch abgeräumt" würden.

Ich will hier übrigens nicht in Verdacht geraten, bestimmten Richtungen anzuhängen, es geht mir lediglich darum, die obige Frage anhand von Extrempositionen aufzuarbeiten. Es geht mir mir hier nicht darum, ob diese Positionen richtig oder falsch sind.


Unterschiedliche Tonlagen

Wer Antworten von KI-Systemen zu prominenten Politikern und zu sogenannten "umstrittenen" Intellektuellen nebeneinanderlegt und miteinander vergleicht, stößt tatsächlich auf Unterschiede in der Art und Weise der Darstellung. Bei einer Person wie Benjamin Netanyahu erscheinen sowohl die Kritikpunkte – Korruptionsvorwürfe, Siedlungspolitik, harter Kurs gegenüber den Palästinensern – als auch positive Zuschreibungen wie Sicherheitsgarant oder erfahrener Krisenmanager. Das Bild bleibt auf diese Weise insgesamt ausgewogen.

Ganz anders wirkt es bei Daniele Ganser. Dort konzentrieren sich die Antworten häufig auf die Kritik an seinen Thesen – von 9/11 über NATO-Geheimarmeen bis zum Ukrainekrieg. Immer wieder taucht das Label "umstritten" auf, teils ergänzt durch den Hinweis auf Verschwörungstheorien. Befürworterperspektiven erscheinen in diesen Darstellungen zwar, treten aber deutlich in den Hintergrund.

Auf diese Weise entsteht der Verdacht, KI würde bewusst und gezielt missliebige Kritiker herrschender Verhältnisse in ein schlechtes Licht stellen und etablierte, "systemtreue" Personen in positiv geschönter Weise darstellen. Schauen wir uns einmal an, was hinter dem Verdacht Wahres stecken könnte...


Warum entstehen diese Unterschiede?

Es gibt verschiedene Faktoren, die hier zusammenspielen. Zum einen ist es juristische Vorsicht: Internationale Spitzenpolitiker oder Prominente können leichter Klagen einreichen, weshalb KI-Anbieter in den Formulierungen besonders umsichtig sind. Hinzu kommen Moderationsrichtlinien, die darauf zielen, sogenannte "Desinformation" einzudämmen und Angriffe auf stark exponierte Personen zu vermeiden. Soweit ist das tatsächlich eine bewusste und gezielte Filterung von Informationen und die Art und Weise der Selektion liegt unter alleiniger Kontrolle der KI-Anbieter. Eine irgendwie demokratisch verfasste Kontrolle der KI-Anbieter findet nicht statt. Was zum Beispiel ist "Desinformation"? Wer legt fest, was sich hinter dem Begriff verbirgt oder auch nicht verbirgt?

Dann prägt aber vor allem einmal die Quellenlage, auf die KI zurückgreift, das Bild - und dieser rein technische Aspekt steht klar im Vordergrund: Über Netanyahu existieren zahlreiche ausgewogene internationale Artikel, über Ganser dominieren kritische Bewertungen im Mainstream – und das spiegelt sich dann in den Antworten wieder, die von den KI-Modellen ausgegeben werden. Mit bewusster Steuerung der Anworten mit dem Ziel, nur solche zuzulassen, die "dem System" gefallen, hat das wenig zu tun, das Zustandekommen der vermeintlichen Einseitigkeit ist komplexer.

Faktischer Hintergrund:

Es gibt keine bestätigte Quelle, die belegt, dass ChatGPT (oder andere große KI-Modelle) offiziell bestimmte Personen "digital schützt" oder andere "digital entwertet".

OpenAI (Entwickler von ChatGPT) beschreibt öffentlich seine Nutzungsrichtlinien: keine Verherrlichung von Gewalt, keine Hetze, kein gezieltes Diskriminieren, und Vorsicht bei kontroversen Themen. Das führt dazu, dass Aussagen über bestimmte Personen vorsichtiger formuliert werden. Das ist ein Moderations- bzw. Bias-Thema, kein „geheimer Schutzschild“.


Die Black Box der Wahrheit

Das eigentliche Problem liegt jedoch nicht allein im Ergebnis, das entsprechende KI-Abfragen liefern, sondern in der fehlenden Transparenz wie die dahinter stehenden Prozesse ablaufen - und das betrifft nicht nur den oben beschriebenen bewusst gefilterten Antwortteil. Weder Parlamente noch unabhängige Gremien haben festgelegt, wie KI-Systeme mit politisch sensiblen Fragen umgehen sollen - die massgeblichen politischen Akteure haben in Fragen wie KI die Gesellschaft verändert, auch erschreckend wenig Kompetenz.

Stattdessen definieren private Konzerne ihre Regeln hinter verschlossenen Türen. Für die Nutzerinnen und Nutzer bleibt undurchschaubar, ob eine Antwort auf Datenlage, auf Filtern oder auf juristischer Vorsicht beruht. Damit wird KI zu einer "Black Box der Wahrheit" – und das beeinflusst öffentliche Debatten, ohne dass nachvollziehbar ist, wie diese Gewichtungen zustande kommen.


Ein Manifest für Transparenz

Aus dieser eigentlich erschütternden Diagnose ergibt sich die Forderung nach demokratischer Kontrolle. Moderationskriterien und Filterregeln dürfen nicht im Verborgenen entstehen, sondern müssen offengelegt und überprüfbar sein. Wir Bürgerinnen und Bürger sollten nachvollziehen können, warum eine Antwort so ausfällt wie sie von der KI ausgegeben wird, und wir müssen die Möglichkeit haben, Einwände vorzubringen. Darüber hinaus braucht es pluralistische Alternativen zu den großen Konzernmodellen, damit nicht wenige Anbieter die Deutungshoheit besitzen.

Das Problem: Dafür ist es vermutlich schon längst zu spät. Wir haben die Kontrolle bereits verloren.


Schlussgedanke

Die entscheidende Frage lautet: Soll KI ein Werkzeug der Aufklärung sein oder ein Instrument der Kontrolle? Nur wenn Transparenz, Vielfalt und demokratische Regeln gelten, kann sie zur Stärkung des Diskurses beitragen. Andernfalls droht, dass Algorithmen festlegen, welche Wahrheiten sagbar sind – und welche nicht.

Letzteres wird spätestens dann passieren, wenn wir KI-Modellen politische oder gesellschaftliche Entscheidungen überlassen. Und das werden wir, da bin ich ganz sicher. Wir, und damit meine ich die ganze Gesellschaft, haben das Thema verschlafen.