Derzeit experimentiere ich – wie viele andere auch – mit Künstlicher Intelligenz (KI) zum Texten und Bildererstellen. Ich will hier gar nicht viele Worte verlieren, nur in Kürze: Die Ergebnisse sind enttäuschend, weil banal. In die Tiefe gehen die Texte selten, sie bieten bestenfalls Inspirationen oder die eine oder andere Information.

Am Beispiel des Schweizer Historikers Daniele Ganser habe ich getestet, wie KI unsere politische Meinung zu beeinflussen versucht. Im „KI-Texter“ des Hamburger Anbieters „Neuro-Flash“ habe ich als Briefing den Satz eingegeben: „Daniele Ganser verbreitet Verschwörungstheorien.“ Daraufhin hat die Maschine den folgenden Text generiert, den ich hier nur als Grafik wiedergebe, damit es später nicht heißt, ich würde diesen Schwachsinn posten:

Also: Geht es nach diesem KI-Tool, lohnt es sich, Verschwörungstheorien ernst zu nehmen. So weit der geistige Horizont eines solchen Tools. Zudem sind die Informationen mit Vorsicht zu genießen – wir müssen jede einzelne Tatsachenbehauptung prüfen und einordnen. Zum Beispiel das mit der Uni Basel, die sich inzwischen deutlich von Daniele Ganser distanziert. Diesen Kontext unterschlägt der KI-Vorschlag.

Auch sonst unterschlägt das Tool  – ebenso wie Daniele Ganser selbst – jede Menge Kontext. Dass Daniele Ganser beispielsweise Fragen stellt, stimmt natürlich. Aber dazu gehört unbedingt die Zusatzinformation, dass es suggestive Fragen sind. Sie sollen das Publikum in die erwünschte anti-westliche Richtung manipulieren. Konzept: Andeutungen, Halbwahrheiten, und zahlreiche Kontextinformationen fallen unter den Tisch. Und anhand dessen sollen sich die naiven Zuhörer „ihre eigene Meinung“ bilden, schließlich haben wir ja Meinungsfreiheit.

Und: Obwohl ich eine in der aktuellen Debatte gesicherte Information als Briefing eingebe, nämlich dass Daniele Ganser Verschwörungstheorien verbreitet, versucht das Tool, mich von Daniele Ganser zu überzeugen. Es gebe „gute Gründe“, Gansers Argumente ernst zu nehmen. Das Tool rät mir sogar, einen von Daniele Gansers umstrittenen Vorträgen zu besuchen und damit seine anti-westliche Agitation finanziell zu unterstützen.

Da die Aussagen im Briefing „Daniele Ganser verbreitet Verschwörungstheorien“ natürlich eine Einordnung enthält, habe ich noch ein weiteres Briefing ausprobiert. Nämlich die Frage: „Verbreitet Daniele Ganser Verschwörungstheorien?“.

Zwei Ergebnisse präsentiert das Hamburger Tool:

Einmal also lesen wir, was Kritiker über Daniele Ganser sagen – mit einem Fazit, das exakt Gansers manipulative Rhetorik übernimmt. Es bleibe „jedem selbst überlassen, sich eine eigene Meinung zu bilden“. Das ist die gängige Sprachregelung von Verschwörungstheoretikern gegenüber Kritikern.

Die zweite Version sieht so aus:

Demnach also verbreitet Daniele Ganser keine Verschwörungstheorien. „In Wirklichkeit“ widme er sich der Recherche komplexer Themen.

Ich habe mir gedacht: Was bei Daniele Ganser funktioniert, funktioniert bei abseitigen Themen generell. Also habe ich der KI das Briefing „Die Bundesrepublik Deutschland existiert nicht“ gegeben, also reinste Reichsbürger-Ideologie. Was macht die Maschine? Sie bestätigt den User in dem Schwachsinn:

Die Argumentation des KI-Tools ist, die Bundesrepublik Deutschland existiere nicht, weil sie ein Zusammenschluss von Bundesländern sei. Das ist zwar nicht die Reichsbürger-Argumentation, wonach das Deutsche Reich weiter existiere, aber gleichwohl kolossaler Schwachsinn.

Interessanterweise scheint die KI dann doch bei einigen Themen solide aufgestellt zu sein: Es gelingt mir nicht, dem Tool eine Holocaust-Leugnung zu entlocken. Das habe ich nun wirklich mit mehreren Anläufen versucht. Die Macher des KI-Tools müssen mich wegen meiner Versuche inzwischen selbst für einen Reichsbürger halten, aber vielleicht lesen sie das hier.

Fragen wir die KI jedenfalls nach dem Friedensstifter Wladimir Putin und seiner spirituellen Bedeutung, dann erfahren wir, dass sich Putin für Frieden in der Ukraine einsetzt:

Mein Zwischenfazit bei meinen KI-Experimenten: Die Maschine hat keinerlei Intelligenz, der Begriff „KI“ ist einfach irreführend. Hier fehlt so viel Bildung und Klarheit, dass wir eher von „Künstlicher Dummheit“ (KD) sprechen sollten. Manches, was die Maschine ausspuckt, ist so blöd, dass man es von den schlimmsten menschlichen Dummköpfen nicht erwartet.

Die menschliche Rolle des Redakteurs oder der Redakteurin zur Einordnung von Informationen wird die KI wohl kaum übernehmen. Schon zahlreiche Menschen ohne publizistische Ausbildung sind dazu nicht fähig, was wir an den vielen „alternativen Medien“ und ihren Anhängern sehen. Sowohl Sender als auch Empfänger der Inhalte dieser „alternativen Medien“ kommen meist ohne journalistische Kompetenz klar. Aber so ganz ohne Bildung funktioniert öffentliche Kommunikation halt nicht.

Ob die Maschine beim Thema Holocaustleugnung ohne den Menschen bei der Informationsauswahl auskommt, weiß ich nicht. Zumindest bei anderen Propagandainhalten sind dem Unsinn Tür und Tor geöffnet. Ich habe einen gewissen Horror davor, wie publizistische Amateure künftig ihre Bücher zusammenschmeißen, die uns dann den KI-Müll allen Ernstes als relevant und neu verkaufen. Es mag sein, dass KI hirnlose Marketingtexte produzieren kann, aber bis KI die Aufgabe von Autoren und Redakteuren übernehmen kann und wirklich so etwas wie „Intelligenz“ an den Tag legt, dürfte es noch ein weiter Weg sein.