„AI for all“ – künstliche Intelligenz für alle – steht über einem Stand bei einer Technikmesse in Las Vegas Anfang des Jahres. Offen zugängliche Programme wie Copilot oder ChatGPT sind genau das. Foto: John Locher/AP/dpa

Der Fall des Journalisten Martin Bernklau zeigt die Tücken künstlicher Intelligenz (KI): Der KI-Assistent Copilot machte aus dem Gerichtsberichterstatter einen Straftäter – für alle Welt im Internet nachlesbar. Aufgrund unserer Berichterstattung zu dem Fall meldet sich Alfred Geiger aus Calw-Weltenschwann. Er erklärt, wie KI-Assistenten funktionieren und was Nutzer wissen sollten.

Martin Bernklau ist seit Jahrzehnten Journalist und viel in Gerichtssälen: als Berichterstatter, auch für den Schwarzwälder Boten. Das wird ihm in Zeiten von künstlicher Intelligenz (KI) zum Verhängnis.

 

Mitte Mai stellt er fest, dass ihn Copilot, der KI-Assistent von Microsoft – direkt an dessen Suchmasche Bing angegliedert – vom Berichterstatter zum Straftäter macht. Egal welche Fragen zu sich er Copilot im Chat: Mal bekommt er zur Antwort, er sei ein Kinderschänder, mal ein Psychiatrie-Ausbrecher oder ein Brandstifter.

Sein Fall schlug inzwischen bundesweit Wellen und wurde sogar von einem US-amerikanischen IT-Magazin aufgegriffen. Gleichzeitig hat Bernklau festgestellt: Es kann jeden treffen. Nicht nur ihn, den Gerichtsreporter, sondern beispielsweise auch den vorsitzenden Richter des Tübinger Landgerichts. Auch ihn machte die künstliche Intelligenz vom Richter zum Verurteilten.

Copilot macht, was von ihm erwartet wird

Dass Microsoft seinem so selbst titulierten „KI-Begleiter für den Alltag“ den – klein gehaltenen – Hinweis „KI-generierte Inhalte könnten fehlerhaft sein“dazustellt, ist da ein schwacher Trost. So mancher nimmt, was er irgendwo im Internet liest, für bare Münze. Das wirft die Frage auf: Wie gehen Nutzer richtig mit solchen KI-Programmen um?

Alfred Geiger ist einer dieser Nutzer. Er hat sich aufgrund unserer Berichterstattung zum Fall Bernklau bei uns gemeldet. Der Artikel habe ihn etwas ratlos zurückgelassen, schrieb Geiger damals. Denn: Copilot habe genau das getan, was von von solch einem Programm erwartet werde. „Es hat sich alles reingezogen, was es zum angefragten Thema im Netz gefunden hat und  daraus mit Methoden der Statistik und Wahrscheinlichkeitsrechnung ein neues Objekt generiert.“

Der promovierte Luft- und Raumfahrtingenieur lebt in Weltenschwann, das zu Calw-Altburg gehört. Er hat nicht nur lange am Rechenzentrum der Uni Stuttgart gearbeitet, sondern anschließend bei T-Systems. Inzwischen ist er im Ruhestand und selbstständig als wissenschaftliche Berater tätig. Heute wie früher geht es bei ihm um Hochleistungsrechnungen: Das ist computergestütztes Rechnen, das viel Rechenleistung oder Speicherkapazität erfordert.

Wie funktioniert Copilot? Das Problem ist aus Sicht von Alfred Geiger, dass AI-Programme wie Google Gemini, Copilot oder ChatGPT, worauf Copilot basiert, neue Dokumente aus vorhandenen erzeugen. Sie suchen also die Antworten zu den Fragen, die Nutzer ihnen stellen, im Internet. Aus vorhandenen Dokumenten tragen sie Informationen zusammen und generieren dann selbst wieder Dokumente. Und die enthalten – wie der Fall Bernklau zeigt – unter Umständen falsche Informationen, zumal bereits die Infos in den Quellen falsch oder mehrdeutig sein können. Das Problem: Die erzeugten Dokumente werden von niemandem auf ihre Richtigkeit hin kontrolliert.

Diese Dokumenten sind dann allerdings ebenfalls im Internet auffindbar und dienen als Grundlage für die nächste KI-Suche. Geiger formuliert es flapsig: „Dann halluziniert das Ding halt.“ Tatsächlich sind Halluzinationen der Fachbegriff für die falschen Informationen, die Copilot und Co. mitunter liefern.

Experimentelles System wird auf Menschheit losgelassen

Geigers Kritik „Man arbeitet hier mit einem wirklich experimentellen System, das man spaßeshalber auf die Menschheit losgelassen hat“, meint der Calwer. Zumal Microsoft Copilot direkt an seine Suchmaschine Bing angehängt hat.

Wer etwas sucht, landet also schnell mal bei Copilot – und damit nicht bei einer Suchmaschine, sondern einem Programm, das selbst Antworten erzeugt. Für ChatGPT oder Google Gemini etwa ist ein Nutzerkonto erforderlich.

Geigers Tipp Bevor jemand ein Programm wie Copilot nutzt, sollte der Nutzer wissen, was dieses Programm tut. „Die Verantwortung kann ich den Leuten nicht abnehmen“, sagt Geiger im Gespräch mit unserer Redaktion. Doch sein Eindruck ist, dass heute viele Menschen kein Wissen über die Grundlagentechnologie haben. Das Argument, die Technik entwickele sich zu schnell, um etwa die Bildungspläne für die Schulen anzupassen, lässt er dabei nicht gelten.

„Künstliche neuronale Netze sind Anfang der 1990er-Jahre auf der Basis von Ideen aus den 1940ern entwickelt worden.“ Zeit wäre also gewesen, doch die Technik sei – anders etwa als in China und den USA – hierzulande lange vernachlässigt worden.

Wie also umgehen mit AI-gestützten Suchassistenten? „Das ist für mich ein Werkzeug“, sagt Alfred Geiger. Er vergleicht die Software mit einem Auto.

Eine gewisses Grundverständnis müsse vorhanden sein, um damit fahren zu können. Der Ingenieur nutzt Copilot, um die Zahl möglicher Quellen auf der Suche nach Antworten zu einer Frage einzuschränken.

Möchte er etwa einen Artikel in einem Fachmagazin zu einem bestimmten Thema veröffentlichen, fragt er Copilot nach Magazinen, die sich mit Themen wie seinem befassen. Das verkürzt die eigene Suche. Allerdings: Das KI-Programm spuckt dann auch schon mal ein Magazin aus, das gar nicht existiert. Alfred Geiger weiß zum Glück damit umzugehen.