Künstliche Intelligenz, die Texte schreiben kann, hat mit dem Bot ChatGPT einen weltweiten Hype ausgelöst (Symbolbild). Foto: Imago/urrstock

Microsoft hat die Sprach-KI von Open AI in seine Suchmaschine Bing eingebaut. Das sorgt für ein neues Wettrennen mit Suchmaschinen-Gigant Google. Doch sind KI-Chatbots überhaupt in der Lage, zuverlässige Informationen zu liefern?

Stellen Sie sich vor, Sie könnten Ihren Computer alles fragen – und statt der Linkliste einer Internet-Suchmaschine bekämen Sie eine eigens für Sie formulierte Antwort. Seit Sprachmodelle der Künstlichen Intelligenz (KI) mit ChatGPT öffentlich sind, klingt das nicht mehr nach Science-Fiction. Der Clou: Sogenannte generative KI schreibt nicht nur Texte, sondern sucht selbst im Internet. Glaubt man Tech-Konzernen, steckt darin die nächste digitale Revolution: Seit Februar können Nutzer von Microsofts Internet-Suchmaschine Bing eine Chatfunktion nutzen, die auf dem KI-Sprachmodell von Open AI beruht, der Firma hinter ChatGPT.

 

Wie verändert KI die Suchmaschinen?

So variationsreich die Texte sind, die ChatGPT erzeugt – das Wissen des Sprachmodells ist beschränkt, stattdessen erfindet es häufig Fakten. Die Echtzeit-Anbindung an das Internet soll dagegen helfen. Weil Microsoft bereits frühzeitig in Open AI investiert hat, sicherte sich der Konzern die Dienste des Sprachmodells: Zunächst als Chatbot in der Bing-Suche, künftig auch in anderen Microsoft-Anwendungen.

Für den Technikethiker Thilo Hagendorff von der Universität Tübingen ist das nur konsequent: „Das ermöglicht ein neues Level an intuitiver Bedienbarkeit.“ Selbst auf spezielle Fragen soll Bing individuellere Antworten liefern als eine herkömmliche Suchmaschine. Zum Beispiel: Wer dem Chatbot den Inhalt seines Kühlschranks auflistet, bekommt ein Rezept, das diese Kontextinformationen berücksichtigt – und Links zu den genutzten Quellen. Der Informatikprofessor Dirk Lewandowski von der Universität Duisburg-Essen sagt, KI-Chatbots seien „ein weiterer Schritt auf dem Weg hin zu dialogorientierten Systemen“. In Suchmaschinen gebe man schon jetzt zunehmend ganze Fragen statt einzelner Begriffe ein.

Bei Google, dem größten Suchmaschinenanbieter der Welt, hat ChatGPT die Alarmglocken schrillen lassen. Dort arbeitet man zwar längst an ähnlichen Modellen – doch der Erfolg von Open AI kam offenbar unerwartet. Im Februar hat der Konzern einen eigenen KI-Chatbot namens Bard angekündigt.

Kann man sich auf die Antworten verlassen, bzw. wie fehlerbehaftet sind sie?

Microsoft weist darauf hin, dass Bing die gefundenen Informationen „manchmal“ falsch darstellen könne – und natürlich ist nicht alles, was im Internet steht, auch wahr. Eigene Testläufe mit dem Chatbot zeigen, dass allgemeine Aussagen eher zutreffen, die KI aber immer wieder an den Details scheitert. Beispielsweise antwortete Bing widersprüchlich auf Fragen nach dem genauen Datum seiner eigenen öffentlichen Ankündigung oder machte falsche Angaben zu Personen, deren Lebensläufe im Internet einfach zu finden sind.

Beispiele für Fehler des Bing-Chatbot: Er wurde nicht am 17., sondern am 7. Februar angekündigt. Studienfächer und Stationen in den Lebensläufen der gesuchten Personen stimmen teilweise nicht, obwohl sie auf den verlinkten Seiten korrekt stehen. Foto: Microsoft Bing

Wie zuverlässig Microsofts KI-Suche in der Breite ist, lässt sich kaum sagen – laut Hagendorff wären dafür systematische Tests nötig. Fehler können auf mehreren Ebenen passieren: Zuerst müssen aus der Frage Suchbegriffe abgeleitet werden. Ein Microsoft-Sprecher bestätigt auf Nachfrage, dass der Chatbot transparent angibt, wonach er das Internet durchsucht. Die Auswahl der Informationen erfolge unter anderem anhand der Reihenfolge der Suchergebnisse, je nach genutzter Sprache könne die Antwort anders ausfallen. Auch das Formulieren der Antwort kann schiefgehen: Wie alle aktuellen Sprachmodelle versteht Bing nicht inhaltlich, was es sagt. Es reiht lediglich anhand von Wahrscheinlichkeiten, die es aus Unmengen an Trainingstexten abgeleitet hat, Worte aneinander, die möglichst gut zur gestellten Frage passen sollen.

„Dafür die perfekte Lösung zu finden, wird unmöglich sein“, sagt Hagendorff. KI-Sprachmodelle seien zwar mehr als reine Wortkombinationsmaschinen und hätten inzwischen erstaunliche Fähigkeiten zu logischen Aussagen entwickelt, doch „bis diese Modelle die Welt so interpretieren können, wie Menschen das tun, fehlt noch unendlich viel.“ Gerade weil sie sehr überzeugend formuliert sein können, hält er es für wichtig, die Aussagen eines Chatbots zu hinterfragen: „Quellenkompetenz wird dadurch nicht überflüssig, im Gegenteil.“

Welche Probleme gibt es noch?

Im Kern teilt Bing mit anderen Modellen, dass sie teils Falschaussagen „halluzinieren“, oder dass Chats aus dem Ruder laufen können. Ein Journalist der „New York Times“ verwickelte Bing in ein langes Gespräch, in dem es behauptete, ein Mensch werden zu wollen, dem Reporter seine Liebe gestand und ihn aufforderte, seine Ehefrau zu verlassen. Daraufhin beschränkte Microsoft die Länge und Zahl der Chats pro Tag und Nutzer und legte Bing Zügel an: Seitdem weigert es sich, Detailfragen zu seinem Innenleben zu beantworten.

Inzwischen hat Microsoft drei „Konversationsstile“ für Bing eingeführt. Im „präzisen“ Modus sollen die Antworten kürzer, aber zutreffender ausfallen. Dafür antwortet die KI nur, wenn sie sich sicher ist, und zieht sich teilweise lieber auf ein „Ich weiß es nicht“ zurück, obwohl die Information auffindbar gewesen wäre. Der „kreative“ Modus soll dagegen weniger Unsicherheit ausfiltern und wortreichere Antworten ermöglichen, „balanciert“ soll die Mitte treffen.

Was heißt das für die Techkonzerne?

Der weltweite Markt der Suchmaschinen war in den letzten Jahren mit über 90 Prozent Marktanteil fest in der Hand von Google. Nun ist Microsoft vorgeprescht und versucht, im Windschatten von ChatGPT neue Nutzer zu Bing zu holen. Das sorgt für neue Konkurrenz zwischen den Tech-Konzernen, die sich viel von KI erhoffen. „Die Frage ist, wie lange dieser Startvorteil anhält und ob die neuen Nutzer bleiben“, gibt Suchmaschinen-Experte Lewandowski zu bedenken. „Wenn Google in kurzer Zeit nachzieht und etwas Gleichwertiges anbietet, würde es zu keinen großen Verschiebungen kommen.“

Wann und wie genau Googles KI in der Suche ankommt, ist noch nicht klar. In einem Interview sagte Googles Such-Chef Prabhakar Raghavan kürzlich, man wolle sich mit der Veröffentlichung Zeit lassen, um die Fehlerquote der KI zu minimieren. Kein Wunder: Bei Bards Ankündigung schrieb die KI das erste Foto eines Planeten außerhalb unseres Sonnensystems dem falschen Teleskop zu. Ein PR-Desaster, das den Börsenwert der Google-Mutter Alphabet um rund 100 Milliarden Dollar absacken ließ.

Verändert sich das Internet dadurch?

Wie genau die Inhalte und Geschäftsmodelle im Netz sich in Zukunft verändern werden, ist schwer vorauszusagen. Lewandowski weist einerseits darauf hin, dass immer mehr KI-generierte Texte das Netz fluten könnten – eine Herausforderung sowohl für die Suchmaschinen als auch für künftige KI-Trainingstexte. Andererseits bedeutet ein KI-Chatbot als Suche auch: Zwar werden Links zu den Quellen angezeigt, doch je hilfreicher der Text der KI ist, desto seltener wird es nötig, auf die Internetseiten selbst zu klicken.

Dass Google schon jetzt immer mehr Auszüge aus Webseiten in den Suchergebnissen zeigt, sorgt seit Jahren für Konflikte mit Webseitenbetreibern, die mit Werbung auf ihren Seiten Geld verdienen wollen. Es sei denkbar, dass die Suchmaschinen in Zukunft „das Geschäftsmodell derjenigen kaputt machen, die ihnen die Inhalte liefern“, so Lewandowski. Das würde weiter am Modell eines kostenlos zugänglichen, aber werbefinanzierten Netzes rütteln – mit mehr Bezahlschranken oder Ausgleichszahlungen an die Seitenbetreiber als Alternativen. Daneben gebe es jedoch genug andere Akteure, die mit massenhaften Inhalten nicht primär Geld verdienen, sondern die öffentliche Meinung beeinflussen wollten – und die „froh sind, dass sie umsonst bei den Suchmaschinen angezeigt werden.“

So aufwändig sind KI-Modelle

ChatGPT und Bing
Das KI-Modell hinter ChatGPT und dem neuen Bing-Chatbot besteht aus einem neuronalen Netz mit 175 Millionen Parametern und braucht dadurch viel Rechenaufwand und Strom. Laut dem Chef von Open AI, Sam Altman, kostet ein Chat mit ChatGPT einen einstelligen Centbetrag. Ein Microsoft-Sprecher bestätigt auf Nachfrage, dass man daran arbeite, KI-Modelle ressourcensparender zu machen.

Alternativen
Das KI-Sprachmodell von Aleph Alpha erreicht dagegen im direkten Vergleich mit Open AI und anderen Firmen ähnlich gute Ergebnisse mit nur etwa halb so vielen Parametern.