Künstliche Intelligenz macht es einfacher als je zuvor, Bilder zu fälschen. Die Angst vor den Folgen ist groß – zu Recht. Doch erfundene Szenen haben auch ihr Gutes.
Bekanntermaßen wurde der Papst neulich in weißem Daunenmantel gesichtet. Die Daunen in der Jacke waren allerdings ganz spezielle Federn, wie der Papst später auf Instagram bekannt gab. Es handelte sich um Eiderdaunen. Die Daunen der Eiderente werden nicht ausgerissen, sondern aus verlassenen Nestern der Vögel gesammelt. Damit bieten sie eine Alternative zu regulären Daunen, die nach dem Schlachten anfallen oder den Tieren zum Teil lebend ausgerupft werden. Eiderdaunen sind viel teurer als gewöhnliche Daunen. Finanziell gesehen war die Eiderdaunenjacke für den Papst aber kein Problem. Mit dem Auftritt wollte er seine Bekanntheit nutzen, um für die Folgen der Modeindustrie zu sensibilisieren. Leute, nutzt eure Macht als Verbraucher! Schaut genau hin, woher das Zeug kommt, das ihr kauft, und welche Konsequenzen es für Tiere und Umwelt hat! Das war die versteckte Botschaft des Papstes. Experten rechnen damit, dass sich der weltweite Absatz von Eiderdaunen durch die Aktion verdoppeln könnte.
Fotos und Filme sind nicht mehr verlässlich
Achtung: Diese Geschichte ist Quatsch. Sie ist genauso wenig wahr wie das ursprüngliche Bild des Papstes im Hipster-Daunenmantel. Eine Künstliche Intelligenz (KI) namens „Midjourney“ hat das Bild ausgespuckt, nachdem ein junger Mann in den Vereinigten Staaten dem Programm die entsprechenden Befehle gegeben hatte. Das Bild wurde zum Internethit. Viele Menschen hielten es zunächst für Realität. Schließlich waren Fotos lange Zeit genau das: ein relativ verlässliches Indiz, dass sich eine Szene tatsächlich so zugetragen hat. Das ist jetzt Geschichte.
Dank Künstlicher Intelligenz lassen sich Bilder, Sprachaufnahmen und Videos einfacher und schneller fälschen als je zuvor. Was früher mit Programmen wie Photoshop noch viel Arbeit war und zumindest ein paar Grundkenntnisse im Umgang mit der Software erforderte, ist jetzt dank KI im Prinzip jedem innerhalb von kurzer Zeit möglich. So könnte das Internet schon bald mit gefälschten Bildern geflutet werden, die kaum noch als Fälschung erkennbar sind. Die Verbreitung von gezielten Fake News wird damit eine völlig neue Dimension erreichen.
Das kann gefährliche Folgen für Politik und Gesellschaft haben. So lautet eine weit verbreitete Prognose. Sie stimmt wahrscheinlich. Nicht umsonst haben hochrangige Techexperten vor ein paar Wochen in einem offenen Brief ein Moratorium von mindestens einem halben Jahr bei der rasanten Entwicklung leistungsstarker neuer KI-Tools gefordert. Der Entwicklungsstopp solle genutzt werden, um Sicherheitsstandards festzulegen und mögliche Schäden durch neue Technologien abzuwenden.
Zunächst gilt es, alles zu hinterfragen
Bis ein neuer Umgang mit Bildern im Netz gefunden ist, gilt es, alles zu hinterfragen. Ohne die Gefahr kleinreden zu wollen, eröffnen erfundene Szenen wie die Papstjacke aber auch einen neuen Blick auf die Welt. Solche Bilder – vorausgesetzt, sie werden als Fälschung erkannt – können die Fantasie anregen und uns zum Nachdenken bringen: Was wäre möglich? Wie könnte die Welt aussehen, wenn sie anders wäre, als sie jetzt gerade ist?
Zum Beispiel: Was würden sich Merkel und Obama sagen, wenn sie am Strand zusammen Eis essen oder in der New Yorker U-Bahn tanzen würden? Solche Szenen hat der Filmemacher Julian van Dieken per KI errechnen lassen und auf Instagram veröffentlicht. Wie könnte der Papst mit seinen Botschaften auch jüngere Menschen erreichen, die mit der Kirche nichts am Hut haben? Welche Kleidung müsste er dafür tragen? Weitere Ideen für KI-generierte Bilder: die Kreuzung aus Pizza und Pasta in einem Gericht, ein deutsches Freibad, in dem Frauen genauso selbstverständlich oben ohne rumlaufen wie Männer, wenn sie das wollen, die Stuttgarter Innenstadt klimaneutral. Existiert alles nicht. Aber vielleicht erschiene es weniger unmöglich, wenn wir es vor uns sehen könnten.