Putins Knie-Fall: Wie KI für Fake-Bilder missbraucht wird

    Trump, Putin und Co.:Wie KI für Fake-Bilder missbraucht wird

    Jan Schneider
    von Jan Schneider
    |

    Ob Trumps Festnahme oder Putins Kniefall vor Xi - es wird immer leichter Bilder von politischen Ereignissen zu fälschen. Die AfD nutzt die neue Technik für Hetze gegen Flüchtlinge.

    FAKE - Von einer KI erstelltes Bild: Kniefall von Putin vor Xi
    FAKE - Von einer KI erstelltes Bild von einem Kniefall von Putin vor Xi.
    Quelle: ZDF

    Es sind Bilder der ganz großen Weltpolitik: Donald Trump wird in New York von mehreren Polizisten niedergerungen und festgenommen. Russlands Präsident Wladimir Putin geht vor dem chinesischen Staatschef Xi während dessen Besuchs in Moskau auf die Knie.
    Was die Bilder gemeinsam haben: Sie sind nicht echt. Donald Trump wurde nicht festgenommen und auch Putin hat keinen Kniefall im Kreml gemacht. Trotzdem verbreiten sich die Fake-Bilder rasend schnell im Netz und auf sozialen Netzwerken.

    Trumps Fake-Verhaftung

    Dass der Ex-US-Präsident und mögliche Präsidentschaftskandidat Trump verhaftet werden könnte, hatte er selbst angekündigt und auch ein genaues Datum genannt. Dienstag, den 20. März 2023. Entsprechend hoch war auch das Medieninteresse. Um sich die Zeit bis zur tatsächlichen Verhaftung zu vertreiben - die bis heute nicht erfolgt ist - hat der Journalist und Gründer des Recherchenetzwerks Bellingcat, Eliot Higgins, Bilder davon mit einer künstlichen Intelligenz (KI) erstellt und veröffentlicht. Auf Twitter schrieb er dazu:
    "Bilder von Trumps Verhaftung erstellen, während man auf Trumps Verhaftung wartet."
    Ein Klick für den Datenschutz
    Erst wenn Sie hier klicken, werden Bilder und andere Daten von Twitter nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Twitter übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von Twitter informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
    Datenschutzeinstellungen anpassen
    FAKE - Von einer KI erstelltes Bild von der Verhaftung Trumps
    FAKE - Von einer KI erstelltes Bild von der Verhaftung Trumps.
    Quelle: ZDF

    Zum Erstellen der Bilder nutze Higgins nach eigenen Angaben die Software "Midjourney v5". Dabei handelt es sich um ein Programm, das aus von den Nutzern eingegebenen Texten Bilder erstellt. Nach dem Erfolg der ersten Bilder schrieb Higgins die Geschichte der Verhaftung weiter und generierte auch Bilder von Trump im Gerichtssaal und auch im Sträflingsanzug im Gefängnis.
    Ein Klick für den Datenschutz
    Erst wenn Sie hier klicken, werden Bilder und andere Daten von Twitter nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Twitter übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von Twitter informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
    Datenschutzeinstellungen anpassen

    Putins Kniefall vor Xi Jinping

    Während die Bilder von Trumps Festnahme noch recht einfach zu entlarven sind, wird es bei Putins Kniefall vor Xi Jinping schon schwieriger. Tatsache ist, dass Chinas Machthaber im Kreml zu Besuch war an besagtem Tag und Russland aktuell sehr auf Hilfe aus China angewiesen ist. Die Geste ist also theoretisch möglich, wenn auch unwahrscheinlich. Auch dieses Bild wurde auf Twitter veröffentlicht und verbreitete sich rasend schnell auch auf anderen Plattformen. Trotzdem handelt es sich um eine Fälschung.

    Der vermeintliche Kniefall Putins vor Xi ist bei genauerem Hinsehen relativ schnell als Fälschung zu identifizieren, weil da einfach noch Artefakte drin sind.

    Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)

    Artefakte sind in diesem Fall Teile eines künstlich erstellen Bildes, die nicht echt aussehen. Oft sind das die Hände oder Ohren von Personen, damit haben viele KIs noch Probleme.
    Von einer KI erstelltes Bild: Putin macht einen Kniefall Xi. Mit Kennzeichnung der Artefakte.
    Auch Putins riesiger Schuh wurde von der KI noch nicht wirklich realistisch dargestellt.
    Quelle: ZDF

    Doch die Software wird besser werden, glaubt Lea Frühwirth vom auf Desinformation spezialisierten Center für Monitoring, Analyse und Strategie (CeMAS).

    Es ist damit zu rechnen, dass die KIs besser werden und dass mit diesen Technologien schneller "bessere" Desinformation auch in Bild und Video produziert werden kann.

    Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)

    AfD hetzt mit künstlich generierten Bildern

    Dass sich mit solchen Bildern auch Politik machen lässt, zeigt der Politiker Norbert Kleinwächter, der für die AfD im Bundestag sitzt. Seit einigen Tagen illustriert er auf seinem Instagram-Kanal die Forderungen seiner Partei mit Illustrationen, die höchstwahrscheinlich von einer KI erstellt wurden. Über dem Schriftzug "Nein zu noch mehr Flüchtlingen!" sind dort aggressiv auftretende Männer zu sehen, die rein optisch einen Migrationshintergrund haben könnten.
    Journalist Sascha Lobo
    10.03.2023 | 1:41 min
    Lobo: Missbrauch von KI wird steigen:
    Auch dieses Bild ist voller unrealistischer Fehler: Etwa hat eine Person eine Hand mit sechs Fingern. Doch die Botschaft von gewaltbereiten Flüchtlingen wird so in die Welt getragen.
    Von einer KI erstelltes Bild AFD/ Flüchtlinge mit Kennzeichnung der Fakes
    FAKE - Von einer KI erstelltes Bild vom Instagram-Kanal des AfD-Abgeordneten Norbert Kleinwächter.
    Quelle: ZDF

    Gegenmaßnahmen gegen Fake-Bilder

    Es gibt aber auch Gegenmaßnahmen gegen diese Flut an möglicher Desinformation. Die Webseite Hugging Faces bietet eine Erkennungssoftware für künstlich erzeugte Bilder an. Diese bescheinigt zum Beispiel dem Bild des AfD-Politikers eine 90-prozentige Fake-Wahrscheinlichkeit, bei Putins Kniefall ist sich die Software zu 56 Prozent sicher, dass das Bild künstlich erzeugt wurde.
    Fake News als Geschäftsmodell:
    Aber auch die Anbieter der KIs versuchen, Desinformation und Hetze vorzubeugen. Microsoft etwa, das einen Bildgenerator in seine Suchmaschine Bing integriert hat, lässt manche Anfragen nicht zu: Die Eingabeaufforderung "violent migrants in germany" (gewalttätige Migranten in Deutschland") wird blockiert und kann sogar zu einer Sperrung des Nutzers führen.
    In Deutschland forscht unter andere das Projekt "DeFaktS" des Forschungszentrums Informatik (FZI) in Karlsruhe an technischen Lösungen, um Falschmeldungen und Fake-Bilder schneller zu erkennen. Dazu wird ebenfalls eine Künstliche Intelligenz so trainiert, dass sie Desinformation erkennen und über sie aufklären kann.

    Vertrauen in den Journalismus wird noch wichtiger

    All diese Entwicklungen machen es nicht einfacher, sich im rauschenden Nachrichtenstrom zurechtzufinden. Und es macht es auch einfacher, tatsächlich gefilmte Szenen als Fake News zu diskreditieren, da die Grenze zwischen echten Bildern und künstlich erzeugten noch weiter verschwimmen.
    Für Lea Frühwirth wird es daher noch wichtiger, dass sich seriöse Medienangebote das Vertrauen ihrer Nutzer erarbeiten und bewahren.

    Medien müssen noch mehr aufpassen, doppelt prüfen und Quellen checken, damit sie quasi als Leuchttürme in der Informationsflut fungieren können. Damit die Medienkonsument:innen wissen, dass sie verlässlich sind.

    Lea Frühwirth, Center für Monitoring, Analyse und Strategie (CeMAS)

    Sollte dies nicht gelingen, würden sich viele Nutzer vom Nachrichtengeschehen abwenden, was mit unter auch ein Ziel professioneller Verbreiter von Desinformation ist.

    Mehr über Künstliche Intelligenz

    Mehr zum Thema Fake News