Geoffrey Miller: Wie gefälschte KI-Bilder Spannungen in Indo schüren könnten
HeimHeim > Nachricht > Geoffrey Miller: Wie gefälschte KI-Bilder Spannungen in Indo schüren könnten

Geoffrey Miller: Wie gefälschte KI-Bilder Spannungen in Indo schüren könnten

Jul 25, 2023

Anschauen: Die National Party hat zugegeben, künstliche Intelligenz (KI) zu verwenden, um gefälschte Fotos für ihre politischen Angriffsanzeigen zu erstellen. Credits: Video – Newshub; Bild - Getty Images.

Von Geoffrey Miller vom Democracy Project

ANALYSE: Sehen heißt nicht mehr glauben.

Hier gibt es überraschend realistische – und dennoch gefälschte – Bilder, die von künstlicher Intelligenz (KI) erstellt wurden.

Bisher wirkten die meisten eher wie Kuriositäten als echte Täuschungsversuche.

Letzten Monat wurde bekannt, dass die neuseeländische Nationalpartei die KI-Bildgenerierungs-App Midjourney zur Erstellung von Werbebildern verwendet hatte. Zu den Ergebnissen gehörten imaginäre Mitarbeiter des Gesundheitswesens und ängstlich aussehende Bürger, die Angst vor Kriminalität hatten.

In diesem Fall war der Einsatz von KI relativ harmlos – die KI-Kreationen ersetzten effektiv die Stockfotos, die in der Vergangenheit verwendet worden wären.

Bis ein Medienunternehmen den Verdacht erregte, war den wenigsten – wenn überhaupt – überhaupt aufgefallen, dass es sich bei den realistisch aussehenden Bildern tatsächlich um eine Fälschung handelte.

Während das neuseeländische Beispiel gezeigt hat, wie KI-Bilder im Wahlkampf eingesetzt werden können, können wir auch davon ausgehen, dass sie einen übergroßen Einfluss auf die internationalen Beziehungen haben werden.

Im März twitterte Bellingcat-Gründer Eliot Higgins verblüffende „Deepfake“-Bilder von Donald Trumps „Verhaftung“ durch die New Yorker Polizei.

Higgins, der auch Midjourney nutzte, bezeichnete die Bilder eindeutig als KI-Kreationen.

Das hinderte die Bilder jedoch nicht daran, viral zu gehen und als Demonstration der Ausgereiftheit der Technologie zu dienen.

Higgins twitterte auch gefälschte KI-generierte Bilder eines imaginären „Friedensgipfels“ zwischen Wladimir Putin und Joe Biden – vermittelt vom Franzosen Emmanuel Macron.

Angesichts der aktuellen Kriegslage in der Ukraine dürften diese niemanden täuschen.

Die realistisch aussehenden Deepfakes, die Higgins von einer imaginären Atomexplosion in der Ukraine erstellte, zeigten jedoch, welches Potenzial KI inmitten des Nebels des Krieges haben könnte.

Kurz nachdem Russland letztes Jahr in die Ukraine einmarschiert war, veröffentlichten Hacker auf der Nachrichten-Website Ukraine 24 ein gefälschtes Video, in dem Wolodymyr Selenskyj die Ukrainer aufforderte, ihre Waffen niederzulegen.

Im Indopazifik ist es sicherlich nur eine Frage der Zeit, bis glaubwürdig wirkende KI-generierte Bilder genutzt werden, um die geopolitischen Spannungen in der Region noch weiter anzuheizen.

Der neuseeländische Premierminister Chris Hipkins hat wie seine Vorgängerin Jacinda Ardern das angeprangert, was er die „Militarisierung des Pazifiks“ nennt.

Doch bereits in der ersten Hälfte des Jahres 2023 haben die USA neue Verteidigungsvereinbarungen mit den Philippinen und Papua-Neuguinea getroffen – eine Reaktion auf die Unterzeichnung eines eigenen Sicherheitspakts durch China mit den Salomonen im vergangenen Jahr.

Die Spannungen nehmen zu – und KI könnte sie auf die nächste Stufe heben.

Die schiere Weite des Pazifiks bietet wohl einige Vorteile für Desinformationsversuche.

Gefälschte Bilder beispielsweise von Militärschiffen in der Nähe eines abgelegenen Inselatolls könnten schwer sofort zu widerlegen sein.

Auch eine schlechte Kommunikationsinfrastruktur in den entlegeneren Teilen des Pazifiks wird nicht helfen.

Darüber hinaus könnte die Zunahme von KI-erstellten Inhalten dazu führen, dass sich die Öffentlichkeit fragt, was sie glauben soll.

In einem im Januar veröffentlichten Bericht der Brookings Institution wurde „Verwirrung säen“ als ein Hauptziel derjenigen genannt, die hinter Desinformationsoperationen stecken.

Der Bericht gibt ein Beispiel für eine roboterartige Präsidentenansprache des gabunischen Präsidenten: Während einige glaubten, es handele sich um einen Beweis für einen Deepfake, dachten andere, der Präsident sei schlichtweg krank. Ungeachtet der tatsächlichen Wahrheit kam es zu Chaos und einem Militärputschversuch.

KI hat die Macht, ein Spiegelkabinett zu schaffen, in dem selbst echte Inhalte mit Skepsis und Misstrauen betrachtet werden.

Ein reales Beispiel für das verheerende Potenzial von KI kam letzten Monat, als auf Twitter ein gefälschtes Bild einer Explosion im Pentagon in Washington kursierte und die Finanzmärkte kurzzeitig ins Wanken brachte.

Es gibt viele mögliche Antworten auf die neue KI-Herausforderung für die internationalen Beziehungen.

Eine Möglichkeit ist die Regulierung.

China hat kürzlich Deepfake-Bilder von echten Menschen verboten, sofern keine Einwilligung erteilt wurde – und die Regulierungsbehörde des Landes verlangt nun, dass KI-generierte, „synthetische“ Inhalte eindeutig als solche gekennzeichnet werden müssen.

In Neuseeland hat das Innenministerium letzte Woche strenge neue Medienvorschriften vorgeschlagen, die auch Inhalte in sozialen Medien abdecken würden. Zu den Vorschlägen gehören „Warnhinweise und Inhaltshinweise“ – und Bußgelder bei Nichteinhaltung.

Die Kehrseite der Regulierung ist die Möglichkeit einer Überschreitung.

Die Begriffe „Desinformation“ und „Fehlinformation“ werden mittlerweile häufig als Waffe verwendet und lediglich dazu verwendet, die Argumente politischer Gegner zu verunglimpfen.

Optimistischer ist, dass die Öffentlichkeit weniger naiv ist, als ihnen oft zugeschrieben wird.

Schließlich sind die meisten Menschen mittlerweile daran gewöhnt, dass Fotos digital verändert werden können. Die erste Version des heutigen Adobe Photoshop wurde 1987 veröffentlicht.

Dennoch war die Notwendigkeit, die Medienkompetenz zu stärken, ein zentrales Thema in den Diskussionen über die Bekämpfung von Desinformation beim ersten Global Media Congress, der letztes Jahr in Abu Dhabi stattfand – ein Thema, das voraussichtlich auch bei der Ausgabe 2023 der Veranstaltung Thema sein wird fand diesen November statt.

Ein neues „Weißbuch“ vom ersten Kongress, an dem der Autor als Gast der Organisatoren teilnahm, fasste die Ansicht zusammen, dass es keine einfachen schnellen Lösungen gebe.

Vielmehr hatte jeder – von Regierungen über Social-Media-Plattformen, Medienunternehmen, Bildungseinrichtungen und Verbraucher selbst – eine Rolle zu spielen.

Die Sensibilisierung für das Potenzial von KI zur Desinformation ist zweifellos ein Teil der Lösung.

Wir werden keine Wahl haben.

Die in Kopenhagen ansässige Zukunftsforscherin Sofie Hvitved schätzt im Whitepaper des Global Media Congress, dass bis zu 99 Prozent der Inhalte, die wir in Zukunft konsumieren, durch KI erstellt werden könnten.

Darüber hinaus müssen wir wahrscheinlich die Ursachen angehen.

In den internationalen Beziehungen würde die Deeskalation von Konflikten und Spannungen die Ausbreitung von Desinformation deutlich erschweren.

Es ist kein Zufall, dass sich die aktuellen Deepfake-Frontlinien auf den Schlachtfeldern der Ukraine befinden.

In Kriegszeiten werden Friedensregeln über Bord geworfen – so dass fast alles möglich oder zumindest potenziell plausibel erscheint.

Die fiktive Atombombe von Bellingcats Eliot Higgins ist ein Paradebeispiel.

Im Indopazifik bilden stetig steigende geopolitische Temperaturen den idealen Nährboden für zukünftige KI-generierte Desinformations- und Propagandabemühungen.

Letztendlich ist das beste Rezept, um die Auswirkungen von KI-Fälschungen auf die internationalen Beziehungen abzuschwächen, ebenso einfach wie schwierig.

Wir brauchen mehr Diplomatie, Engagement und Kompromisse zwischen Staaten, die nicht einer Meinung sind.

Nur durch die Reduzierung von Wettbewerb und Konflikten werden die schrecklichen Schöpfungen der KI eher wie Fiktion als wie Realität erscheinen.

Das ist natürlich leichter gesagt als getan.

Um menschliche Probleme zu lösen, bedarf es menschlicher Intervention.

KI kann das nicht für uns tun.

Demokratieprojekt

Geoffrey Miller ist der geopolitische Analyst des Democracy Project und schreibt über die aktuelle neuseeländische Außenpolitik und damit verbundene geopolitische Themen. Er hat in Deutschland und im Nahen Osten gelebt und lernt Arabisch und Russisch. Offenlegung: Geoffrey nahm 2022 als Gast des Veranstalters, der Emirates News Agency, am Global Media Congress teil.