Eine kritische Analyse der israelischen KI-Organisation und ihrer Methoden

Auf der Plattform X sorgt der Beitrag von Chris Menahan (@infolibnews) für Diskussionen. Der Nutzer behauptet, die Organisation „Generative AI for Good“ sei eine israelische Einflussoperation, die mit Deepfakes gefälschte „Opfer“ des Iran erschaffe, um für einen Regimewechsel zu agitieren.

Doch die Realität ist komplexer. Unsere Recherche zeigt: Die Organisation existiert tatsächlich – aber die Wahrheit über ihre Methoden und Verbindungen ist differenzierter, als sowohl der X-Post als auch die Selbstdarstellung der Organisation glauben machen.

Wir haben das Video übersetzt:

Die Fakten zur Organisation

„Generative AI for Good“ ist eine reale Organisation. Sie wurde von Shiran Mlamdovsky Somech gegründet, einer israelischen KI-Expertin mit Executive MBA der Kellogg School of Management (Northwestern University) .

Das Unternehmen beschreibt sich selbst als Innovations- und Beratungsinitiative, die generative KI für soziale Zwecke einsetzt. Zu den erklärten Zielen gehören:

  • Bekämpfung von Häuslicher Gewalt
  • Menschenhandel-Prävention
  • Holocaust-Gedenken
  • Unterstützung für Geiselfamilien

Die Organisation arbeitet mit namhaften Partnern zusammen:

Partner Art der Zusammenarbeit
Meta Bekämpfung von Antisemitismus auf Plattformen
Microsoft Langjährige Partnerschaft für soziale KI-Projekte
Weltjüdischer Kongress TecHRi-Initiative
Israelisches Ministerium für Diaspora-Angelegenheiten „Hack the Hate“-Konferenzen
Präsident Herzogs „Voice of the People“ Unterstützung
March of the Living Holocaust-Gedenkprojekte

Die problematischen Aspekte

Doch bei genauerer Betrachtung ergeben sich Fragen, die die Organisation in einem anderen Licht erscheinen lassen.

1. Die Deepfake-Technologie – ethisch oder gefährlich?

Mlamdovsky Somech räumt selbst ein: „Wir nutzen die GenAI-Technologie, die Leute als Deepfake bezeichnen. Wir setzen diese gefährliche und riskante Technologie proaktiv für gute Zwecke ein“ .

Das Problem: Einmal entwickelt, lässt sich Deepfake-Technologie nicht auf „gute“ Zwecke beschränken. Die Organisation schafft hyperrealistische KI-generierte Videos von echten Personen – darunter ermordete Frauen und entführte Kinder . Die Familien stimmen zu, doch die Methode bleibt dieselbe, die auch von Desinformationskampagnen genutzt wird.

2. Das Video auf X – was zeigt es wirklich?

Das von Menahan verlinkte Video ist in der X-Plattform eingebettet. Eine Analyse des Clips offenbart:

  • Es zeigt KI-generierte „Opfer“ mit unnatürlich ähnlichen Porträts
  • Die Produktionsqualität ist professionell – kein Amateurprojekt
  • Die emotionale Wirkung ist gezielt kalkuliert

Die entscheidende Frage: Handelt es sich hier um transparent gekennzeichnete KI-Kunst oder um eine Form der Propaganda, die sich als humanitäre Hilfe tarnt?

3. Die israelische Regierungsnähe

Die Organisation erhält Unterstützung vom israelischen Ministerium für Diaspora-Angelegenheiten und arbeitet mit der 8200 Alumni Association zusammen – letztere ist der Ableger der israelischen Elite-Einheit für Cyber und Geheimdiensttechnologie .

Mlamdovsky Somech schreibt selbst auf LinkedIn über ihren Einsatz für die „jüdische und israelische Erzählung“ im Kampf gegen globalen Antisemitismus . Das ist ihr gutes Recht – doch es zeigt eine klare politische Agenda.

Der kritische Vergleich: Zwei Seiten der KI-Propaganda-Medaille

Interessant ist ein Blick auf die gegnerische Seite. Die BBC und der New Yorker berichteten kürzlich über „Explosive Media“ – eine iranische Organisation, die im Lego-Stil KI-Propagandavideos produziert . Auch dort gibt es ein vertrautes Muster:

Kriterium Generative AI for Good (Israel) Explosive Media (Iran)
Selbstbild Humanitäre Hilfe Unabhängige Medienaktivisten
Methoden Deepfake-Videos von echten Personen KI-animierte Propaganda
Auftraggeber Israelische Regierungsstellen Iranische Regierung als „Kunde“
Ziel Stärkung der israelischen Erzählung Anti-US/anti-israelische Narrative

Die Parallelen sind unübersehbar: Beide Seiten nutzen dieselben KI-Technologien, beide behaupten, im Kampf für „Wahrheit“ zu stehen, beide haben Verbindungen zu staatlichen Stellen.

Unbeantwortete Fragen

  1. Transparenz: Wie klar wird in den Videos gekennzeichnet, dass es sich um KI-generierte Inhalte handelt? Mlamdovsky Somech betont, Transparenz sei ihr wichtig – aber gilt das für alle Projekte?
  2. Zielgruppe: Richten sich die Kampagnen tatsächlich primär an israelische und jüdische Zielgruppen – oder gezielt an internationale Öffentlichkeiten?
  3. Finanzierung: Welche Rolle spielen staatliche israelische Stellen bei der Finanzierung? Die Partnerschaft mit Ministerien ist dokumentiert – das Ausmaß jedoch nicht.

Fazit

Chris Menahans Behauptung, „Generative AI for Good“ sei eine reine Einflussoperation zur Erschaffung falscher iranischer Opfer, ist nicht belegt. Die Organisation verfolgt tatsächlich humanitäre Projekte und arbeitet transparent mit internationalen Partnern.

Dennoch: Die Nähe zur israelischen Regierung, die Nutzung von Deepfake-Technologie und die gezielte Förderung der „israelischen Erzählung“ werfen Fragen auf. In einer Zeit, in der KI-gestützte Desinformation allgegenwärtig ist – von OpenAI‘s Sora bis zu Googles Veo 3 – muss auch eine „Gute“-Organisation kritisch hinterfragt werden können.

Das Video auf X bleibt ein Beispiel dafür, wie schwer es geworden ist, zwischen humanitärer Hilfe, politischer Interessenvertretung und psychologischer Kriegsführung zu unterscheiden.

Quellen

  1. WION News: „REVEALED: The group behind the Lego Movie-style warriors of Iranian AI-generated propaganda“ (13.04.2026) – zur iranischen Explosive Media
  2. CTech / Calcalist: „Generative AI for Good: How deepfake technology is amplifying silenced voices“ (08.09.2025) – Interview mit Shiran Mlamdovsky Somech
  3. Ynetnews: Opinion-Beitrag von Shiran Mlamdovsky Somech (05.05.2024) – zur Nutzung von KI gegen Antisemitismus
  4. BBC News: Interview mit „Mr. Explosive“ zu iranischen Lego-Propagandavideos (12.04.2026)
  5. The New Yorker: „The Team Behind the A.I. Lego-Style Videos That Lampoon Trump’s War in Iran“ (01.04.2026)
  6. LinkedIn: Beitrag von Shiran Mlamdovsky Somech zu „Reclaiming AI for truth“ (Oktober 2025)
  7. The New York Times / The Star: Bericht über OpenAIs Sora und Deepfake-Risiken (Oktober 2025)
  8. Time Magazine: „Google‘s Veo 3 Can Make Deepfakes of Riots, Election Fraud, Conflict“ (Juni 2025)





Source link

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert