Eine kritische Analyse der israelischen KI-Organisation und ihrer Methoden
Auf der Plattform X sorgt der Beitrag von Chris Menahan (@infolibnews) für Diskussionen. Der Nutzer behauptet, die Organisation „Generative AI for Good“ sei eine israelische Einflussoperation, die mit Deepfakes gefälschte „Opfer“ des Iran erschaffe, um für einen Regimewechsel zu agitieren.
Doch die Realität ist komplexer. Unsere Recherche zeigt: Die Organisation existiert tatsächlich – aber die Wahrheit über ihre Methoden und Verbindungen ist differenzierter, als sowohl der X-Post als auch die Selbstdarstellung der Organisation glauben machen.
There’s an Israeli influence operation called „Generative AI for Good“ that creates AI „victims“ of Iran to agitate for regime change.
They just held a conference last week in NYC.
Here’s a short clip of one of the deepfake propaganda videos they released a few weeks ago. https://t.co/mr90jCO5sp pic.twitter.com/LymldFx7wQ
— Chris Menahan 🇺🇸 (@infolibnews) April 21, 2026
Wir haben das Video übersetzt:
🇮🇱🇮🇷 KI-Propaganda aus Israel: „Generative AI for Good“
🔍 Neue Enthüllungen auf X legen nahe: Hinter der humanitären Fassade der israelischen KI-Organisation „Generative AI for Good“ könnte sich mehr verbergen als nur gute Taten.
🤖 Die Firma nutzt Deepfake-Technologie –… pic.twitter.com/KhptWF58tx
— Don (@Donuncutschweiz) April 22, 2026
Die Fakten zur Organisation
„Generative AI for Good“ ist eine reale Organisation. Sie wurde von Shiran Mlamdovsky Somech gegründet, einer israelischen KI-Expertin mit Executive MBA der Kellogg School of Management (Northwestern University) .
Das Unternehmen beschreibt sich selbst als Innovations- und Beratungsinitiative, die generative KI für soziale Zwecke einsetzt. Zu den erklärten Zielen gehören:
- Bekämpfung von Häuslicher Gewalt
- Menschenhandel-Prävention
- Holocaust-Gedenken
- Unterstützung für Geiselfamilien
Die Organisation arbeitet mit namhaften Partnern zusammen:
| Partner | Art der Zusammenarbeit |
|---|---|
| Meta | Bekämpfung von Antisemitismus auf Plattformen |
| Microsoft | Langjährige Partnerschaft für soziale KI-Projekte |
| Weltjüdischer Kongress | TecHRi-Initiative |
| Israelisches Ministerium für Diaspora-Angelegenheiten | „Hack the Hate“-Konferenzen |
| Präsident Herzogs „Voice of the People“ | Unterstützung |
| March of the Living | Holocaust-Gedenkprojekte |
Die problematischen Aspekte
Doch bei genauerer Betrachtung ergeben sich Fragen, die die Organisation in einem anderen Licht erscheinen lassen.
1. Die Deepfake-Technologie – ethisch oder gefährlich?
Mlamdovsky Somech räumt selbst ein: „Wir nutzen die GenAI-Technologie, die Leute als Deepfake bezeichnen. Wir setzen diese gefährliche und riskante Technologie proaktiv für gute Zwecke ein“ .
Das Problem: Einmal entwickelt, lässt sich Deepfake-Technologie nicht auf „gute“ Zwecke beschränken. Die Organisation schafft hyperrealistische KI-generierte Videos von echten Personen – darunter ermordete Frauen und entführte Kinder . Die Familien stimmen zu, doch die Methode bleibt dieselbe, die auch von Desinformationskampagnen genutzt wird.
2. Das Video auf X – was zeigt es wirklich?
Das von Menahan verlinkte Video ist in der X-Plattform eingebettet. Eine Analyse des Clips offenbart:
- Es zeigt KI-generierte „Opfer“ mit unnatürlich ähnlichen Porträts
- Die Produktionsqualität ist professionell – kein Amateurprojekt
- Die emotionale Wirkung ist gezielt kalkuliert
Die entscheidende Frage: Handelt es sich hier um transparent gekennzeichnete KI-Kunst oder um eine Form der Propaganda, die sich als humanitäre Hilfe tarnt?
3. Die israelische Regierungsnähe
Die Organisation erhält Unterstützung vom israelischen Ministerium für Diaspora-Angelegenheiten und arbeitet mit der 8200 Alumni Association zusammen – letztere ist der Ableger der israelischen Elite-Einheit für Cyber und Geheimdiensttechnologie .
Mlamdovsky Somech schreibt selbst auf LinkedIn über ihren Einsatz für die „jüdische und israelische Erzählung“ im Kampf gegen globalen Antisemitismus . Das ist ihr gutes Recht – doch es zeigt eine klare politische Agenda.
Der kritische Vergleich: Zwei Seiten der KI-Propaganda-Medaille
Interessant ist ein Blick auf die gegnerische Seite. Die BBC und der New Yorker berichteten kürzlich über „Explosive Media“ – eine iranische Organisation, die im Lego-Stil KI-Propagandavideos produziert . Auch dort gibt es ein vertrautes Muster:
| Kriterium | Generative AI for Good (Israel) | Explosive Media (Iran) |
|---|---|---|
| Selbstbild | Humanitäre Hilfe | Unabhängige Medienaktivisten |
| Methoden | Deepfake-Videos von echten Personen | KI-animierte Propaganda |
| Auftraggeber | Israelische Regierungsstellen | Iranische Regierung als „Kunde“ |
| Ziel | Stärkung der israelischen Erzählung | Anti-US/anti-israelische Narrative |
Die Parallelen sind unübersehbar: Beide Seiten nutzen dieselben KI-Technologien, beide behaupten, im Kampf für „Wahrheit“ zu stehen, beide haben Verbindungen zu staatlichen Stellen.
Unbeantwortete Fragen
- Transparenz: Wie klar wird in den Videos gekennzeichnet, dass es sich um KI-generierte Inhalte handelt? Mlamdovsky Somech betont, Transparenz sei ihr wichtig – aber gilt das für alle Projekte?
- Zielgruppe: Richten sich die Kampagnen tatsächlich primär an israelische und jüdische Zielgruppen – oder gezielt an internationale Öffentlichkeiten?
- Finanzierung: Welche Rolle spielen staatliche israelische Stellen bei der Finanzierung? Die Partnerschaft mit Ministerien ist dokumentiert – das Ausmaß jedoch nicht.
Fazit
Chris Menahans Behauptung, „Generative AI for Good“ sei eine reine Einflussoperation zur Erschaffung falscher iranischer Opfer, ist nicht belegt. Die Organisation verfolgt tatsächlich humanitäre Projekte und arbeitet transparent mit internationalen Partnern.
Dennoch: Die Nähe zur israelischen Regierung, die Nutzung von Deepfake-Technologie und die gezielte Förderung der „israelischen Erzählung“ werfen Fragen auf. In einer Zeit, in der KI-gestützte Desinformation allgegenwärtig ist – von OpenAI‘s Sora bis zu Googles Veo 3 – muss auch eine „Gute“-Organisation kritisch hinterfragt werden können.
Das Video auf X bleibt ein Beispiel dafür, wie schwer es geworden ist, zwischen humanitärer Hilfe, politischer Interessenvertretung und psychologischer Kriegsführung zu unterscheiden.
Quellen
- WION News: „REVEALED: The group behind the Lego Movie-style warriors of Iranian AI-generated propaganda“ (13.04.2026) – zur iranischen Explosive Media
- CTech / Calcalist: „Generative AI for Good: How deepfake technology is amplifying silenced voices“ (08.09.2025) – Interview mit Shiran Mlamdovsky Somech
- Ynetnews: Opinion-Beitrag von Shiran Mlamdovsky Somech (05.05.2024) – zur Nutzung von KI gegen Antisemitismus
- BBC News: Interview mit „Mr. Explosive“ zu iranischen Lego-Propagandavideos (12.04.2026)
- The New Yorker: „The Team Behind the A.I. Lego-Style Videos That Lampoon Trump’s War in Iran“ (01.04.2026)
- LinkedIn: Beitrag von Shiran Mlamdovsky Somech zu „Reclaiming AI for truth“ (Oktober 2025)
- The New York Times / The Star: Bericht über OpenAIs Sora und Deepfake-Risiken (Oktober 2025)
- Time Magazine: „Google‘s Veo 3 Can Make Deepfakes of Riots, Election Fraud, Conflict“ (Juni 2025)