Scroll Top

Faktencheck: Technologiebaséiert Desinformatioun verzerrt Iran-Israel-Konflikt

Faktencheck: Technologiebaséiert Desinformatioun verzerrt Iran-Israel-Konflikt - Featured image

Author(s): RTL Lëtzebuerg

Iwwer de Konflikt tëscht dem Iran an Israel si KI-Deepfakes, Videospillopnamen, déi als reell Kampfhandlungen ausgi ginn, a vun Chatbots hiergestallte Falschinformatiounen am Ëmlaf. Esou technologiebaséiert Desinformatioun verzerrt de Konflikt an dreift e Krich vun den Narrativer a Sozialen Netzwierker un.

Den Informatiounskrich, dee sech parallel zu de reelle Kampfhandlungen – ausgeléist duerch d’Attacke vun Israel op iranesch Atomanlagen a militäresch Verantwortlech – forméiert, verdäitlecht eng digital Kris am Zäitalter vu sech rasant entwéckelende KI-Technologien. Dës loossen d’Grenz tëscht Wourecht a Fälschung ëmmer méi verschwammen.

D’Hausse vu Falschinformatiounen am Krich géif der Meenung vu Fachleit no en dréngende Bedarf u besseren Erkennungstools weisen, well grouss Tech-Plattformen hir Schutzmoossname gréisstendeels zeréckgefuer hunn – zum Beispill duerch de Réckbau vu Moderatioun vum Contenu an de reduzéierten Asaz vu Faktenchecken.

Nodeem den Iran Israel den 13. Juni 2025 mat enger Villzuel vu Rakéiten ugegraff hat, ware KI-generéiert Videoen am Ëmlaf, déi angeeblech Schied zu Tel Aviv an um Fluchhafe Ben Gurion gewisen hunn. D’Videoen haten op Facebook, Instagram an X eng grouss Reechwäit. Duerch eng ëmgekéiert Billersich huet d’AFP erausfonnt, dass d’Clippen ursprénglech vun engem Tiktok-Kont verëffentlecht goufen, dee KI-generéiert Contenue produzéiert.

“Et gëtt eng däitlech Hausse vu generativer KI-Desinformatioun, besonnesch am Zesummenhang mat dem Iran-Israel-Konflikt”, sot de Ken Jon Miyachi, Grënner vun der am amerikaneschen Austin baséiertr Entreprise BitMindAI, géintiwwer der AFP. “Dës Tools gi genotzt, fir d’ëffentlech Perceptioun ze manipuléieren – dacks, fir spléckend an ierféierend Narrativer a bis elo ni do gewieschter Gréisstenuerdnung a Raffiness ze verbreeden.”

“Fotorealistescht” Material mat Hëllef vu KI-Tools

GetReal Security, eng amerikanesch Entreprise, déi sech op d’Erkenne vu manipuléierte Medie wéi KI-Deepfakes spezialiséiert huet, huet och eng Hickecht vu gefälschte Videoen am Zesummenhang mam Iran-Israel-Konflikt identifizéiert. D’Entreprise huet visuell androcksvoll Videoen – déi apokalyptesch Zeene mat beschiedegten israeelesche Fligeren a Gebaier souwéi iranesche Rakéiten op engem Unhänger gewisen hunn – op de KI-Generator Veo 3 vu Google zeréckgeféiert, dee fir hyperrealistesch Biller bekannt ass. D’Waasserzeeche vu Veo ass zum Beispill um ënneschte Bord vun engem Video ze gesinn, dee vun der Noriichtenagence “Tehran Times” verëffentlecht gouf an angeeblech “de Moment weist, an deem eng iranesch Rakéit” Tel Aviv getraff huet.

“Et iwwerrascht net, dass generativ KI-Tools, ëmsou méi fotorealistesch se ginn, och ëmmer méi mëssbraucht ginn, fir Desinformatiounen ze verbreeden a Verwirrung ze stëften”, sot den Hany Farid, Matgrënner vu GetReal Security a Professer op der University of California zu Berkeley. Dem Farid no si Veo3-Videoen normalerweis aacht Sekonne laang oder bestinn aus e puer Clippe mat änlecher Längt. “Dës Aacht-Sekonne-Grenz beweist zwar net, dass e Video gefälscht ass, sollt awer e gudde Grond sinn, ze iwwerleeën a Fakten ze iwwerpréiwen, éier een e weiderverbreet”, sot hien.

Falschinformatioune limitéiere sech awer net op Sozial Netzwierker. Den amerikanesche Journalisteprojet NewsGuard huet 51 Internetsäiten identifizéiert, déi méi wéi eng Dose falsch Behaaptunge verbreet hunn – dorënner KI-generéiert Fotoen, déi angeeblech Massenzerstéierungen zu Tel Aviv weisen, souwéi erfonnt Berichter iwwer israeelesch Piloten, déi vum Iran gefaangegeholl goufen. Zu de Quellen, déi dës falsch Narrativer verbreeden, zielen NewsGuard no iranesch Telegram-Kaneel, déi mam Militär a Verbindung stinn, a staatlech Medien, déi der Islamic Republic of Iran Broadcasting (IRIB) ugehéieren – enger Ariichtung, déi vum amerikanesche Finanzministère sanktionéiert gouf.

Digital Täuschungen am Informatiounskrich

“Mir gesinn eng Flut u falsche Behaaptungen, an anscheinend ass virun allem déi breet Bevëlkerung am Iran d’Haaptzilgrupp”, sot d’McKenzie Sadeghi, Fuerscherin bei NewsGuard, géintiwwer der AFP. Fir d’Sadeghi ass d’iranesch Bevëlkerung an engem “ofgeschotten Informatiounsraum gefaangen”, an deem virun allem staatlech Medie versichen, wann och chaotesch, “d’Iwwerhand ze kréien”.

Den Iran selwer huet behaapt, Affer vun technologescher Manipulatioun ginn ze sinn: Lokal Medien hu gemellt, Israel hätt kuerzzäiteg e staatleche Fernseeprogramm gehackt an Opname vu Fraeprotester gewisen – mam Opruff, op d’Strooss ze goen.

Zu der Verwirrung hunn och Clippe bäigedroen, déi online gedeelt goufen, déi aus Videospiller mat Krichsgeschichte stamen. D’AFP huet esou e Video identifizéiert. E gouf op der Plattform X gepost an dora gëtt duergestallt, wéi wann den Iran angeeblech en israeelesche Kampffliger ofgeschoss hätt. D’Opnamen änele staark der Computer-Militärsimulatioun Arma 3. Den israeelesche Militär huet Berichter vun iranesche Medien zeréckgewisen, dass Kampffligeren iwwer dem Iran ofgeschoss gi wären, an huet se als “Fake News” bezeechent.

Och Chatbots wéi Grok vun xAI, déi ëmmer méi heefeg vun Internetbenotzer fir eng séier Iwwerpréiwung vu Fakte genotzt ginn, hätten e puer manipuléiert Biller fälschlecherweis als richteg identifizéiert, sou Fuerscherinnen a Fuerscher.

“Dat weist eng iwwergeuerdent Kris an der haiteger digitaler Informatiounslandschaft: d’Vertrauen an digital Contenue geet ëmmer méi zeréck”, sot de BitMindAI-Grënner Miyachi. “Et besteet en dréngende Bedarf u besseren Erkennungstools, Mediekompetenz a Responsabilitéit vun de Plattformen, fir d’Integritéit vum ëffentlechen Discours ze schützen.”

Dëse Faktencheck gouf vun RTL op Lëtzebuergesch iwwersat.

Fact Checker Logo
Ursprénglech hei publizéiert.