Scroll Top

Dir gesitt am Moment d'Websäit a Sprooch LB. Fir zousätzlech Faktenchecken an Inhalter, déi zu anere Gemeinschafte betreffen, benotzt w.e.g. d'Fändelikonen fir Sproochen ze wiesselen.

Faktencheck: Wéi erkennt ee KI-generéiert Biller? Mat vill gesondem Mënscheverstand!

Faktencheck: Wéi erkennt ee KI-generéiert Biller? Mat vill gesondem Mënscheverstand! - Featured image

Author(s): RTL Lëtzebuerg

 

Midjourney, DALL-E, Stable Diffusion, Craiyon… déi rasant Fortschrëtter vun der Kënschtlecher Intelligenz an de leschte Méint hunn zu engem neie Phenomen gefouert: Dem massiven Deele vu kënschtlech generéierte Biller a sozialen Netzwierker. E puer, ultrarealistesch a politesch aktuell, hunn zu Konfusioune geféiert a goufen heiansdo als authentesch duergestallt.

E puer passend Schlësselwierder, e Bild. Dat ass de Prinzip vu ville kënschtlechen Intelligenze wéi Midjourney, DALL-E, Craiyon oder Stable Diffusion. Dës Outile si capabel, aus enger riseger Datebank, déi stänneg mat Ufroe vu Benotzer gefiddert gëtt, eng Villzuel vu Fotoen ze generéieren.

Wourun erkennt ee se? Vill Internetnotzer benotzen dës KI fir humoristesch oder kënschtleresch Kreatiounen, awer anerer hu sech dofir decidéiert, dës Biller mat aktuelle politeschen Evenementer a Verbindung ze bréngen.

Eng Flut vu KI-Biller ass beispillsweis op Twitter am Ëmlaf, fir reell Evenementer wéi d’Treffen tëscht dem Wladimir Putin an dem Xi Jinping den 20. Mäerz 2023 ze illustréieren oder sech fiktiv Situatioune virzestellen, wéi den Emmanuel Macron als Drecksmännchen oder als CRS, dee géint d’Rentereform protestéiert.

Wärend d’Majoritéit vun den Auteure vun dëse Kreatioune preziséiert, dass et sech ëm falsch Biller handelt, zirkuléieren dës Fotoen, déi vu ville Leit weider gedeelt ginn, ouni Kontext a ginn zum Deel authentesch duergestallt.

Et goufen Outilen entwéckelt oder befanne sech an der Entwécklung, fir esou Konstruktiounen ze erkennen, wéi dësen, mee hir Resultater sinn nach ëmmer net gutt genuch a kënnen heiansdo och feelerhaft sinn, wéi Tester vun der AFP gewisen hunn.

“Wann eng KI e komplett Bild produzéiert, ginn an der Reegel keng Deeler vun enger eenzeger Foto erausgeholl. Dausenden oder souguer Millioune vu Fotoe gi benotzt, fir déi Milliarde vu Parameteren ze berécksiichtegen”, huet den David Fischinger, Ingenieur um Éisträicheschen Institut fir Technologie a KI-Spezialist den 21. Mäerz géintiwwer der AFP erkläert.

“D’KI mëscht dës Biller aus hirer Datebank, hëlt se auserneen a rekonstruéiert e Bild Pixel fir Pixel, wat bedeit, dass an der finaler Versioun den Ënnerscheed tëschent den Originalbiller net méi ze erkennen ass”, huet de Vincent Terrasi, Matbegrënner vun Draft&Goal, engem StartUp, dat ënner anerem e KI-generéierte Content-Detekter fir Universitéite lancéiert huet.

Aus dësem Grond funktionéiert Software, déi eng Fotomontage erkennen, net oder just ganz schlecht, fir Biller, déi vollstänneg vu KI hiergestallt goufen, ze erkennen.

D’Metadate vun enger Foto – den echten digitalen Ausweis vun engem Fichier, deen heiansdo d’Hierkonft ka präisginn, vu wou e Bild, dat vun der KI hiergestallt gouf, hierkënnt – sinn och fir viral Biller net nëtzlech, wéi d’Annalisa Verdoliva, Professesch op der Universitéit Frederico II zu Neapel an Expertin fir Kënschtlech Intelligenz, der AFP den 23. Mäerz sot: “Leider kënne mir eis net dorop verloossen, well sozial Netzwierker dës Informatioune systematesch läschen”.

Bildquell erausfannen

De beschte Wee, fir d’Kreatioun vun enger KI ze erkennen, ass dohier no Usiicht vun Experten d‘Sich no hirem Ursprongskontext, fir ze kucken, ob en Internetnotzer matdeelt, dass hie se fabrizéiert huet mat wéi engem Outil. Dat ass ganz dacks de Fall.

Fir dat ze erreechen, muss ee versichen, den éischte Moment ze fannen, wéi d’Foto online verëffentlecht gouf.

Et ass méiglech, dat duerch eng ëmgekéiert Billersich ze maachen, andeems d’Foto an enger oder méi Sichmaschinnen eropgeluede gëtt, fir ze kucken, ob d’Bild schonn indexéiert ass, an ze versichen, al Occurrencen ze fannen.

Dës Method erlaabt et méiglecherweis erauszefannen, vu wou d’Biller stamen, déi an de sozialen Netzwierker dacks am Ëmlaf sinn, wéi zum Beispill e Kampf tëscht dem amerikaneschen Ex-President Donald Trump a Policebeamten, déi hie verhafte wëllen.

Eng ëmgekéiert Billersich op Google no enger vun dëse Fotoe féiert zu engem Tweet vum Eliot Higgins, dem Grënner vun der investigativer Internetsäit Bellingcat, deen hien den 20. Mäerz 2023 ofgesat huet.

Hien erkläert an engem Thread, dass hien dës Billerserie mat der neister Versioun vu Midjourney erstallt huet.

RTL Capture d’écran prise le 22/03/2023 sur Google

Wann d’Originalfoto net fonnt gëtt, kann eng ëmgekéiert Billersich zu enger besserer Versioun vum Bild féieren, wann d’Bild beim Deele geschnidden, verännert gouf oder u Qualitéit verluer huet. Ëmsou besser d’Bildqualitéit ass, desto méi einfach ass et, d’Bild op Feeler ze analyséieren, déi op eng Montage hindeiten.

Schliisslech huet déi ëmgekéiert Billersich de Virdeel, dass si änlech Biller ervirhieft. Dat kann nëtzlech sinn, fir eng Foto, déi vermeintlech vun enger KI generéiert gouf, mat Biller aus zouverlässege Quellen ze vergläichen.

Am Kader vun der Entrevue tëscht dem Donald Trump an dem Xi Jinping huet den italieenesche Journalist David Puente drop higewisen, dass d’Kuliss vum Sall op de Fotoe vun dësem Evenement, déi vun de Medie verëffentlecht goufen, an d’Bild vum Wladimir Putin, dee virum Xi Jinping knéit, wou d’Source net bekannt ass, näischt mateneen ze dinn hunn, wat Zweiwel un der Authentizitéit vum Evenement opkomme loosse géif.

RTL Capture d’écran prise sur Twitter le 23/03/2023

D’Beschreiwung vun der Foto an d’Kommentare vun Notzer kënnen och ganz hëllefräich si fir eng Montage ze mellen oder de Stil vun enger KI ze erkennen, woubäi DALL-E fir seng ultra-realistesch Designs a Midjourney fir seng Promi-Inzenéierunge bekannt ass.

Dat kann nëtzlech sinn, fir den Outil ze fannen, deen d’Bild fabrizéiert huet a versicht, d’Foto erëmzefannen – verschidden Outilen, wéi Midjourney, hannerloosse Spuere vun den erstallte Biller a verschiddene Konversatiounskanäl – oder fir ze versichen, änlech Biller ze kreéieren.

Wann een d’Quell vum Bild net fonnt huet a keen Hiweis op säi Kontext huet, muss ee sech d’Bild selwer ukucken.

E Bild analyséieren

  • No engem Waasserzeeche sichen

Heiansdo verstoppe sech Hiweiser an enger Foto: Verschidden Internetsäite kënnen e Waasserzeechen an hiren erstallte Biller verstoppen. Dat ass de Fall bei DALL-E, dat automatesch e faarwege Balken am ënneschte rietsen Eck vun alle Biller generéiert, oder bei Crayion, dat e klenge roude Bläistëft op der selwechter Plaz placéiert.

RTL Image générée sur DALL-E le 22 mars 2023 par l’AFP en tapant “a lolipop being held by a kid on a beach”

RTL Image générée sur Craiyon.com par l’AFP le 22 mars 2023 en tapant “pen on a table”

Passt awer op, dass net alleguer d’KIe Waasserzeechen an hire Biller placéieren, an dass d’Waasserzeeche méiglecherweis beim Export ewechgeholl oder méi spéit erausgeschnidden oder maskéiert gouf.

  • Kuckt Iech de Kär vum Bild un

“Am Zweiwelsfall muss ee sech de Kär vum Bild ukucken, dee sech bei enger Kreatioun duerch eng KI staark vun deem vun enger echter Foto ënnerscheet”, sot d’Tina Nikoukhah, Doktorandin am Beräich Bildbeaarbechtung am Laboratoire de mathématiques vum ENS Paris-Saclay, den 22. Mäerz géintiwwer der AFP.

An de gratis Versioune vun der KI, déi getest goufen, haten déi kreéiert Biller e Stil, deen den hyperrealistesche Beweegungsbiller ganz änlech war, wéi d’Beispill ënne lénks vun engem Bild vum “Brad Pitt zu Paräis”, dat mat Stable Diffusion hiergestallt gouf.

Eng weider Kreatioun, déi mat DALL-E mat änleche Schlësselwierder ënne riets realiséiert gouf, ass awer méi genau, an et ass op den éischte Bléck net esou einfach ze soen, dass et sech ëm e KI-Bild handelt.

RTL Image générée par l’AFP sur Stable Diffusion le 22 mars 2023 en tapant “Brad Pitt, street of Paris, early and sunny morning, holding a croissant, near a bakery and old French car, wearing a white shirt, smiling, realistic, 4K”

RTL Image générée par l’AFP sur DALL-E le 22 mars 2023 en tapant “Brad Pitt in Paris, photo, shops in the background, 4K”

  • No visuellen Inkoherenze sichen

Trotz de rasante Fortschrëtter vun der kënschtlecher Intelligenz gëtt et ëmmer nach vill Feeler a Biller, déi vun enger KI generéiert goufen. Dës Defiziter wären zum aktuellen Zäitpunkt déi bescht Méiglechkeet, en hiergestalltent Bild ze erkennen, wéi Experten, déi befrot goufen, erkläert hunn.

“Verschidde Mierkmoler, dacks déi selwecht, si fir KI problematesch. Et sinn dës Inkoherenzen an Artefakten, op déi een oppasse muss, wéi an engem Spill mat 7 Differenzen”, betount de Vincent Terrasi.

Allerdéngs gi KIe vun Dag zu Dag besser a weisen ëmmer manner Anomalien op, sou dass ee sech net op laangfristeg visuell Hiweiser verloossen däerf“, warnt Annalisa Verdoliva.

Sou hu KIen am Mäerz 2023 ëmmer nach Schwieregkeeten, realistesch Hänn ze kreéieren. Dat weist déi onverhältnesméisseg Gréisst vum Brad Pitt um Bild, déi uewe lénks ze gesinn ass.

An enger Rei vu Fotoen, déi angeeblech wärend enger Demonstratioun géint d’Rentereform de 7. Mäerz 2023 gemaach goufen an op deenen en CRS [franséische Polizist, Um. v. d. Red.] eng Demonstrantin ëmäermelt, huet eng Journalistin vun der AFP dorop higewisen, dass ee Polizist sechs Fangeren hätt, wat d’Bild als Montage entlarvt.

“Haut fält et der KI och immens schwéier, Reflexiounen ze produzéieren. Eng gutt Méiglechkeet, eng KI ze erkennen, ass, no Schiet, Spigelen oder Waasser ze sichen, awer och d’Aen erunzezoomen an d’Pupillen ze ënnersichen, well normalerweis gëtt et eng Reflexioun, wann een eng Foto mécht. Dacks stellt een och fest, dass d’Aen net déi selwecht Gréisst hunn, heiansdo och ënnerschiddlech Aefaarwen”, betount de Vincent Terrasi.

Dat ass de Fall bei dëser Foto vum Emmanuel Macron, déi vun enger KI generéiert an op Instagram gedeelt gouf. D’Zoom-Funktioun vum Outil Invid-WeVerify hieft en Ënnerscheed an der Faarf vu béiden Aen ervir.

RTL Capture d’écran d'une image générée par IA créée par le compte Instagram Joannsfar

RTL Zoom réalisé avec l’outil Invid-WeVerify sur les yeux d’Emmanuel Macron à partir de la capture d’écran d’une image générée par IA créée par le compte Instagram Joannsfar

D’KIe kreéieren och dacks Asymmetrien: Dat kann um Niveau vum Gesiicht geschéien, dat onverhältnesméisseg ka sinn, oder bestëmmt Mierkmoler, wéi z.B. Oueren, déi net déi selwecht Héicht oder just een Ouerrank hunn.

Zänn an Hoer sinn och dacks schwiereg fir d’KI ze imitéieren a kënnen um Niveau vun hirer Ofgrenzung oder Textur weisen, dass d’Bild net reell ass.

Verschidden Elementer kënnen och schlecht integréiert ginn, wéi Sonnebrëller, déi mat engem Gesiicht verschmolt sinn.

Schlussendlech kéint d’Mësche vu méi Biller duerch d’KI zu Liichtprobleemer am Bild féieren, weisen d’Experten drop hin.

  • Den Hannergrond vum Bild ënnersichen

De beschte Wee, esou Anomalien ze erkennen, ass dacks, den Hannergrond vum Bild ze ënnersichen. Obwuel et op den éischte Bléck normal erschéngt, weist eng Foto, déi vun enger KI generéiert gouf, eng grouss Unzuel u Feeler am Hannergrond op, déi heiansdo och inkoherent ass.

Bei Fotoen, déi op den éischte Bléck extreem onrealistesch wierken, z.B. de Barack Obama an d’Angela Merkel op der Plage, an an de sozialen Netzwierker am Ëmlaf waren, verréit den Hannergrond eng Montage: Eng vun de Persounen am Hannergrond huet ofgetrennt Been an déi aner Persoun schéngt net richteg an den Dekor ze passen.

RTL Capture d’écran d’une image générée par IA et partagée sur le compte Instagram @joannsfar

“Ëmsou méi wäit en Element ewech ass, desto méi verschwommen, verzerrt an inkorrekt ass d’Perspektiv”, seet de Vincent Terrasi weider.

Op der gefälschter Foto vun der Entrevue tëscht dem Xi Jinping an dem Wladimir Putin ass eng Linn am Hannergrond net riicht. En Indice, deen och beim Putin sengem Kapp ze fannen ass, deen am Verglach zum Rescht vu sengem Kierper méi grouss ze si schéngt an domat e Bild, dat vun enger KI hiergestallt gouf, verréit, wéi den David Fischinger der AFP matgedeelt huet.

RTL Les incohérences relevées sur la fausse photo de la rencontre de Xi Jinping et Vladimir Poutine

  • Un de gesonde Mënscheverstand appelléieren

Och wa verschidden Elementer net onbedéngt verzerrt sinn, kënne se awer e logeschen Denkfeeler ausschléissen, an “et ass gutt, sech op de gesondem Mënscheverstand ze verloossen”, seet den Expert weider.

Op dëser Foto, déi vun der AFP mat Midjourney generéiert gouf a Paräis weise soll, ass z.B. e blot Schëld vun engem Sens interdit ze erkennen. Eng Signalisatioun, déi et Frankräich guer net gëtt.

RTL Photo générée par l’AFP sur Midjourney le 22 mars 2023 avec les mots-clés “Brad Pitt, street of Paris, early and sunny morning, holding a croissant, near a bakery and old French car, wearing a white shirt, smiling, realistic, 4K”

Dësen Hiweis, zesumme mat den ofgeschniddene Fangeren un den Extremitéite vun der Haaptfigur, engem plastikänlechen Hallefmound an enger ënnerschiddlecher Beliichtung a verschiddene Fënsteren, si genuch Pisten, dass et sech bei deem Bild ëm eng kënschtlech Kreatioun handelt. D’Waasserzeechen ënne riets um Bild schléisst all Zweiwel aus a weist, dass d’Bild mat DALL-E hiergestallt gouf.

A schlussendlech, wann e Bild behaapt, en Evenement ze weisen, awer Zweiwel u sengem Ursprong bestinn, ass et am beschten, no Informatiounen ze sichen, fir festzestellen, ob dëst Evenement wierklech geschitt ass an a vertrauleche Quellen ernimmt gëtt. A wa jo, da soll ee sech op dat stëtzen, wat an den Noriichte gesot gouf, an op existéierend Biller, fir méigleche Widderspréch virzekommen.

Bei engem Treffen tëscht zwee politesche Leadere kann dat beispillsweis de Fall sinn, wéi d’Staatscheffen ugedoe waren, d’Ëmstänn vun hirer Entrevue, d’Wieder zu deem Zäitpunkt, den Dekor vun hirer Entrevue oder den Hannergrond.

Dësen AFP-Artikel gouf vun RTL op Lëtzebuergesch iwwersat.

Fact Checker Logo
Ursprénglech hei publizéiert.