Scroll Top

U bekijkt de website momenteel in taal NL. Voor aanvullende factchecks en inhoud met betrekking tot andere community's kunt u de vlagpictogrammen gebruiken om van taal te wisselen.

AI-gegenereerde afbeeldingen kunnen mensen voor de gek houden, hier zijn tips om ze te herkennen

AI-gegenereerde afbeeldingen kunnen mensen voor de gek houden, hier zijn tips om ze te herkennen - Featured image

Author(s): Sophie NICHOLSON / Charlotte STEENACKERS / Juliette MANSOUR / AFP Nederland / AFP Frankrijk

Donald Trump achter de tralies? De Russische leider Vladimir Poetin knielend voor zijn Chinese collega Xi Jinping? Misschien heb je online wel zulke schijnbaar realistische beelden zien circuleren, het resultaat van de snelle vooruitgang in kunstmatige intelligentie, bekend als Generative AI. Hoe kun je een echt beeld onderscheiden van een computergegenereerd beeld? Hoewel er geen onfeilbare methode is om een door AI gegenereerd beeld te identificeren, kan het helpen om enkele visuele en contextuele aanwijzingen te kunnen herkennen, vertelden experts aan AFP. 

Recent ontwikkelde AI-gereedschappen zoals Midjourney, DALL-E, Craiyon of Stable Diffusion kunnen een oneindig aantal afbeeldingen genereren door gebruik te maken van enorme databases.

Veel mensen gebruiken deze gereedschappen voor humoristische of artistieke doeleinden, maar anderen vertrouwen erop om beelden van politiek nieuws te fabriceren.

Op Twitter circuleerde bijvoorbeeld een stroom AI-gegenereerde beelden na de ontmoeting tussen Poetin en Xi op 20 maart 2023, for example in Dutchhere.  Andere beeldden de Franse president Emmanuel Macron af als een vuilnisman terwijl het afval in de Parijse straten opstapelde tijdens massale stakingen over controversiële pensioenhervormingen.

Hoewel de meeste makers duidelijk aangeven dat deze op grote schaal gedeelde beelden gefabriceerd zijn, circuleren andere foto’s zonder context of worden ze voorgesteld als authentiek, zoals dit Nederlandse Facebook-bericht met door AI gegenereerde afbeeldingen van de voormalige Amerikaanse president Donald Trump die in een gewelddadig handgemeen lijkt te verwikkeld met de politie die zijn arrestatie zoekt.

Ontwikkelaars hebben gereedschappen zoals Hugging Face gelanceerd om te proberen deze montages op te sporen. Maar de resultaten zijn gemengd en soms misleidend, zo blijkt uit diverse door AFP uitgevoerde tests.

 

 

“Wanneer AI foto’s genereert (uit niets), is er in het algemeen geen origineel beeld waaruit onderdelen worden gehaald,” vertelde David Fischinger, een AI-specialist en ingenieur aan het Oostenrijkse Instituut voor Technologie, op 21 maart aan AFP. “Er zijn duizenden/miljoenen foto’s die zijn gebruikt om miljarden parameters te leren.”

Vincent Terrasi, medeoprichter van Draft & Goal, een startup die een AI-detector voor universiteiten lanceerde, voegde daaraan toe: “De AI mengt deze beelden uit zijn database, deconstrueert en reconstrueert ze vervolgens een foto pixel voor pixel, waardoor we in de definitieve rendering het verschil tussen de oorspronkelijke beelden niet meer zien.”

Daarom werkt manipulatiedetectiesoftwares niet of nauwelijks bij het identificeren van AI gegenereerde beelden. Ook de metadata van een foto, die soms de bron van een AI-gegenereerde afbeelding kunnen onthullen, helpt niet.

“Helaas kun je niet vertrouwen op metagegevens aangezien deze op sociale netwerken volledig zijn verwijderd,” zei AI-expert Annalisa Verdoliva, professor aan de Frederick II Universiteit van Napels, aan AFP.

Terug naar de beeldbron

Volgens deskundigen is een belangrijke aanwijzing het vinden van de eerste keer dat de foto online werd geplaatst. In sommige gevallen kan de maker hebben gezegd dat het AI-gegenereerd was en het gebruikte gereedschap hebben aangegeven.

Een omgekeerde zoekopdracht kan helpen door te kijken of de foto geïndexeerd is in zoekmachines en ook om oude berichten met dezelfde foto te vinden.

Deze methode maakt het mogelijk om de bron te vinden van afbeeldingen die naar verluidt een gewelddadige woordenwisseling tonen tussen de voormalige Amerikaanse president Donald Trump en politieagenten die hem arresteren.


Een omgekeerde zoekopdracht op Google naar een van deze afbeeldingen leidt naar een tweet van Eliot Higgins, oprichter van het onderzoekscollectief Bellingcat, gepubliceerd op 20 maart 2023.

Higgins legt in een thread uit dat hij de reeks afbeeldingen heeft gemaakt met de laatste versie van Midjourney.

Screenshot vastgelegd op 22/03/2023 op Google

 

Als je de originele foto niet kunt vinden, kan een omgekeerde zoekopdracht leiden tot een kwalitatief betere versie van de foto als deze is bijgesneden of gewijzigd toen het gedeeld werd. Een scherpere foto is gemakkelijker te analyseren op fouten die een montage kunnen verraden.

Met een omgekeerde zoekopdracht kun je ook vergelijkbare foto’s vinden, wat waardevol kan zijn om potentiële AI-gegenereerde foto’s te vergelijken met foto’s uit betrouwbare bronnen.

Twitter-gebruikers zoals de Italiaanse journalist David Puente wezen er bijvoorbeeld op dat voor een virale foto waarop Poetin zou knielen voor Xi, het decor in de kamer anders was dan op de foto’s die de media over het evenement publiceerden.

Screenshot van Twitter vastgelegd op 23/03/2023

Fotobijschriften en online commentaren kunnen ook nuttig zijn om een bepaalde stijl van AI-gegenereerde inhoud te herkennen. DALL-E staat bijvoorbeeld bekend om zijn ultrarealistische ontwerpen en Midjourney om zijn scènes met beroemdheden.

Sommige tools, zoals Midjourney, laten een spoor van AI-gegenereerde beelden achter op verschillende gesprekskanalen.

Visuele aanwijzingen 

Zelfs zonder de bron van een foto te kennen, kunt je de afbeelding zelf analyseren aan de hand van visuele aanwijzingen.

Zoek naar een watermerk.

Soms zijn er aanwijzingen verborgen in de foto, zoals een watermerk dat door sommige AI-creatie gereedschappen wordt gebruikt.

DALL-E genereert bijvoorbeeld automatisch een meerkleurige balk rechtsonder op al zijn afbeeldingen. Crayion plaatst een klein rood potlood op dezelfde plaats.

Afbeelding gegenereerd door DALL-E 22 maart 2023 door AFP met de uitdrukking “een lolly die wordt vastgehouden door een kind op een strand”
Afbeelding gegenereerd door Craiyon.com op 22 maart 2023 met de uitdrukking “pen op een tafel”


Maar niet alle AI-gegenereerde afbeeldingen hebben watermerken — en die kunnen worden verwijderd, bijgesneden of verborgen.

Tips uit de kunstwereld 

Tina Nikoukhah, een promovendus die beeldverwerking studeert aan de ENS Paris-Saclay Universiteit, zei tegen AFP: “Kijk bij twijfel naar de korrel van de afbeelding, die bij een AI-gegenereerde foto heel anders zal zijn dan bij een echte foto.”

Met behulp van gratis versies van AI-tools genereerde AFP beelden met een stijl die lijkt op schilderijen van de hyperrealistische beweging, zoals het linker voorbeeld hieronder met een afbeelding van Brad Pitt in Parijs.

Een andere creatie rechtsonder werd gemaakt met soortgelijke trefwoorden over DALL-E. Het is hier minder duidelijk te zien dat het beeld AI-gegenereerd is.

AI-gegenereerde afbeelding met behulp van Stable Diffusion 22 maart 2023 met de zin: “Brad Pitt, straat van Parijs, vroege en zonnige ochtend, met een croissant in de buurt van een bakkerij en een oude Franse auto, in een wit overhemd, glimlachend, realistisch, 4K “
Afbeelding gegenereerd door AFP op DALL-E op 22 maart 2023 typend “Brad Pitt in Parijs, foto, winkels op de achtergrond, 4K”

Visuele inconsistenties

Ondanks de razendsnelle vooruitgang in Generative AI duiken er nog steeds fouten op in AI gegenereerde inhoud. Deze fouten zijn de beste manier om een gefabriceerd beeld te herkennen, vertelden deskundigen aan AFP.

“Sommige kenmerken, vaak dezelfde, vormen een probleem voor AI. Het zijn deze inconsistenties en artefacten die onder de loep moeten worden genomen, zoals in een spelletje zoek het verschil”, aldus Terrasi van Draft & Goal.

Verdoliva van de Frederik II Universiteit van Napels waarschuwde echter: “AI methoden worden mettertijd steeds beter en laten steeds minder synthese-artefacten zien, dus ik zou op de lange termijn niet vertrouwen op visuele aanwijzingen.”

In maart 2023 zijn realistische handen bijvoorbeeld nog steeds moeilijk te genereren. AFP’s AI-gegenereerde foto van Pitt toont de acteur ook met een onevenredig grote vinger.

Een journalist van AFP wees er in februari 2023 op dat een politieagent zes vingers had in een reeks foto’s die genomen zouden zijn tijdens een demonstratie tegen de Franse hervorming van het pensioenstelsel op 7 maart 2023.

“Momenteel hebben AI-beelden het ook erg moeilijk met het genereren van reflecties”, aldus Terrasi. “Een goede manier om een AI beeld te herkennen is om te zoeken naar schaduwen, spiegels, water, maar ook om in te zoomen op de ogen, en de pupillen te analyseren omdat er normaal gesproken een reflectie is als je een foto neemt. We kunnen ook vaak zien dat de ogen niet even groot zijn, soms met verschillende kleuren.”

Het gebruik van het vergrootglas in de Invid-WeVerify tool benadrukt een kleurverschil tussen de twee ogen in deze AI-gegenereerde foto van Macron gedeeld op Instagram. Niet alleen bevatte de foto twee verschillende tinten bruin, maar Macron heeft eigenlijk blauwe ogen.

Screenshot van een Instagram-post van een door AI gegenereerde afbeelding
Screenshot van een Invid-WeVerify-analyse van een door AI gegenereerde afbeelding

Generatoren veroorzaken ook vaak asymmetrieën. Gezichten kunnen onevenredig zijn of oren kunnen ook verschillende afmetingen hebben.

Tanden en haar zijn moeilijk na te maken en kunnen in hun contouren of textuur verraden dat een afbeelding niet echt is.

En sommige elementen kunnen slecht geïntegreerd zijn, zoals een zonnebril die opgaat in het gezicht.

Deskundigen zeggen ook dat het mengen van verschillende beelden kan leiden tot lichtproblemen in een AI gegenereerd beeld.

Controleer de achtergrond 

Een goede manier om deze anomalieën op te sporen is door naar de achtergrond van de foto te kijken. Hoewel het op het eerste gezicht normaal lijkt, onthult een door AI gegenereerde foto vaak fouten, zoals in deze foto’s waarop Barack Obama en Angela Merkel op het strand te zien zouden zijn.

Screenshot van een Instagram-post gegenereerd door AI en gepost door @joannsfar

Bij een van de mensen op de achtergrond lijken de benen te zijn afgesneden.

“Hoe verder een element verwijderd is, hoe meer een object wazig en vervormd zal zijn en verkeerde perspectieven zal hebben,” zei Terrasi.

In de valse foto van de ontmoeting tussen Xi en Poetin is een lijn op een zuil niet recht. Het hoofd van de Russische leider lijkt ook onevenredig in vergelijking met de rest van zijn lichaam. Fischinger vertelde AFP dat de inconsistenties een AI gegenereerd beeld onthulden.

Inconsistenties zijn te zien in deze nepfoto van Xi Jinping en Vladimir Poetin

Gebruik je gezond verstand 

Sommige elementen zijn misschien niet vervormd, maar kunnen toch een fout verraden. “Het is goed om je gezond verstand te vertrouwen” wanneer je twijfelt aan een afbeelding, zei hij.

Op de foto hieronder, gegenereerd door AFP op Midjourney en bedoeld om Parijs te tonen, staat een blauw bord met een inreisverbod, dat in Frankrijk niet bestaat.

Foto gegenereerd met Midjourney 22 maart 2023 door AFP met de uitdrukking “Brad Pitt, straat van Parijs, vroege en zonnige ochtend, met een croissant in de buurt van een bakkerij en een oude Franse auto, in een wit overhemd, glimlachend, realistisch, 4K”

Deze aanwijzing, gecombineerd met de afgehakte vingertoppen van het centrale figuur, een plastic ogende croissant en een verschil in belichting op sommige ramen, doet vermoeden dat de foto door AI is gegenereerd.

Het watermerk rechtsonder op de foto neemt elke twijfel weg en geeft aan dat de opname van DALL-E is.

Ten slotte, als een afbeelding beweert een gebeurtenis te tonen maar de geloofwaardigheid ervan twijfelachtig is, zoek dan bij betrouwbare bronnen naar mogelijke inconsistenties.

Fact Checker Logo
Oorspronkelijk hier gepubliceerd.