Scroll Top

“En Tool fir Beduckser”: KI-Deepfakes verbreede falsch Heelmëttel géint sexuell Problemer

"En Tool fir Beduckser": KI-Deepfakes verbreede falsch Heelmëttel géint sexuell Problemer - Featured image

Author(s): RTL Lëtzebuerg

Mat enger iwwerdimensionéierter Muert an der Hand mécht e muskuléise Mann ouni T-Shirt fir en Narungsergänzungsmëttel Reklamm, dat angeeblech d’männlech Genitalie vergréissere kéint. Dobäi handelt et sech ëm ee vun zuelräiche KI-generéierte Videoen op TikTok, déi sexuell Heelmëttel ouni erwise Wierkung grouss an d’Vitrinn stellen.

Duerch déi rasant Fortschrëtter an der Kënschtlecher Intelligenz (KI) ass eng Zort “KI-Dystopie”  entstanen – Sozial Netzwierker goufe sou zu enger Plaz, op där Bedruch floréiert a fir zweiwelhaft Produkter Reklamm gemaach gëtt.

Den Opstig vu generativer KI huet liicht – a finanziell lukrativ – gemaach, esou Videoe mat minimaler mënschlecher Opsiicht en masse ze produzéieren. Dacks ginn dobäi Fake-Prominenter gewisen, déi fir dutéis a potenziell schiedlech Produkter Reklamm maachen.

An e puer TikTok-Videoe gi Muerten als euphemistesch Ëmschreiwung fir männlech Genitalie benotzt. Dat geschitt anscheinend, fir d’Moderatioun vum Contenu ze ëmgoen, déi sexuell explizitt Sprooch zenséiert.

“Dir géift feststellen, dass Är Muert gewuess ass”, seet de muskuléise Mann an engem Video mat roboterhafter Stëmm a verweist op en Onlineshop.

“Dëse Produit wäert Äert Liewe veränneren”, füügt de Mann bäi a behaapt ouni Beweiser, dass déi benotzt Kraider den Testosteronspigel klammen an d’Energie “duerch de Plaffong goe loossen”.

Engem Deepfake-Erkennungstool no, dee kierzlech vun der Entreprise Resemble AI aus Kalifornien lancéiert gouf an deem seng Resultater der AFP zur Verfügung gestallt huet, schéngt de Video mat KI hiergestallt ginn ze sinn.

“Wéi an dësem Beispill ze gesinn, ginn ierféierend KI-generéiert Contenue benotzt, fir Narungsergänzungsmëttel mat iwwerdriwwenen oder net confirméierte Behaaptungen ze vermaarten, wat d’Gesondheet vu Konsumenten a Gefor brénge kann”, sot de Zohaib Ahmed, Gerant a Matgrënner vu Resemble AI, géintiwwer der AFP.

“Mir observéieren, dass KI-generéiert Contenuen als Instrument fir d’Verbreedung vu falschen Informatiounen agesat ginn.”

Eng “bëlleg Méiglechkeet, Reklamm ze maachen”

Dësen Trend ënnersträicht, wéi rasant Fortschrëtter an der Kënschtlecher Intelligenz dat entstoe loossen, wat Fachleit als KI-Dystopie bezeechnen: Eng vu Bedruch gepräägt Online-Welt, déi dorop ausgeluecht ass, Notzer, déi keng Anung hunn, vum Kaf vun zweiwelhafte Produiten ze iwwerzeegen.

Dozou gehéiert alles vun net confirméierten – an an e puer Fäll potenziell schiedlechen – Narungsergänzungsmëttel bis hin zu Produite fir Gewiichtsreduktioun a Potenzmëttel.

“KI ass en nëtzlecht Geschier fir Beduckser, déi mat wéineg Käschte grouss Quantitéiten u mannerwäertege Contenuen erstelle wëllen”, sot d’Desinformatiounsfuerscherin Abbie Richards géintiwwer der AFP.

“Et ass eng bëlleg Méiglechkeet, Reklamm ze maachen”, huet si bäigefüügt.

Den Alexios Mantzarlis, Direkter vu Security, Trust, and Safety Initiative (SETS) bei Cornell Tech huet op TikTok eng riseg Quantitéit u “KI-Dokter”-Avataren an Audioausschnëtter observéiert, déi Reklamm fir dutéis sexuell Heelmëttel maachen.

Verschiddene Videoen, vun deene vill milliounefach geklickt goufen, schwärme vu Mixturen aus Ingrediente wéi Zitroun, Geimer a Knuewelek, déi den Testosteronspigel klamme loosse sollen.

Nach méi beonrouegend ass, dass sech däraarteg séier entwéckelend KI-Tool d’Hierstelle vun Deepfakes erméiglechen, déi Prominenter wéi zum Beispill d’Schauspillerin Amanda Seyfried an de Schauspiller Robert De Niro imitéieren.

“Äre Mann kritt nach een héich?”, schéngt den Anthony Fauci, de fréieren Direkter vum amerikaneschen National Institute of Allergy and Infectious Diseases, an engem TikTok-Video ze froen, an deem fir e Prostata-Medikament Reklamm gemaach gëtt.

De Clip ass awer en Deepfake, an deem dem Fauci säi Gesiicht genotzt gëtt.

“Besonnesch schiedlech”

Vill manipuléiert Videoe ginn aus scho bestoende Videoen erstallt, mat KI-generéierte Stëmme modifizéiert an d’Lëpsebeweegunge synchroniséiert, fir dass se zu deem passen, wat déi verännert Stëmm seet.

“D’Imitatiounsvideoe si besonnesch schiedlech, well se eis Fäegkeet, authentesch Berichter am Internet ze erkennen, weider beanträchtegen”, sot de Mantzarlis.

Am Joer 2024 huet de Mantzarlis Honnerte vun Annoncen op YouTube entdeckt, an deenen Deepfakes vu Prominenten – dorënner den Arnold Schwarzenegger, de Sylvester Stallone an de Mike Tyson – Reklamm fir Präparater gemaach hunn, déi als Heelmëttel géint erektil Dysfunktioun proklaméiert goufen.

Déi rasant Vitess, mat där kuerz KI-Videoen erstallt ginn, bedeit, dass souguer wann Tech-Plattformen dutéis Contenue läschen, bal identesch Versioune séier nees opdauchen – wat d’Moderatioun vum Contenu zu engem Kaz-a-Maus-Spill mécht.

Fachleit soen, dass dat eenzegaarteg Erausfuerderunge fir d’Iwwerwaachung vu KI-generéierte Contenue mat sech bréngt an neiaarteg Léisungen a méi sophistiquéiert Erkennungstool erfuerdert.

Faktenchecker vun der AFP hunn ëmmer nees dutéis Annoncen op Facebook opgedeckt, an deene Reklamm fir Behandlungen – dorënner Heelmëttel géint erektil Dysfunktioun – gemaach gouf. Dora goufe gefälscht Recommandatioune vum Ben Carson, engem Neurochirurg a fréiere Member vun der US-Regierung, benotzt.

Trotzdeem hale vill Notzer d’Recommandatioune weiderhi fir echt, wat d’Attraktivitéit vun Deepfakes verdäitlecht.

“Affiliate-Marketing-Programmer fir Beduckser an dutéis Sex-Präparater gouf et souguer scho virum Internet”, sot de Mantzarlis.

“Wéi bei allen aneren negativen Aspekter vum Internet huet generativ KI dës Mëssbrauchsméiglechkeet méi bëlleg a méi séier a groussem Moossstaf asetzbar gemaach.”

Dëse Faktencheck gouf vun RTL op Lëtzebuergesch iwwersat.

Fact Checker Logo
Ursprénglech hei publizéiert.