Scroll Top

Hey Chatbot, stëmmt dat?: KI “iwwerpréift Fakten” a verbreet Falschinformatiounen

Hey Chatbot, stëmmt dat?: KI "iwwerpréift Fakten" a verbreet Falschinformatiounen - Featured image

Author(s): RTL Lëtzebuerg

Wärend dem Kaschmir-Konflikt am Mee 2025 tëscht Pakistan an Indien, deen iwwer véier Deeg goung, hu sech explosiounsaarteg Falschinformatiounen iwwer déi sech militäresch Spannungen tëscht béide Länner verbreet, déi sech zouspëtzen.

Fir e besseren Iwwerbléck ze behalen, hu sech Notzer vu sozialen Netzwierker fir d’Fakteniwwerpréiwung un e KI-Chatbot geriicht. Dobäi si si awer op nach méi Onwourechte gestouss, wat d’Onzouverlässegkeet vu KI als Instrument fir Fakteniwwerpréiwung ënnersträicht.

Well Tech-Konzerner ëmmer manner op Faktenchecker setzen an asetzen, verloosse sech d’Notzer bei der Sich no verlässlechen Informatiounen ëmmer méi op KI-baséiert Chatbots – dorënner  Grok vun xAI, ChatGPT vun OpenAI an Gemini vu Google.

“Hey @Grok, stëmmt dat?” ass eng heefeg gestallt Fro op dem Elon Musk senger Plattform X, wou de KI-Assistent integréiert ass. Dat spigelt den Trend, deen ëmmer méi wiisst, erëm, a sozialen Netzwierker no séiere Faktenchecken ze sichen. D’Äntwerte sinn awer dacks selwer voll mat Feelinformatiounen.

Grok steet am Moment nees ënner Beobachtung, well en de rietsextreeme Konspiratiounsnarrativ “White Genocide”, also “Genozid u Wäissen”, an net relevante Sichufroen agefüügt huet. De KI-Chatbot hat al Videoopname vum Fluchhafe Khartum am Sudan fälschlecherweis als Rakéitenugrëff op de pakistanesche Loftwaffestëtzpunkt Nur Khan wärend dem kierzleche Konflikt vum Land mat Indien identifizéiert.

Filmmaterial vun engem brennende Gebai an Nepal, dat näischt domat ze dinn hat, gouf fälschlecherweis als “warscheinlech” Reaktioun vum pakistanesche Militär op indesch Attacken identifizéiert.

“D’Notze vu Grok fir Fakteniwwerpréiwung, déi zouhëlt, fält an eng Zäit, an där X an aner grouss Technologiekonzerner hir Investitiounen a Faktenchecker gekierzt hunn”, sot d’McKenzie Sadeghi géintiwwer der AFP. D’Sadeghi ass Analystin beim amerikanesche Journalismusprojet NewsGuard, dee sech op eng Bewäertung vun der Glafwierdegkeet an Transparenz vun Internetsäite spezialiséiert huet.

“Eis Ënnersichungen hunn ëmmer nees gewisen, dass KI-Chatbots keng zouverlässeg Quelle fir Noriichten an Informatioune sinn, besonnesch wann et ëm aktuell Noriichte geet”, huet si gewarnt.

Detailer “erfonnt”

Ënnersichunge vun NewsGuard hunn erginn, dass zéng féierend Chatbots dozou tendéiere géifen, Onwourechten ze widderhuelen (hei archivéiert). Dorënner sinn och beispillsweis russesch Desinformatiounsnarrativer a falsch oder ierféierend Behaaptungen am Zesummenhang mat der jéngster Parlamentswal an Australien ze fannen.

An enger aktueller Etüd iwwer aacht KI-Sichtools huet den Tow Center for Digital Journalism der Columbia University festgestallt, dass Chatbots “am Allgemenge schlecht dora sinn, Froen, déi se net genee beäntwere kënnen, ofzeleenen, an amplaz falsch oder spekulativ Äntwerte ginn” (hei archivéiert).

Wéi AFP-Faktenchecker an Uruguay Gemini zu engem KI-generéierte Bild vun enger Fra befrot hunn, huet de KI-Chatbot net just deem seng Echtheet confirméiert, mee och nach Detailer zu hirer Identitéit an dem Uert, wou d’Bild warscheinlech gemaach gouf, erfonnt.

Grok huet kierzlech en angeebleche Video vun enger grousser Anakonda, déi am Amazonas schwëmmt, als “echt” agestuuft an huet souguer glafwierdeg kléngend wëssenschaftlech Feldfuerschung zitéiert, fir déi falsch Behaaptung ze ënnermaueren.

A Wierklechkeet war de Video mat KI hiergestallt, wéi AFP-Faktenchecker a Latäinamerika erausfonnt hunn. Si hunn ausserdeem dorop higewisen, dass vill Notzer d’Aschätzung vu Grok als Beweis fir d’Echtheet vum Videoclip ugeféiert hunn.

Esou Erkenntnisser ginn e Grond zur Suerg, well Ëmfroe weisen, dass Internetuser, fir un Informatiounen ze kommen a se ze iwwerpréiwen, ëmmer méi vun traditionelle Sichmaschinnen op KI-Chatbots wiesselen.

Dës Entwécklung kënnt zu engem Moment, wou Meta Ufank vum Joer ugekënnegt hat, säi Programm fir Fakteniwwerpréiwung duerch Drëtter an den USA anzestellen. D’Aufgab, Falschmeldungen opzedecken, gëtt elo un normal Notzer iwwerdroen, an zwar am Kader vun engem Modell, deen als “Community Notes” bekannt ass an duerch d’Plattform X populär gouf.

Fachleit hunn d’Effikassitéit vu “Community Notes” bei der Bekämpfung vu Falschmeldungen ëmmer nees a Fro gestallt.

“Beaflosst Äntwerten”

D’Iwwerpréiwung vu Fakten duerch Mënschen ass zënter Laangem e Sträitpunkt an engem hyperpolariséierte politesche Klima. Dat gëllt besonnesch fir d’USA, wou a konservative Kreesser behaapt gëtt, dass doduerch d’Meenungsfräiheet ënnerdréckt a rietsgeriicht Contenuen zenséiert géifen – wat professionell Faktenchecker vehement zeréckweisen.

D’AFP schafft am Moment a 26 Sprooche mam Fakteniwwerpréiwungsprogramm vu Meta zesummen, dorënner an Asien, Latäinamerika an an der Europäescher Unioun.

D’Qualitéit an d’Prezisioun vu KI-Chatbots ka jee no hirer Programméierung an hirem Training variéieren, wat zu Bedenke féiert, dass hir Resultater politesch beaflosst oder kontrolléiert gi kéinten.

Dem Musk seng Entreprise xAI huet kierzlech eng “net autoriséiert Ännerung” dofir responsabel gemaach, dass Grok onopgefuerdert Bäiträg mat Verweiser op e “Genozid u Wäissen” a Südafrika hiergestallt huet.

Wéi de KI-Expert David Caswell Grok gefrot huet, wie seng Systemopfuerderung hätt kënne geännert hunn, huet den Chatbot de Musk als “warscheinlechste” Schëllege genannt.

De Musk, deen a Südafrika gebuere Milliardär an Ënnerstëtzer vum amerikanesche President Donald Trump, hat virdrun déi onbegrënnt Behaaptung verbreet, dass südafrikanesch Regierungscheffen “oppe fir e Vëlkermord” u Wäissen antriede géifen.

“Mir hu gesinn, wéi KI-Assistente Resultater fälschen oder virageholl Äntwerte gi kënnen, nodeem hir Uweisungen duerch mënschlecht Programméiere geziilt geännert goufen”, sot d’Angie Holan, Direktesch vun den International Fact-Checking Networks, géintiwwer der AFP.

“Besonnesch vill Suerge mécht mir, wéi Grok Ufroen iwwer immens sensibel Theeme falsch benotzt huet, nodeem en Uweisunge kritt hat, virewech autoriséiert Äntwerten ze ginn.”

Dëse Faktencheck gouf vun RTL op Lëtzebuergesch iwwersat.

Fact Checker Logo
Ursprénglech hei publizéiert.