Scroll Top

Faktencheck: Kann ee sech bei der Iwwerpréiwung vun Informatiounen op KI verloossen?

Faktencheck: Kann ee sech bei der Iwwerpréiwung vun Informatiounen op KI verloossen? - Featured image

Author(s): RTL Lëtzebuerg

Plattforme fir generativ Kënschtlech Intelligenz (KI) sinn ëmmer méi zougänglech a ginn heiansdo fir d’Iwwerpréiwe vun Informatioune benotzt, déi besonnesch a Sozialen Netzwierker an Ëmlaf sinn.

Virwarnung: Dësen Artikel berout op Quellen an Informatiounen, déi den 2. Abrëll 2025 disponibel waren. Opgrond vun der séierer Entwécklung vu Plattformen an Outile kéinten e puer Informatiounen zum Zäitpunkt vun der Lektür net méi aktuell sinn.

Wärend dës KIen am Allgemenge gutt dora sinn, zäitgebonnen Informatiounen ze liwweren, wéi z.B. d’Äntwert op d’Fro “Wéi heescht d’Haaptstad vun der Belsch?”, kënne se Feeler maachen, wann et ëm aktuell Sujete geet. Dës Outile mat hire groussen technologesche Fäegkeete si vun den Informatiounen ofhängeg, déi se sech uneegnen.

Etüden an Erfarunge vu Journalisten deiten dorop hin, dass d’Iwwerpréiwe vun Informatioune mat KI-Engines wéi ChatGPT riskant ka sinn.

D’Schnëttstelle vun der generativer Kënschtlecher Intelligenz, déi d’Interaktioun mat den Notzer erméiglechen, si vill méi grouss ginn a sinn an de leschte Jore fir déi breet Ëffentlechkeet zougänglech ginn. ChatGPT, eng wierklech technologesch Revolutioun, ass beispillsweis Bestanddeel vun der breeder Ëffentlechkeet ginn, andeem et reegelméisseg genotzt gëtt. Dat ass besonnesch a Frankräich de Fall, wou eng Ipsos-Ëmfro vum Februar 2025 ergouf, dass véier vun zéng Fransouse KI berufflech oder privat notzen. An der Altersgrupp 18-24 Joer klëmmt dës Zuel op dräi vu véier jonken Erwuessenen, déi se notzen.

Dës KIe kënnen am Alldag eng grouss Hëllef sinn. Se si kapabel, komplex Computerprogrammer ze kodéieren, Texter an eng Villzuel vu Sproochen ze iwwersetzen, Kachrezepter, Texter oder Biller a Sekonnebrochdeeler ze generéieren. Awer firwat sollte se net kapabel sinn, eng reell vun enger gefälschter Informatioun ze ënnerscheeden, déi besonnesch a Sozialen Netzwierker am Ëmlaf sinn?

Haut sinn Engines wéi Grok oder Perplexity direkt op der Plattform X disponibel (1, 2) an erméiglechen et den Notzer, se ze bieden, Informatiounen ze iwwerpréiwen, déi a Bäiträg verëffentlecht goufen. D’Fro no der Veracitéit vun den Informatiounen, déi vun dëse verschiddene KI-Modeller affichéiert ginn, wërft Froen op. Kann ee sech bei der Iwwerpréiwung vun Informatioune wierklech op dës Outile verloossen?

D’Fro vun der zäitlecher Koherenz

Fir dass eng Informatioun sachlech ass, muss se op dem neiste Stand sinn.

Als Beispill: D’Äntwert op d’Fro “Wien ass de belsche Premierminister?” ass zum Zäitpunkt vun der Verëffentlechung vun dësem Artikel Bart De Wever. Dobäi ass hien eréischt zënter dem 3. Februar 2025 offiziell Premierminister. Eng Kënschtlech Intelligenz, déi Millioune vun Daten analyséiert huet, déi net op dem neiste Stand sinn, kéint op Grondlag vun den neisten Daten, déi analyséiert goufen, Nimm vu fréiere belsche Premierministeren erausspäizen.

Sou nennt Google Gemini (Versioun 2.0 Flash), ofgeruff de 14. Mäerz 2025, ouni Virbehalt: “Den aktuelle belsche Premierminister ass den Alexander De Croo”. Dobäi handelt et sech ëm de fréiere Premierminister vun der Partei Open Vld (Um. v. d. Red., flämesch liberal Partei), dee säin Amt un de Bart De Wever (N-VA, flämesch nationalistesch Partei) ofginn huet. En offensichtleche Feeler fir een, deen d’belsch Politik och just vu Wäitem suivéiert, deen awer z.B. fir een, deen am Ausland lieft, onbemierkt bleiwe kéint.

RTL © Screenshot

Op d’Aktualitéit vu sengen Informatiounen ugeschwat, huet de Modell vu Google säi Feeler zouginn an huet rektifizéiert: “Jo, Dir hutt Recht. Déi neist Informatioune weisen, dass et an der Belsch e Wiessel am Amt vum Premierminister ginn huet”, an nennt richtegerweis de Bart De Wever.

De KI-Assistent “Claude” vun Anthropic nennt sengersäits och den Alexander De Croo als belsche Premierminister. E stellt awer kloer: “Ech muss awer dorop hiweisen, dass mäi Wësse just bis Oktober 2024 geet, wann also säit dësem Zäitpunkt e Wiessel stattfonnt huet, kéint ech net doriwwer informéiert sinn.”

Méi rezent Modeller mat Internetverbindung

D’Fro vun der Datenaktualiséierung huet sech am Laf vun der Zäit verännert. Bei senger Aféierung Enn 2022 war ChatGPT net mam Internet verbonnen an hat dohier keen Zougrëff op Echtzäitdaten. Seng Datebank, säi Wëssen, goung just bis an d’Joer 2020.

Dohier war et an dëser éischter Versioun onméiglech, garantéiert “aktuell” Resultater ze kréien, wéi ee se iwwer eng Google-Sich, z.B. iwwer de Reider “News“, kréie konnt. D’Daten, déi fir den Training vun ChatGPT benotzt goufen, gounge bis e bestëmmten Datum, soudass ChatGPT net wousst, wat duerno geschitt ass.

RTL © Screenshot

Haut verfüügt déi berüümtst KI iwwer en Internetzougang. GPT-4 mini, deen a begrenztem Mooss gratis zougänglech ass, huet eng Wëssensdatebank, déi bis Juni 2024 geet. Allerdéngs kann dës Versioun vun elo u bei Bedarf an Echtzäit am Internet no Informatioune sichen an Online-Quellen affichéieren. Aus dësem Grond weist d’Virlag déi richteg Äntwert op eis Fro un, wou si de Bart De Wever als Premierminister nennt a sech dobäi op den aktuelle Wikipedia-Artikel vum De Wever stäipt.

D’Fro vum Zougang zu journalistesche Quellen

Fir op d’Requêtë no Elementer am Zesummenhang mat Noriichten oder aktuelle Resultater ze äntweren, gräife KIe fir déi breet Ëffentlechkeet op Ressourcen zeréck, déi se analyséiere konnten. D’Qualitéit vun den Informatiounen, déi dës Modeller an hiren Äntwerte liwweren, hänkt also vun der Qualitéit vun de gesammelten Informatiounen of.

Den Zougang zu qualitativ héichwäertegen Informatiounen ass an dësem Zesummenhang also e wichtege Punkt. Journalistesch Sujete sinn awer Contenuen, deenen hir Produktioun Zäit a Geld erfuerdert. Dohier si vill Medien net bereet, e gratis Zougang zu hire Contenuen ze ginn.

Doriwwer eraus féiere “konnektéiert” KI-Modeller, déi z.b. d’Sich no Artikelen erméiglechen, bis elo zu ganz wéinege Klicks op de verlinkte Säiten. Dat benodeelegt Medien, déi op dësen Trafic ugewise sinn, fir sech besonnesch duerch Online-Reklamm ze finanzéieren.

Eng schwiereg Positioun fir Medien

Am Dezember 2023 hat déi berüümt “New York Times” OpenAI, d’Entreprise hannert ChatGPT, verklot a beschëllegt, Millioune vun Artikele benotzt ze hunn, fir de grousse Sproochemodell ze trainéieren, mat deem den Chatbot gefiddert gëtt.

D’grouss Dageszeitung beschëllegt de Startup, Millioune vun Artikelen ouni iergendeng Autorisatioun oder Remuneratioun benotzt ze hunn, fir säi grousse Sproochemodell ze trainéieren. An der Plainte féiert d’New York Times eng Rëtsch Beispiller fir Äntwerte vun ChatGPT un, déi bal wiertlech aus Artikele vu Journaliste vun der New York Times stamen.

D’Zeitung fäert, dass de gratis Zougang zu hiren Informatiounen, déi eigentlech just fir hir Abonnenten accessibel sinn, hir Reechwäit am Internet beanträchtegen an hir Recettë méi kleng maache géif. D’New York Times huet vun OpenAI  “Milliarden Dollar Schuedenersatz” gefuerdert, awer och, dass déi mat hire Contenue gefiddert Modeller ofgeschalt solle ginn.

Aner Medienagencen hu sech dofir entscheet, Accorde mat KI-Acteuren ze ënnerschreiwen. Dat gëllt besonnesch fir déi grouss Norichtenagence AP (Associated Press), déi 2023 e Vertrag mat OpenAI ënnerschriwwen huet, fir hir Zougang zu hiren Archiven zënter 1985 ze ginn. Dëse Vertrag erlaabt et OpenAI zwar rechtlech, seng Modeller ze trainéieren a seng Datebank (seng LLM) ze erweideren, mee et erlaabt der Entreprise net, op Artikele vun der Agence an Echtzäit zeréckzegräifen.

Wéi ass d’Positioun vun der RTBF?

Wéi eng Rëtsch aner Medien huet och d’RTBF decidéiert, technesch Léisungen ze implementéieren, fir KI-Acteuren keen Zougrëff op hir Artikelen ze ginn.

“Souguer wa mir engem fräien Zougang zu eise Contenue ginn, entscheeden d’KI-Plattformen iwwer deenen hir Siichtbarkeet a Prioritéit an hiren Äntwerten. Se kontrolléiere schonn, wat fir Contenue si no onduerchsichtege Krittären ervirhiewen, wat hinnen eng erhieflech Muecht gëtt”, seet de Loic De Visscher, Chef vun der KI-Koordinatioun bei der RTBF.

“Ouni eng dauerhaft Finanzéierung vu gepréiften a qualitativ héichwäertegen Informatioune gëtt et keng Garantie dofir, dass dës zouverlässeg Contenue mëttel- a laangfristeg erhale bleiwen. E komplett Opmaachen ouni Reguléierung ass laangfristeg e Verloschtgeschäft: Et besteet d’Gefor, dass den eigentleche Wäert vun héichwäertege Contenuen no an no zerstéiert gëtt, andeem hire Geschäftsmodell net méi ze droen ass, wat schlussendlech de Wee fir Desinformatioun fräi mécht.”

De Risiko, Verzerrungen a Manipulatiounsversich ausgesat ze sinn

E weidere Problem, dee sech stellt, zënter KIe fir d’breet Ëffentlechkeet zougänglech gi sinn, ass d’Méiglechkeet, dass dës Kënschtlech Intelligenzen duerch d’Daten, déi d’Modeller, déi fir hiren Training agesat ginn, gespäichert hunn, Verzerrunge reproduzéieren, déi an der Gesellschaft virkommen.

Dës KI-Bias, och Machine-Learning-Bias oder Algorithmus-Bias genannt, bezéie sech op KI-Systemer, déi verzerrt Resultater liwweren, déi mënschlech Virurteeler an enger Gesellschaft wéi sozial oder rassistesch Ongläichheeten erëmspigelen oder oprechterhalen.

Wann d’Date Verzerrungen enthalen, kéint den Algorithmus dës also reproduzéieren an hinne gläichzäiteg Legitiméierung, also den Uschäi vun Objektivitéit, ginn. Tatsächlech wäerten Algorithmen d’Mierkmoler bevirzuchen, déi an hirer Datebank am heefegste virkommen, onofhängeg vun der Qualitéit vun der Quell oder der objektiver Representativitéit vun de Fakten.

KI-Chatbots sinn der russescher Propaganda ausgesat

Net zulescht aus dësem Grond versichen Desinformatiounsacteuren, den Internet ze iwwerfluten.

E vun der Firma “NewsGuard” duerchgeféierten Audit ergouf, dass déi zéng gréisst westlech generativ KI-Outilen an hiren Äntwerten op geziilt Froen iwwer de Krich an der Ukrain Desinformatiounselementer aus der russescher Propaganda agebaut hunn. Insgesamt hunn dës westlech KI-Outilen an 33 Prozent vun de Fäll falsch Behaaptungen aus dem kremlfrëndlechen Desinformatiounsnetzwierk “Pravda” iwwerholl.

KI, déi nei Manipulatiounswaff un der Desinformatiounsfront

Link fir bei den Artikel

“Andeem d’Netzwierk Resultater vun der Sich an Indexatiounsrobotere mat kremlfrëndlecher Desinformatioun iwwerschwemmt, verzerrt et d’Manéier, wéi grouss Sproochmusteren Noriichten an Informatioune verschaffen a presentéieren. D’Resultat: Am Joer 2024 goufen 3.600.000 Artikel an d’Resultater vu westleche KI-Systemer agebaut an infizéieren domat d’Äntwerte vun de Systemer mat falsche Behaaptungen a Propaganda”, sou NewsGuard.

Am Rapport steet, dass d’Effikassitéit vum Pravda-Netzwierk bei der Infiltréierung vun den Äntwerte vu KI-Chatbots op bewosst Strategië fir d’Sichmaschinnenoptiméierung (SEO) zeréckgeféiert ka ginn. An zwar, fir d’Siichtbarkeet vun hire Contenuen an de Resultater vun de Sichmaschinne kënschtlech ze erhéijen. Doduerch gi KI-Chatbots, déi sech dacks op ëffentlech zougänglech a vu Sichmaschinnen indexéierte Contenue stäipen, éischter op Contenue vu Pravda erstallt Internetsäiten zeréckgräifen.

Feeler bei Zouuerdnung vu Quellen a bei Beaarbechtung vun Noriichten

Wéi ugangs ernimmt, hunn nei KI-Chatbot-Modeller elo d’Méiglechkeet, an Echtzäit op den Internet zeréckzegräifen, fir do ze recherchéieren a méi aktuell Informatiounen ze sammelen.

Eng Etüd vun der Columbia University an den USA huet awer gewisen, dass dës KI-gestäipt Sichmaschinne bei der Sich no Informatiounen an der Reegel Problemer hunn an heiansdo versichen, spekulativ Äntwerten ze liwweren, obwuel se dës net hunn. Nach méi schlëmm: Generativ Sichmaschinne stellen heiansdo Verbindungen hier an zitéiere erëmverwäert oder kopéiert Versioune vun Artikelen, déi keng Originalquelle sinn.

D’BBC huet am Februar 2025 och eng Etüd doriwwer publizéiert, wéi ChatGPT, Copilot, Gemini a Perplexity hir journalistesch Contenuen an den Äntwerten integréieren a koum zur Konklusioun, dass “d’Äntwerten, déi vu KI-Assistenten erstallt goufen, erhieflech Ongenauegkeeten enthalen hunn an de Contenu vun der BBC verzerrt hunn”. Am Detail stellt de brittesche Staatsmedium fest, dass d’KI bei dëser Ëmfro 51 Prozent vun allen Äntwerten op aktuell Froen an iergendenger Form als relevant agestuuft huet. 19 Prozent vun den Äntwerte vun der KI, déi BBC-Contenuen zitéiert hunn, haten tatsächlech Feeler dran – a Bezuch op Aussoen, Zuelen oder Datumer. 13 Prozent vun den Zitater aus BBC-Artikele goufen entweeder am Verglach zu urspréngleche Quelle geännert oder hunn am zitéierten Artikel gefeelt.

Villsäiteg Chatbots

Schliisslech sinn déi meescht Outile villsäiteg asetzbar. Generativ Kënschtlech Intelligenze bidden d’Méiglechkeet, mat hinnen iwwer Sprooch an Text ze interagéieren. Se si kapabel, en Toun, eng Expressioun oder en Akzent ze erkennen. Se kënne sech och op de Verlaf vu fréiere Gespréicher mat Iech stäipen.

All Äntwert hänkt also potenziell vum jeeweilegen Notzer of, an dovun, wéi se formuléiert gëtt. De Risiko, “profiléiert” Informatiounen ze kréien, ass immens grouss. Ausserdeem sinn esou KIen an der Reegel immens héiflech. Wann ee se op méiglech Feeler opmierksam mécht, di se gemaach hunn, da sinn si séier bereet, sech ze entschëllegen a sech Äre Bemierkungen unzepassen, wéi an dëser Diskussioun iwwer d’Glafwierdegkeet vun enger gefälschter wëssenschaftlecher Etüd.

Vergiesst och net, dass déi meescht vun dësen Outile Warnungen op de jeeweilegen Internetsäiten affichéieren:

  • “**ChatGPT** kann och Feeler maachen. Iwwerpréift déi wichteg Informatiounen.”
  • “**Claude** ka Feeler maachen. Verséchert Iech, dass Dir seng Äntwerte verifiéiert.”
  • “Verifiéiert d’Fakten: Et ass méiglech, dass Grok vu selwem faktuell inkorrekt Informatioune liwwert, dass et schlecht zesummefaasst oder Contenu ausléisst. Iwwerpréift all d’Informatiounen op onofhängeg Manéier.”
  • Keng direkt visibel Warnung bei **Perplexitiy**. Op d’Zouverlässegkeet vun der Method ugeschwat, äntwert de System no enger Beschreiwung vu senge Fäegkeeten: “Perplexity ass net onfeelbar. Feeler kënnen optrieden, besonnesch opgrond vun der Komplexitéit vun de Froen oder der Qualitéit vun den disponibele Quellen. Et ass dohier recommandéiert, kritesch Informatiounen ëmmer duerch Consultatioun vun zitéierte Quellen oder duerch zousätzlech Recherchen ze iwwerpréiwen.”

Aus all dëse Grënn ass et zu dësem Moment potenziell geféierlech, engem KI-Chatbot, dee fir déi grouss Ëffentlechkeet zougänglech ass, bei der Iwwerpréiwung vun Informatiounen ze vill Vertrauen ze schenken. E klenge Rot, benotzt weider Äre kritesche Geescht, iwwerpréift d’Quellen a gläicht se of.

Dëse Faktencheck vun der RTBF gouf vun RTL op Lëtzebuergesch iwwersat.

Fact Checker Logo
Ursprénglech hei publizéiert.