En début de semaine, des publicités sont apparues sur YouTube, dans lesquelles le Premier ministre et le ministre des Affaires étrangères luxembourgeois semblaient appeler à investir dans des projets douteux.
Nous précisons d’emblée qu’il s’agit bien entendu de fausses publicités et que ni le Premier ministre Luc Frieden ni Xavier Bettel ne sont responsables de ces contenus.
Contacté par RTL, le ministère d’Etat a fait savoir mardi que les démarches nécessaires avaient été entreprises. Il a été confirmé par écrit à RTL que: “le ministère d’Etat a effectué une dénonciation auprès du Procureur d’Etat.” A la date de ce jeudi 14 décembre à 10h00, le parquet n’avait encore rien reçu, selon son porte-parole.
De quoi s’agit-il précisément?
Lundi, un utilisateur de RTL nous a envoyé une capture d’écran d’une publicité sur YouTube, où l’on voyait Luc Frieden, ainsi qu’une vidéo d’une publicité où l’on entendait Xavier Bettel parler en allemand.
Dans la vidéo, où on voit Luc Frieden, on entend une personne parler en allemand. On remarque relativement vite qu’il y a quelque-chose qui ne va pas.
C’est différent pour la vidéo dans laquelle apparaît Xavier Bettel.
Source: Screen record vun engem RTL-User
En écoutant attentivement, il semble que Xavier Bettel dit quelque-chose en allemand. Il s’agit cependant de phrases que le ministre libéral n’a jamais prononcées ainsi. Dans la vidéo, on peut également voir au premier regard que les mouvements de ses lèvres ne correspondent pas au texte.
En quoi est-ce problématique?
Dans ce cas, la majorité des usagers se rendent rapidement compte que ce n’est pas vrai, que c’est une falsification. Mais ces exemples montrent ce qu’il est déjà possible de faire aujourd’hui et surtout ce qu’il sera possible de faire demain avec l’intelligence artificielle. Si la langue luxembourgeoise constitue encore aujourd’hui une barrière à de telles arnaques, cette barrière disparaîtra également à l’avenir et il deviendra de plus en plus difficile pour l’utilisateur de distinguer la réalité de la fiction.
Comment procède-t-on pour imiter une voix?
Une voix peut être clonée avec l’aide de l’intelligence artificielle. Cela signifie concrètement qu’un programme reçoit des données audio de la personne qui doit être imitée. Avec ce qu’on appelle le Text-to-Speech ou conversion de texte par synthèse vocale, tout peut être mis dans la bouche d’une personne, y compris des phrases ou des déclarations qu’elle n’a jamais prononcées auparavant.
Microsoft a développé Vall-E. Ce programme n’a besoin que de quelques phrases d’une personne pour l’imiter. Plus l’intelligence artificielle peut écouter de données audio, plus elle peut s’entraîner, plus elle s’améliore.
© AFP
Que dit YouTube à propos de ces publicités?
YouTube fait désormais partie de Google. Un porte-parole de Google a expliqué à RTL que de tels contenus enfreignent les règles, que tout est fait pour empêcher la désinformation. Ces contenus sont détectés et supprimés par des moyens techniques, ainsi que par des personnes qui, si des choses sont signalées, les analysent et, si nécessaire, les suppriment.
Au deuxième trimestre 2023, YouTube a supprimé 78.000 vidéos en raison de fausses informations. 963.000 autres contenus ont été supprimés parce qu’ils constituaient des spams ou tentaient de tromper les gens par le biais de telles vidéos.