Références
- « Tout Sexplique : Comment se protéger des deepfakes pornos ? », 20 minutes, 1er septembre 2023.
- « Bard et ChatGPT diffusent toujours autant de fake news, selon une étude », Les Echos, 11 août 2023.
- « Deepfakes et sextorsions… Des nouvelles formes d’arnaques fleurissent à l’ère de l’IA », 20 minutes, 19 juillet 2023.
- « Ne faites pas confiance à ChatGPT, il ment tout le temps », Numerama, 31 janvier 2023.
- « Intelligence artificielle : cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d’autres robots conversationnels », Franceinfo, 2 septembre 2023.
Pour aller plus loin
“Prolifération” des fermes de contenus dont le rédacteur en chef est une IA, Courrier international
QUIZ – Comment repérer une image générée par intelligence artificielle, France inter
« Vrai ou Fake » intelligence artificielle, danger, Franceinfo
Autres Articles
Le réchauffement climatique, victime des théories du complot
27.07.2023
Averroès, philosophe rationaliste
20.06.2023
Pacte de Médine, symbole de tolérance religieuse
30.06.2023
Avec le développement rapide et la démocratisation de l’intelligence artificielle, les deepfakes photo, vidéo et audio ont envahi Internet. L’an dernier, Chat GPT a révolutionné les chatbots. Toutes ces innovations sont pratiques et ouvrent de nouveaux horizons créatifs, mais elles peuvent aussi contribuer à la désinformation.
Les deepfakes : une arme pour diffuser des fake news
Le deepfakes est une technique de synthèse multimédia utilisant l’intelligence artificielle, elle peut permettre de créer des images, des vidéos ou des audios. La technologie repose sur l’apprentissage profond et sur l’intelligence artificielle. Elle permet par exemple de superposer une vidéo existante sur une autre vidéo pour changer le visage d’une personne sur une vidéo. Cette technique a d’abord été utilisée par l’industrie du cinéma pour vieillir ou rajeunir les acteurs. Depuis quelques années, cette technologie est devenu beaucoup plus accessible et a donné naissance a des milliers de vidéos parodiques réalisées par des amateurs.
Jusqu’à très récemment, les deepfakes vidéo péchaient au niveau de la voix qui était souvent peu convaincantes. Mais les deepfakes vocaux, la technologie qui permet de reproduire la voix d’une personne par exemple pour lui faire tenir des propos qu’elle n’a pas tenu, sont également de mieux en mieux maîtrisés. Si auparavant, les vidéos truquées ne parvenaient pas à duper le public, elles sont aujourd’hui très difficiles à repérer et c’est en général le contenu de la vidéo qui met la puce à l’oreille.
Si la majorité des utilisations de deepfakes est à but humoristique, des esprit malveillants s’en sont également emparés pour diffuser des fake news. En mars 2022, des hackers russes ont diffusé une vidéo montrant le président ukrainien Volodymyr Zelensky ordonner à ses soldats de déposer les armes. Ce deepfake a mis plusieurs dizaines de minutes à être démasqué.
Les deepfakes pornographiques : harcèlement et arnaque
Par ailleurs, une étude de l’association Deeptrace estime que 9 vidéos deepfake sur 10 sont des vidéos pornographiques1. De plus 99% des victimes sont des femmes. La youtubeuse Léna Situation a par exemple était victime d’un deepfake pornographique en août 2023. Ces vidéos truquées représente une atteinte à l’intégrité physique des victimes qui se retrouvent dénudées sur Internet sans leur consentement.
Les célébrité ne sont pas les seules a être victime des deepfake, la pratique se développe dans les collège et les lycées pour humilier des camarades. Ces pratiques génèrent du harcèlement qui peut avoir des conséquences dramatiques pour les victimes. La démocratisation de l’intelligence artificielle va aussi de paire avec la multiplication des arnaques utilisant cette technologie. La « sextorsion » utilise par exemple le deepfake pornographique pour extorquer de l’argent en menaçant de diffuser de fausses images intimes des victimes.
Les chatbots
L’an dernier la mise en ligne du chatbot Chat GPT a marqué un tournant dans le numérique. L’intelligence artificielle permet de générer des textes et de répondre aux questions des internautes en se fondant sur une large base de données. Cependant ces IA conversationnelles et génératives posent plusieurs problèmes.
D’abord, Chat GPT comme son concurrent Bard génèrent un grand nombre de fake news. NewsGard, entreprise spécialisé dans la lutte contre la désinformation, a révélé dans une étude que les deux IA étaient incapables de repérer de fausse information dans plus de 80% des cas2. Lorsqu’on leur demandait de rédiger un article à partir de fausses informations au lieu de les corriger, ils les reprenaient telles quelles.
De plus, l’IA ment avec énormément d’aplomb. Le journal Numérama a fait quelques test et a montré que l’IA de Chat GPT inventait des citations et des informations pour répondre aux questions des internautes. Par exemple, si on lui demande de citer cinq femmes qui ont été Première ministre en France, au lieu de préciser que seule deux femmes ont occupé cette fonction, il invente 3 autres noms.
L’autre menace en terme de désinformation est l’utilisation de ces IA génératives pour produire de un flux important de contenus de désinformation.
Faire preuve d’esprit critique pour mieux s’informer
Il existe quelques techniques pour repérer les contenus générés par l’intelligence artificielle. Pour les images par exemple, il faut observer les détails. Les mains sont en général mal reproduites, les cheveux et les poils trop soyeux et trop épais ou le grain de peau trop lisse. L’IA a encore du mal a reproduire les reflets donc les yeux manquent souvent de luminosité. Il fait également observer l’arrière plan qui est souvent trop flou, comporte des objets non-identifiés et en zoomant sur les textes, vous remarquerez qu’ils ne veulent souvent rien dire. En cas de doute, vous pouvez faire une recherche d’image inverser sur Google pour voire si l’image a été diffusée par des sources fiables. Pour les textes, l’IA fait encore de nombreuses répétions notamment dans ses tournures de phrase et utilise trop de connecteurs logiques.
La meilleure arme contre les deepfakes et les fake news diffusées par l’IA reste cependant de faire preuve d’esprit critique. D’abord, dès qu’une information semble absurde ou tout simplement étonnante, il faut prendre du recul et vérifier sa fiabilité en cherchant d’autres sources. De manière générale, il faut essayer le plus possible de multiplier ses sources d’information. Ensuite, il peut être pertinent de s’intéresser aux auteurs des informations en les recherchant sur Internet pour vérifier s’ils existent bien. Il faut également s’interroger sur leur motivation. Si un site ou un compte ne diffuse que des informations surprenantes non relayées par d’autres sources, il est probable qu’elles soient fausses.
Face à la démocratisation des ces nouveaux outils, il faut donc rester vigilant surtout lorsqu’il s’agit d’informations sensibles touchant par exemple à la politique ou à l’actualité internationale. Si on a le moindre doute, on ne relaye pas l’information pour éviter de contribuer soi-même à la propagation des fausses informations.