La désinformation électorale à l’heure de l’intelligence artificielle générative

Par Jean De Meyere

Doctorant, UCLouvain, Chercheur, CiTiP, KU Leuven

Blog
Intelligence artificielle
Vote
Glen Carrie
Le déploiement des systèmes d’IA générative fait craindre une augmentation des campagnes de désinformation notamment à des fins électorales. Le Règlement européen sur les services numériques pourrait permettre de limiter certaines de ces pratiques.

L’Initiative IA + Société est ravie de continuer à amplifier les voix des chercheurs émergents du monde entier grâce à notre série de blogues bilingues « Voix émergentes mondiales en IA et société » qui font suite aux ateliers mondiales des jeunes chercheurs en IA et la régulation et de la conférence Shaping AI for Just Futures. Cette série met en avant les recherches innovantes présentées lors de ces événements – et au-delà – afin de faciliter le partage des connaissances et d’engager un réseau mondial dans un dialogue interdisciplinaire constructif.

Le blog suivant a été écrit par Jean De Meyere qui a été sélectionné par un comité international pour présenter son affiche « AI as a systemic risk under article 34 of the DSA – the case of electoral dis-/misinformation » dans le cadre de la session d’affiche de la conférence Shaping AI for Just Futures.

La désinformation électorale à l’heure de l’intelligence artificielle générative

Avec de nombreuses élections à travers le monde, l’année 2024 apparaît comme particulièrement propice à l’émergence de campagnes de désinformation.  La diversification des outils d’IA générative fait craindre un renforcement du phénomène.

Le Règlement sur les services numériques (Digital Services Act) de l'Union européenne (UE) oblige les grandes plateformes à atténuer ces risques, également en ce qui concerne les processus électoraux. L'IA peut produire des contenus trompeurs et créer de faux profils, compliquant la modération et menaçant la crédibilité en ligne, posant également des risques pour la liberté d'expression.

Elections, IA et désinformation

L'année 2024 revêt une importance particulière pour de nombreux régimes démocratiques dans le monde. En effet, près d'un quart de la population mondiale est appelée à voter. Parmi les scrutins prévus figurent les élections présidentielles aux États-Unis et les élections européennes au sein de l'UE, qui coïncideront parfois avec des élections nationales, comme en Belgique ou en Autriche. Au-delà de la sphère occidentale, des pays tels que l'Inde, le Bangladesh et l'Afrique du Sud procèdent au renouvellement de leurs parlements nationaux. Ces élections sont toutefois assombries par la menace de la désinformation. Plus qu'une simple inquiétude, les dangers associés à la désinformation pendant les périodes électorales sont concrets, comme en témoignent les événements du 6 janvier 2022 à Washington DC et leur réplique à Brasilia un an plus tard.

L'arrivée des outils d’intelligence artificielle générative, par exemple avec l’ouverture au public de ChatGPT en novembre 2022, a attiré l’attention sur de nouveaux risques liés à la désinformation. Parallèlement, en décembre 2022, l'Union Européenne a adopté le Règlement sur les services numériques. Les articles 34 et 35 de ce règlement imposent aux très grandes plateformes (« very large online platforms », ci-après VLOPs) de réaliser des analyses de risques et de mettre en œuvre des mesures pour les atténuer. L'article couvre « tout risque systémique au sein de l’Union » et comprend spécifiquement « tout effet négatif réel ou prévisible sur le discours civique, [et] les processus électoraux (…) ». Ces débats sur la régulation de la désinformation et les risques qu'elle engendre accentuent les préoccupations concernant les pratiques de modération des plateformes en ligne et le respect des droits fondamentaux de leurs utilisateurs, y compris leur liberté d’expression.

Dans ma recherche, je réfléchis aux risques associés à l'utilisation de l'intelligence artificielle en matière de désinformation pendant les périodes électorales et aux conséquences potentiellement négatives pour les sociétés démocratiques. Je me concentre ici plus particulièrement sur deux applications possibles de l'IA en lien avec la désinformation :

  1. La production de contenus trompeurs : L'utilisation de l'IA générative pour produire des contenus destinés à désinformer, qu'ils soient sous forme de vidéo, d'audio, d'image ou de texte.
  2. La création de faux profils : L'emploi de l'IA générative pour créer de faux profils utilisés pour propager la désinformation sur les plateformes en ligne.

Des risques concrets

Concernant le premier point, malgré l'existence de filtres dans les applications grand public visant à prévenir la création de contenus trompeurs potentiellement dangereux (comme ceux contenant de la violence), il est encore relativement facile pour un utilisateur expérimenté de générer de faux contenus visant à tromper les gens grâce à l'intelligence artificielle. C'est le cas notamment des deepfakes, ces vidéos qui imitent des personnes, souvent dans le but de nuire à leur réputation ou crédibilité. Des figures politiques telles que Joe Biden ou Barack Obama ont été ciblées par de tels détournements d'image à des fins électoralistes. Lors de la récente campagne présidentielle en Argentine, les deux camps ont eu recours à ces deepfakes. La désinformation générée par l'IA peut non seulement être produite à une échelle et une vitesse accrues, mais elle peut également être d’une qualité supérieure à celle créée par les humains. De plus, la résurgence de ces contenus générés par ordinateur crée un climat général de doute : incapable de distinguer le vrai du faux, toute source en ligne pourrait être considérée comme potentiellement trompeuse.

Deuxièmement, l'utilisation de l'IA pour créer de faux profils en ligne (appelés social bots) qui sont ensuite employés pour propager des campagnes de désinformation en ligne engendre des risques supplémentaires qui doivent être pris en considération par les plateformes en ligne. Ces bots peuvent diffuser du contenu rapidement, parfois en manipulant les algorithmes des plateformes. L'usage de l'IA permet de conférer à ces bots sociaux une apparence plus authentique et un comportement plus « humain », ce qui peut compliquer la détection de leur caractère inauthentique par les plateformes. Ce phénomène semble déjà être largement répandu, ce qui est préoccupant. En effet, des faux « influenceurs » créés par IA ont déjà été repérés sur TikTok, certains comptes étant suivis par plus de trente mille utilisateurs. Bien que ces comptes soient principalement exploités pour susciter de l'engagement et générer des profits, ils pourraient également servir à diffuser des campagnes de désinformation. De plus, la confusion entre comptes authentiques et faux pourrait réduire la crédibilité globale de l'information en ligne.

Ainsi, l'utilisation de l'intelligence artificielle générative constitue un risque systémique, selon l'article 34 du Règlement, pour plusieurs motifs. Les grandes plateformes en ligne devraient donc prendre des mesures spécifiques afin d’atténuer les risques qui y sont liés.

Récemment, la Commission Européenne a publié ses recommandations pour les VLOPs en période électorale. Une partie de ces mesures concerne spécifiquement l’IA générative. Reste à voir quel aura été l’impact concret de ces mesures sur les récentes élections.  

Ressources clés pour en savoir plus

Strowel, Alain et De Meyere, Jean (1 juin 2023). The Digital Services Act: transparency as an efficient tool to curb the spread of disinformation on online platforms?, JIPITEC, 14:1.

Bontridder, Noémi et Poullet, Yves (2021). The Role of Artificial Intelligence in Disinformation, Data & Policy, 3.

Vaccari, Cristian et Chadwick, Andrew (19 février 2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News, Social media and society, 6:1.

Spitale, Giovanni, Biller-Andorno, Nikola et Germani, Federico (28 juin 2023). AI model GPT-3 (dis)informs us better than humans, Science Advances, 9:26.

Hajli, Nick, Saeed, Usman, Tajvidi, Mina, et Shirazi, Farid  (30 octobre 2021). Social Bots and the Spread of Disinformation in Social Media: The Challenges of Artificial Intelligence, British Journal of Management, 33:3, 1238.

À propos de l’auteur

Jean De Meyere est titulaire d'un Master en Droit de l'UCLouvain où il a rédigé son mémoire de fin d'études sur la protection du consommateur numérique. Il travaille comme chercheur doctoral au CiTiP de la KU Leuven, impliqué dans le projet Horizon 2020 MANOLO consacré à l’intelligence artificielle. Il prépare une thèse sur la régulation de la désinformation en ligne dans l'UE à l'UCLouvain, sous la supervision du Pr. Alain Strowel.

 

Ce contenu est fourni par l'Initiative IA + Société afin d’amplifier les conversations et la recherche autour des implications éthiques, juridiques et sociétales de l'intelligence artificielle. Les opinions et les erreurs sont celles des auteur(e)s et non celles de l'Initiative IA + Société, du Centre de recherche en droit, technologie et société, ou de l'Université d'Ottawa.