Les hypertrucages, une vraie menace pour l’avenir du Canada

La création ou la diffusion d’informations fausses, trompeuses ou sensationnalistes est loin d’être une nouveauté : les premiers cas remontent au 15e siècleNote de bas de page 1,Note de bas de page 2. Cependant, en raison notamment d’une récente résurgence du nationalisme de droite, les « fausses nouvelles », en particulier la désinformation, sont jugées préoccupantes par le milieu universitaire comme par la populationNote de bas de page 3

La désinformation est la diffusion d’informations fausses délibérément trompeusesNote de bas de page 4: en plus d’être inexacte, elle vise à leurrer l’auditoire et à faire de sérieux dégâtsNote de bas de page 5. Internet et les médias sociaux augmentent la rapidité avec laquelle elle se propage et l’énorme influence qu’elle peut avoir. En outre, elle a actuellement un autre avantage sur ses formes plus anciennes : l’existence des hypertrucages. 

Les hypertrucages consistent à manipuler des contenus à l’aide d’outils de pointe faisant appel à l’intelligence artificielle (IA) pour modifier ou créer de toutes pièces des images, des voix, des vidéos ou des textesNote de bas de page 6. Ils peuvent être employés pour placer n’importe qui ou n’importe quoi dans une situation à laquelle il ou elle n’a jamais participé (une conversation, une activité, un lieu ou autre)Note de bas de page 7,Note de bas de page 8. L’IA permet de produire des textes (articles, billets de blogue et commentaires) qui peuvent être publiés rapidement en ligne parmi le contenu authentique, peu importe leur degré de véracitéNote de bas de page 9.

Si la technologie d’hypertrucage est aussi utilisée pour créer des contenus sains, divertissants et satiriques, les gouvernements doivent envisager les maux potentiels ou les menaces pour la sécurité publique qui y sont associés. Comme le démontre le présent article, les hypertrucages nécessitent l’attention et l’action des États démocratiques et de celles et ceux qui tiennent aux libertés et à la sécurité que procure la vie dans un tel État. 

Progrès de l’IA

Le Conseil du Trésor du Canada (CT) définit l’IA comme une technologie informatique qui effectue des tâches nécessitant habituellement l’intervention d’un cerveau biologique, comme comprendre la langue parlée, apprendre des comportements ou résoudre des problèmesNote de bas de page 10. Autrement dit, l’IA, c’est le fait pour un ordinateur d’accomplir des tâches actuellement réservées aux êtres humains, comme la reconnaissance vocale, la prise de décision, la reconnaissance d’objets ou la traduction d’une langue à une autreNote de bas de page 11,Note de bas de page 12.

Au cours des dernières années, l’IA a considérablement progressé dans sa capacité à réaliser ces « tâches humaines ». ChatGPT (openai.com) est un exemple éloquent de ces progrèsNote de bas de page 13. Le sigle « GPT » renvoie à « generative pre-trained transformer », qui signifie « transformateur génératif préentraîné », une locution qui désigne le type de modèle linguistique qui sert de moteur à ChatGPT. À la différence des robots conversationnels traditionnels, ChatGPT dialogue d’une façon semblable à celle des êtres humains : il produit des réponses adaptées au contexte et au ton du « dialogue » qu’il a avec les personnes qui l’utilisent. ChatGPT fournit aussi des réponses (habituellement) exactes aux questions posées par ces personnes, puisqu’il a été formé à partir de données tirées de l’InternetNote de bas de page 14

La synthèse d’images à partir d’invites textuelles est une autre avancée importante des contenus de synthèse : une personne entre des mots-clés que le modèle d’IA utilise pour créer une image uniqueNote de bas de page 15. Avec suffisamment de données d’entraînement et de nouvelles avancées, ces modèles pourront sans doute bientôt produire des images montrant des personnes existantes dans des scènes réalistes sur le plan visuel, mais complètement factices. 

L’IA a aussi réduit la vitesse à laquelle les tâches humaines sont généralement accomplies. Par exemple, des évaluations ont déterminé que le programme AlphaFold avait prédit avec exactitude les structures de plus de 200 millions de protéinesNote de bas de page 16, ce qui a fait faire un bond considérable à la recherche sur la probabilité et le traitement des maladies. Sans l’IA, il aurait fallu des années ou des décennies à la communauté scientifique pour parvenir au même résultatNote de bas de page 17

Menace pour l’avenir du Canada

En raison des progrès de l’IA, les hypertrucages deviennent rapidement de plus en plus réalistes, ce qui les rend plus difficiles à détecter et à signalerNote de bas de page 18. Les applications permettant de les créer sont aussi plus accessibles et moins techniquesNote de bas de page 19. Malgré cela, ils semblent méconnus ou mal compris et il y a une incapacité à les reconnaître ou à les détecterNote de bas de page 20

Compte tenu de ces facteurs, la question de savoir si la population canadienne devrait s’inquiéter des hypertrucages se pose. En réponse à cela, on peut réfléchir à une déclaration faite Maria Ressa, lauréate du prix Nobel de la paix : 

Sans les faits, il n’y a pas de vérité. Sans vérité, il n’y a pas de confiance. Sans confiance, il n’y a pas de réalité commune ni de démocratie, et il devient impossible de gérer les problèmes existentiels de notre mondeNote de bas de page 21,Note de bas de page 22.

Au bout du compte, il s’agit d’une question de faits. Si une société démocratique n’est pas capable de distinguer la réalité de la fiction, comment peut-elle survivre? Comment le Canada va-t-il fonctionner s’il y a des clivages dans la population en fonction des différents ensembles de faits non vérifiables auxquels elle croit? Si la désinformation est ingérable ou indétectable, comment le pays va-t-il élaborer des solutions à ces problèmes bien réels? Qu’est-ce que cela signifie pour les valeurs et pour le mode de vie canadiens? En outre, que se produit-il quand les hypertrucages sont utilisés à des fins malveillantes ou en vue de nuire au Canada et à ses alliés? 

Conséquences délétères de l’utilisation des hypertrucages

Les effets délétères des hypertrucages sont illustrés par des exemples récents. En janvier 2023, une jeune femme, Blaire, mieux connue sous le pseudonyme de QTCinderella pour ses vidéos diffusées en direct sur Twitch et son travail de youtubeuse, a découvert qu’un site d’hypertrucages pornographiques utilisait son visage et son apparence dans des vidéos pornographiques, avec ceux d’autres diffuseuses sur TwitchNote de bas de page 23. Un camarade diffuseur sur Twitch, Brandon Ewing, avait payé le site pour visionner ces films de Blaire et de ses comparsesNote de bas de page 24,,Note de bas de page 25.

En 2019, Rana Ayyub, journaliste d’enquête pour le Washington Post, a critiqué un parti politique indien parce qu’il protégeait le violeur d’une fillette de huit ansNote de bas de page 26. En représailles, une vidéo pornographique « hypertruquée » la mettant en scène a été produite et est devenue virale en 48 heures. Après la publication de cet hypertrucage, la jeune femme a reçu des menaces de mort, ainsi que des messages racistes et misogynes. Sans surprise, Mme Ayyub a complètement disparu des réseaux sociaux et a cessé ses reportages pendant un certain tempsNote de bas de page 27

Ces cas d’hypertrucages pornographiques ne sont pas rares. Plus de 90 % des hypertrucages visibles en ligne sont des vidéos pornographiques non consensuelles de femmes. En octobre 2022, 57 millions de résultats étaient répertoriés pour la recherche « deepfake porn » (hypertrucages pornographiques) sur Google seulementNote de bas de page 28. Les femmes sont presque toujours les cibles ou les objets non consentantes de ces vidéos et la législation actuelle n’offre pas aux victimes beaucoup de protection ni de possibilités d’obtenir justiceNote de bas de page 29,Note de bas de page 30.

Il convient de noter que tous les dommages imputables aux hypertrucages n’ont pas un caractère pornographique. Par exemple, des criminels ont utilisé à maintes reprises des hypertrucages d’Elon Musk pour organiser de prétendues distributions de cryptomonnaie, causant ainsi des pertes financières équivalant à des millions de dollarsNote de bas de page 31,Note de bas de page 32. Dans certains cas, des fraudeurs ont aussi recouru à des clonages de la voix de hauts dirigeants de banques et d’autres sociétés dont la valeur nette est élevéeNote de bas de page 33. Ils appelaient alors les bureaux de l’entreprise visée, se faisaient passer pour leur président-directeur général ou leur gestionnaire, et ordonnaient au personnel de transférer de l’argent à leur compte bancaireNote de bas de page 34,Note de bas de page 35.  

À cause de la pandémie de COVID-19, le monde s’est habitué à utiliser des services en ligne pour organiser des réunions, des entrevues ou des cours virtuels, par exempleNote de bas de page 36. Comme la technologie d’hypertrucage est de plus en plus largement disponible et accessible, il devient de plus en plus compliqué de vérifier la véritable identité des personnes qui apparaissent à l’écran. En 2022, le FBI a constaté que des criminels se servaient des hypertrucages au cours d’entretiens d’embauche virtuels pour des emplois à distance, quand il était probable que la société n’interagirait qu’en ligne avec la personne sélectionnéeNote de bas de page 37,Note de bas de page 38.

Autres considérations liées à l’IA

Il est évident que l’IA est un outil puissant, qui peut apporter des solutions à des problèmes et favoriser leur résolution. Cependant, elle peut aussi procurer à une personne ou à une organisation le pouvoir d’infliger des dommages considérables : 

  1. Atteintes à la confidentialité : Les systèmes d’IA peuvent collecter, traiter, analyser et entreposer des volumes colossaux de données. Si un de ces systèmes est piraté ou si une violation de sécurité se produit, ces données (qui peuvent comprendre les antécédents médicaux et les informations biographiques ou bancaires d’une personne) peuvent être aisément volées, manipulées ou utilisées à des fins d’extorsion au service d’objectifs malveillantsNote de bas de page 39,Note de bas de page 40,Note de bas de page 41
  2. Manipulation sociale : L’IA peut servir à suivre, à analyser et à prévoir les activités en ligne d’une personne, qui peut donc prêter le flanc à la manipulation ou être forcée de se livrer à des activités dont elle s’abstiendrait autrementNote de bas de page 42,Note de bas de page 43.
  3. Préjugés : Les systèmes d’IA sont conçus, fabriqués, entraînés et testés par des êtres humains, qui ont des préjugés implicites et explicites. Les décisions prises par ces systèmes peuvent donc refléter ces préjugés, au détriment de certains groupesNote de bas de page 44,Note de bas de page 45.

Prochaines étapes pour les gouvernements

On estime que 5 milliards de personnes dans le monde utilisent Internet ou y ont accèsNote de bas de page 46 et que 36 millions d’entre elles sont canadiennesNote de bas de page 47. Cela signifie qu’une part considérable de l’auditoire canadien et mondial a accès à la technologie reposant sur l’IA et à la désinformation qui y est associée, donc peut être influencée par celles-ci. 

Les hypertrucages et les autres technologies de pointe faisant appel à l’IA menacent la démocratie, car certains acteurs cherchent à exploiter l’incertitude ou à maintenir en vie des versions des « faits » fondées sur des informations falsifiées ou créées de toutes pièces. Ce problème sera exacerbé si les gouvernements ne sont pas capables de prouver que les contenus officiels sont réels et factuels. 

Les hypertrucages et les contenus de synthèse peuvent aussi faciliter des activités lourdes de conséquences sur les plans psychologique, économique ou de la réputationNote de bas de page 48,Note de bas de page 49. Comme indiqué plus haut, l’utilisation ou l’exploitation de systèmes d’IA peut favoriser des atteintes à la vie privée, des manipulations sociales ou des dommages liés aux préjugés inhérents à ces technologies. Il incombe aux gouvernements d’intervenir pour atténuer ces menaces qui pèsent sur leurs citoyennes et leurs citoyens. 

En effet, quelques-uns des experts les plus reconnus dans le domaine de l’IA (Yoshua Bengio, Elon Musk et Geoffrey Hinton) ont souligné les dangers que l’IA présente pour la populationNote de bas de page 50,Note de bas de page 51,Note de bas de page 52,Note de bas de page 53. M. Hinton a même démissionné de son poste à Google pour pouvoir communiquer plus librement sur le sujetNote de bas de page 54,Note de bas de page 55. Le degré de préoccupation exprimé par ces experts, associé aux impacts potentiels pour leurs citoyens, devrait pousser les gouvernements à s’attaquer à l’IA et à ces impacts.

Le Secrétariat du CT du Canada (SCT) a signifié que le gouvernement du Canada s’engageait à utiliser l’IA à l’appui de certains services fournis à la population ou pour les améliorer, de façon compatible avec les principes fondamentaux du droit administratif. Cet engagement est à la base de sa Directive sur la prise de décisions automatisée, qui « a pour objet de veiller à ce que les systèmes décisionnels automatisés soient déployés d’une manière qui permet de réduire les risques pour les clients, les institutions fédérales et la société canadienne, et qui donne lieu à une prise de décisions plus efficace, exacte et conforme, qui peut être interprétée en vertu du droit canadien »Note de bas de page 56

L’Initiative de citoyenneté numérique lancée par Patrimoine Canada est une autre mesure positive. Cette stratégie à plusieurs axes « […] soutient la démocratie et l’inclusion sociale au Canada [en renforçant] la résilience des citoyens face à la désinformation [et en établissant des partenariats qui favorisent un écosystème informationnel sain] ». Elle vise à aider la population et le gouvernement du Canada à mieux comprendre la désinformation et ses répercussions, afin de déterminer les mesures à prendre et de faciliter l’élaboration des futures politiquesNote de bas de page 57

Les capacités de l’IA continueront de progresser et d’évoluer. Le réalisme des contenus « hypertruqués » ou synthétiques va s’améliorer et le contenu généré par l’IA va devenir plus répandu. Cela signifie que les politiques, les directives et les initiatives gouvernementales (actuelles et futures) doivent progresser et évoluer au même rythme, notamment dans leur efficacité à cerner les contenus malveillants générés à l’aide de l’IA et à les distinguer de ceux qui sont positifs et utiles à la société.

Peut-être par nécessité, les gouvernements démocratiques sont notoirement lents à rédiger des politiques, des procédures ou des lois et à les faire appliquerNote de bas de page 58,Note de bas de page 59,Note de bas de page 60. À l’opposé, l’IA progresse et évolue vite. Si les gouvernements évaluent et combattent l’IA chacun de leur côté et à leur rythme habituel, leurs interventions seront rapidement obsolètes. Il est essentiel que les gouvernements partenaires et alliés, les universitaires et les experts de l’industrie collaborent pour garantir l’intégrité de l’information diffusée partout dans le monde et remédier aux utilisations néfastes de l’IA en pleine mutation.

Détails de la page

Date de modification :