Élaborer des interventions solides et axées sur les droits de la personne face aux hypertrucages, aux contenus synthétiques et à l’intelligence artificielle générative audiovisuelle
Il y a d’importantes leçons à tirer d’un examen des risques, des menaces et des solutions possibles en matière d’hypertrucages, de contenus synthétiques et d’intelligence artificielle (IA) générative audiovisuelle sous l’angle des préoccupations civiles et citoyennes (notamment celles des défenseurs des droits de la personne et des journalistes). Dans le monde entier, ces personnes et ces communautés affrontent déjà des maux semblables à ceux qu’engendrent les contenus artificiels. Cependant, bien qu’elles soient les plus à risque, elles sont tenues à l’écart des décisions concernant ces nouvelles technologies.
Lancée en 2018, l’initiative « Prepare, Don’t Panic: Deepfakes and Synthetic Media » (Face aux hypertrucages et aux contenus synthétiques, ne paniquez pas, préparez-vous) de WITNESS vise à intervenir rapidement dans l’univers des contenus artificiels et met l’accent sur l’infrastructure technique, les nouveaux outils, la culture numérique et les aspects politiques et législatifs. Elle découle d’études approfondies, de consultations des membres du secteur concerné (au cours d’ateliers menés en Europe, en Afrique du SudNote de bas de page 146, au BrésilNote de bas de page 147, en Asie du Sud-EstNote de bas de page 148 et aux États-UnisNote de bas de page 149) et de nombreux ateliers et consultations en ligne dans toutes les régions du mondeNote de bas de page 150.
Menaces et risques du point de vue de la société civile
Lors des consultations menées par WITNESS durant les cinq dernières années, les acteurs de la société civile mentionnent inlassablement un certain nombre de maux tangibles et de risques associés aux contenus de synthèse. Ils soulignent invariablement que les femmes sont particulièrement sensibles aux menaces posées par les contenus artificiels parce que la technologie permet de nouvelles formes de violence sexiste.
Les contenus synthétiques, ou leur simple existence, permettent de nier toute implication et de discréditer des preuves pourtant solides en prétendant qu’elles sont fausses (on appelle cela « le dividende du menteur ») ou qu’aucun contenu n’est fiable (souvent pour décrédibiliser les journalistes, les militants et les organisations de la société civile dans leur ensemble, ainsi que le contenu digne de confiance qu’ils publient). Les participants à l’étude de WITNESS sont préoccupés à l’idée que ces affirmations (ou ces craintes) servent à justifier l’adoption de lois restreignant plus largement la liberté d’expression.
Les personnes interrogées soulignent constamment le risque que les contenus synthétiques alimentent la désinformation et incitent à la violence, notamment par les canaux actuels de propagation rapide, comme les applications de messagerie. Elles mentionnent aussi que ces contenus peuvent être exploités par des acteurs étrangers et nationaux contre des groupes et des communautés dont les membres sont déjà fragiles en raison de leur origine ethnique, de leur religion, de leur identité politique, de leur métier ou d’autres caractéristiques.
Les participants font généralement le lien entre ces dangers et les difficultés actuelles liées aux lacunes de la culture médiatique, au manque de ressources des journalistes et à l’accès restreint qu’ont les rouages essentiels de la société civile et les citoyens aux outils de détection et d’authentification.
Les participants aux ateliers organisés par WITNESS affirment que ces menaces s’ajoutent à celles que leurs propres gouvernements font actuellement peser sur la société civile et les citoyens en vue de restreindre l’espace alloué à la société civile, par exemple la diffusion de désinformation visant cette dernière, la surveillance et le harcèlement des journalistes et des défenseurs des droits de la personne, et les tentatives de rendre leurs activités illégales.
Au cours de l’année écoulée, étant donné l’accessibilité, la facilité d’utilisation et la capacité de personnalisation grandissantes des outils d’IA générative, davantage de personnes ont pu utiliser ces derniers. Elles ont ainsi pu imaginer (ou expérimenter) la façon dont ils pourraient les affecter. Ce changement a entraîné une réévaluation des risques et des méfaits potentiels de cette technologie.
Plus les participants ont testé les outils de production de contenu et pris conscience de leur facilité d’emploi pour créer des contenus individualisés, générer des variantes de ce contenu et synthétiser des images d’événements de la vie réelle (avec peu de données d’entrée), plus ils et elles évoquent régulièrement les difficultés découlant de l’invasion de l’écosystème informationnel par le contenu synthétique, étant donné le volume insuffisant de la vérification des faits, par exemple. Ils et elles placent ces constatations dans le contexte de situations critiques, comme les élections et les crises de santé publiqueNote de bas de page 151.
Principes de renforcement de la résilience civile
Pour ce qui est de renforcer la résilience civile face à la manipulation et à la synthèse à l’aide de l’IA, un certain nombre de principes essentiels peuvent être dégagés de cette étude.
Il faut prioriser : 1) les personnes du monde entier qui rencontrent des obstacles semblables; 2) les journalistes et les membres de la société civile qui œuvrent en faveur d’un écosystème informationnel fiable.
Pour intervenir face aux hypertrucages et aux contenus synthétiques, ainsi que face à la capacité de multiplication et à la facilité de création associées à l’IA générative audiovisuelle et à la technologie d’hypertrucage, il faut prêter attention à celles et ceux qui risquent le plus de faire l’objet d’attaques ciblées comme d’un travail plus vaste visant à saper la confiance dans le contenu essentiel. La plupart des communautés et des groupes concernés auront déjà été la cible de technologies plus anciennes. Par exemple, partout dans le monde, les femmes qui sont journalistes et qui font partie de la sphère publique sont agressées au moyen d’images de synthèse sexuelles non consensuelles, tandis que les défenseurs des droits de la personne et les journalistes d’investigation sont régulièrement accusés d’avoir falsifié leur documentation et leurs enquêtes.
De la même façon, les groupes en question sont déjà limités dans leur capacité de défense par des obstacles tout à fait concrets. Par exemple, les journalistes et le personnel électoral locaux ainsi que les personnalités politiques communautaires qui sont des femmes ou des membres déclarés de la communauté LGBTQI sont souvent pris pour cible, sous-financées et surchargés.
Éviter de sortir les contenus synthétiques de leur contexte, notamment historique.
Bien que les contenus synthétiques soient le fruit d’une nouvelle technologie, les menaces qu’ils représentent ne sont pas nouvelles. Comme indiqué ci-dessus, les mesures visant à lutter contre les menaces associées aux contenus artificiels et à tirer parti des possibilités qu’ils offrent devraient reposer sur l’expérience, surtout celle qu’ont acquise des populations vulnérables, des membres essentiels de la société civile et des intermédiaires au sein des médias. Les populations marginalisées savent comment la désinformation est utilisée contre elles, et les responsables des stratégies d’intervention communautaire et de la vérification des faits sont versés dans la lutte contre des formes plus traditionnelles de manipulation audio et vidéo (appelés « trucages simples »). Quant aux médias sociaux, ils sont déjà aux prises avec la gestion de la satire (pour laquelle les hypertrucages sont couramment employés) à l’échelle mondiale.
Responsabiliser résolument tous les maillons de la chaîne, y compris les acteurs qui conçoivent et qui mettent en service la technologie et ceux qui créent et distribuent du contenu synthétique (médias et médias sociaux).
Toute solution nécessitera la plus grande attention de tous les maillons de la chaîne de fabrication des contenus synthétiques, c’est-à-dire des acteurs à l’origine du modèle de base de l’IA générative et de la technologie connexe à ceux qui la mettent en service et qui distribuent des contenus synthétiques. Les interventions ne doivent pas imposer aux utilisateurs finaux de reconnaître les contenus synthétiques ou de révéler qu’ils emploient ces outils si les maillons de la chaîne de production de ces contenus ne sont pas tous imputables.
Par exemple, il n’est pas viable de tout miser sur une stratégie axée sur la culture médiatique qui vise à permettre à la population d’analyser une vidéo pour en déterminer la provenance. Ainsi, il est vain d’encourager les personnes qui voient une image sur leur fil d’actualité à essayer de repérer un défaut, comme une main tordue résultant du processus de synthèse, et de promouvoir de tels indicateurs. Ces derniers découlent de défaillances de l’algorithme auxquelles les progrès techniques remédieront rapidement.
Les gouvernements, les médias sociaux, les entreprises de technologie et les organes de presse ont tous un rôle à jouer dans l’élaboration de mécanismes (réglementation, politiques, fonctions, processus, etc.) qui permettent de lutter activement contre ces menaces sans faire porter la responsabilité du contenu uniquement à celles et ceux qui le créent ou qui le consomment, mais qui imputent une partie de la responsabilité (le cas échéant) aux intervenants en amont. Il est crucial d’établir une infrastructure technique, des normes, des politiques applicables aux plateformes du monde entier et des lois et des règlements qui soient axés sur les droits de la personne.
Les gouvernements et les législateurs peuvent soutenir un large éventail de solutions techniques et politiques qui aident à mettre en place des garde-fous clairs axés sur les droits de la personne, qui imposent le respect des droits et qui portent une attention particulière aux droits fondamentaux que sont la protection de la vie privée et la liberté d’expression.
Pour des citoyens numériques bien informés
Les solutions proposées ici sont dérivées des résultats de l’étude réalisée par WITNESS, et les considérations qui précèdent doivent être prises en compte dans leur application.
Bien qu’insuffisante, la culture médiatique et numérique est plus nécessaire que jamais.
Il est essentiel que la société et les gouvernements favorisent plus largement la culture médiatique dans leurs interventions. C’est d’autant plus vrai que l’utilisation de contenus de synthèse et d’hypertrucages en est encore à ses balbutiements et que les trucages simples (qui consistent à sortir un contenu de son contexte, à le modifier légèrement ou à y apposer une légende trompeuse) sont actuellement bien plus répandus que les contenus synthétiques.
Les techniques et les approches propres aux contenus synthétiques ne doivent pas être élaborées isolément de celles qui relèvent de la culture médiatique ou qui visent les trucages simples. Par exemple, il est possible d’appliquer à la culture médiatique dans son ensemble, aux trucages simples et aux hypertrucages l’approche SIFTNote de bas de page 152, dont les principes essentiels sont les suivants : Stop (Réfléchissez), Investigate the source (Renseignez-vous sur la source), Find alternative coverage (Trouvez d’autres informations sur le même sujet) et Trace the original context (Retrouvez le contexte d’origine). Les campagnes visant à renforcer la culture médiatique doivent s’inscrire dans le cadre plus général de la mésinformation et de la désinformation, afin de promouvoir un regard critique sur le contenu consommé en ligne. Elles ne doivent pas mettre l’accent sur les défauts techniques actuels, en particulier ceux de l’IA générative (comme le conseil bien connu — et maintenant caduc — selon lequel les visages remplacés par hypertrucage ne cligneraient pas des yeux), mais sur des principes plus généraux et sur l’utilisation d’outils de détection et d’authentification mieux adaptés au contexte, à mesure qu’ils seront disponibles.
Une des principales stratégies à envisager dans le cadre des campagnes axées sur la culture médiatique consiste à éviter d’ajouter à l’effervescence suscitée par l’IA générative et les contenus synthétiques, et à atténuer la capacité de ces derniers à ébranler la confiance dans le contenu numérique. Les dénonciations du genre : « C’est un hypertrucage! » et l’affirmation plus générale : « On ne peut plus se fier à rien, car tout peut être falsifié » sont de plus en plus répandues, surtout lorsqu’il est question des communautés vulnérables et des voix essentielles de la société civile. Ces campagnes devraient donc être soigneusement adaptées à l’envergure du problème et éviter les discours alarmistes qui l’aggravent.
Parallèlement aux stratégies de culture médiatique destinées au grand public, il est important de se concentrer sur la culture des médias eux-mêmes et sur l’apport des journalistes, afin que ceux-ci ne donnent pas de conseils simplistes axés sur des indicateurs visuels, ni ne contribuent au cycle de la panique instrumentalisé dans certains contextes contre des voix essentielles de la société.
Les outils de détection devraient être mis à la disposition de celles et ceux qui en ont le plus besoin.
Les outils de détection font partie de la solution. En règle générale, ceux qui existent actuellement ne sont pas fiables à grande échelle et il faut faire appel à un expert pour en évaluer les résultats. Dans un certain nombre de cas observés un peu partout dans le monde, l’emploi par le grand public des outils de détection disponibles en ligne a alimenté la confusion et renforcé le doute entourant des vidéos authentiques, au lieu de les dissiperNote de bas de page 153. À l’heure actuelle, cependant, il y a un manque criant d’initiatives visant à doter de moyens supplémentaires et d’outils utiles les journalistes et les responsables de la vérification des faits qui s’efforcent de discréditer les tromperies réalistes ou de démentir les allégations prétendant que les contenus multimédias journalistiques sont faux.
Dans ce contexte, l’accessibilité aux outils de détection ne se limite pas aux aspects techniques : il s’agit d’aider à comprendre comment utiliser efficacement les outils de détection et comment communiquer efficacement les résultats aux divers intervenants. Si les plateformes peuvent jouer un rôle dans la modération du contenu de synthèse, il ne faudrait pas qu’elles se contentent d’un processus automatisé de repérage sans nuances, à cause du manque de fiabilité des modèles actuels de détection. Il faut admettre non seulement que la plupart des contenus synthétiques servent la communication personnelle et n’ont pas de conséquence néfaste, mais aussi que les contenus combineront de plus en plus des éléments de synthèse et des éléments authentiques, ce dont les tentatives de détection devront tenir compte. Cependant, les plateformes pourraient fournir des marques qui aideraient tant les membres de la société civile que les médias qui font des analyses. Cette mesure viendrait en complément de la culture médiatique au sens large évoquée plus haut.
Même si la provenance vérifiable et les filigranes peuvent servir de marques favorisant une participation numérique éclairée, l’infrastructure et les outils nécessaires devraient être élaborés en tenant compte des droits de la personne et de l’accessibilité.
Un large éventail d’initiatives visent à étudier comment fournir des marques d’authenticité et de provenance aux consommateurs de contenus (par exemple, celles de la Coalition for Content Provenance and Authenticity, C2PA.org, et de la Content Authenticity Initiative, contentauthenticity.org). Plusieurs solutions ont été proposées pour incorporer des filigranes aux produits de l’IA, mais elles reposent toutes sur la participation et l’intégration de tous les maillons de la chaîne de responsabilité (comme indiqué plus haut), ce qui comprend les personnes et les organismes qui conçoivent le modèle de base et les outils, ainsi que les médias sociaux et les principaux organes de presse. Tous partagent la responsabilité primordiale de la transparence quant à la façon dont les contenus que voient les citoyens sont créés. L’adhésion des médias sociaux, des grands médias et des développeurs de modèles d’IA et d’outils est essentielle, car ces intervenants ont un rôle capital à jouer pour garantir que la provenance vérifiable ou les filigranes font partie du contenu audiovisuel ou y sont liés dès le début de son cycle de vie, mais aussi que leur clientèle et leur auditoire sont bien au courant de la nature du contenu qu’ils consomment.
Dans ce cadre, une des responsabilités fondamentales d’un gouvernement démocratique consiste à veiller à ce que ces technologies soient mises en service avec le souci de l’accessibilité et du respect de la vie privée, et réglementées quand c’est nécessaire. Le travail de WITNESS a fait ressortir un certain nombre de préoccupations pour les droits de la personne en lien avec les méthodes permettant de certifier l’authenticité et la provenance, d’insérer des filigranes et d’accroître la transparence. Il est notamment primordial que la provenance du contenu ne soit pas intrinsèquement ou systématiquement liée à l’identité d’une personne et il est également essentiel de garantir la participation des intervenants du monde entierNote de bas de page 154. Comme les développeurs de contenus synthétiques, les entreprises, les organisations et les gouvernements à l’origine des initiatives qui font la promotion de l’utilisation de marques de provenance et de filigranes ont la responsabilité d’évaluer la capacité de nuire de ces technologiesNote de bas de page 155.
Il manque encore de politiques adaptées au contexte et d’expertise locale dans la modération des contenus de synthèse à grande échelle, afin de lutter contre les menaces associées à ces contenus et de protéger la liberté d’expression.
Avec les contenus de synthèse, la quantité de contenus créés et diffusés en ligne augmentera. L’automatisation de la modération, notamment à l’aide de l’IA (outils de détection, ou marques de provenance et filigranes), sera un volet des interventions. Cependant, ces méthodes devraient être conçues avec les groupes visés et fondées sur les principes de respect des droits de la personne. En outre, il faudrait instaurer des processus clairs permettant d’intégrer les expériences et les experts locaux à la boucle de modération.
Il est capital de préserver la possibilité d’employer les contenus de synthèse à des fins satiriques et parodiques, comme c’est souvent le casNote de bas de page 156, tout en sachant bien qu’il s’agit d’une zone grise, dans laquelle il est facile d’enfumer l’auditoire en véhiculant des contenus néfastes ou malveillants sous le couvert de l’humour.
Détails de la page
- Date de modification :