Un nouveau défi pour la démocratie : trouver des repères à l’ère de l’intelligence artificielle générative
L’humanité est à l’aube d’une nouvelle étape de l’évolution humaine, qui aura un effet profond sur la société et sur la démocratie. On pourrait l’appeler « l’ère de l’intelligence artificielle (IA) générative » : une époque où les relations humaines avec les machines modifieront la trame même de la société. Trouver des repères en cette période de changement considérable, avec toutes les possibilités qu’elle ouvre et tous les risques qu’elle engendre, sera l’un des plus grands défis du siècle pour la démocratie et pour la société.
Cela fait dix ans que les impacts d’une nouvelle forme d’IA, appelée « IA générative », sont étudiés. Le nom de cette nouvelle technologie donne un indice sur ce qui la rend si exceptionnelle : il s’agit d’un domaine nouveau de l’apprentissage automatique qui permet aux machines de générer, c’est-à-dire de créer de toutes pièces, des données, ou des choses.
Ces nouvelles données peuvent avoir pour support n’importe quel format numérique. L’IA générative peut synthétiser n’importe quoi : des sons, des images, des textes et des vidéos. En pratique, elle s’apparente à un moteur surpuissant pour toutes les informations et toutes les connaissances. Elle sera de plus en plus utilisée non seulement pour générer tous les contenus numériques, mais aussi comme outil d’automatisation dans la production de toute activité humaine intelligente et créative.
Imaginez un partenaire créatif capable d’écrire des histoires captivantes, de composer des musiques enchanteresses ou de concevoir des œuvres d’art visuel à couper le souffle. Maintenant, imaginez que ce partenaire est un modèle d’IA, c’est-à-dire un outil qui puise dans les vastes répertoires de connaissances humaines numérisées pour apprendre et qui affine constamment ses capacités à donner vie à nos rêves les plus ambitieux.
C’est ça, l’IA générative : une virtuose numérique qui appréhende les nuances de l’intelligence humaine et les utilise pour inventer quelque chose d’inédit et de saisissant, ou d’inédit et de terrifiant. Parce qu’elle exploite le potentiel des techniques d’apprentissage profond et des réseaux neuronaux, elle transcende la programmation traditionnelle. Elle permet donc aux machines de réfléchir, d’apprendre et de s’adapter comme jamais auparavant.
La révolution de l’IA est déjà en train de devenir un rouage essentiel de l’environnement numérique, mis en service harmonieusement dans l’infrastructure physique et numérique de l’Internet, des médias sociaux et des téléphones intelligents. Néanmoins, si l’IA générative fait partie du champ des possibles depuis moins d’une décennie, elle n’a basculé dans le domaine grand public qu’en novembre dernier, avec la sortie de l’application ChatGPT, un important modèle linguistique (c’est-à-dire un système d’IA capable d’interpréter et de générer du texte).
ChatGPT est maintenant l’application la plus populaire de tous les temps. Elle a atteint les 100 millions d’utilisateurs en deux mois et aujourd’hui, elle en compte 100 millions par mois en moyenne. Presque tout le monde a une histoire à raconter sur ChatGPT, des étudiants qui l’emploient pour rédiger leurs travaux aux médecins qui s’en servent pour résumer les notes sur leurs patients. Si l’IA générative suscite un très fort engouement, elle est en même temps source de préoccupations cruciales pour l’intégrité de l’information et elle pose la question de notre capacité collective à suivre la cadence du changement.
Des hypertrucages à l’IA générative
L’environnement numérique développé au cours des 30 dernières années (qui repose sur Internet, les médias sociaux et les téléphones intelligents) est devenu essentiel aux affaires, à la communication, à la géopolitique et à la vie quotidienne. Si le rêve utopique de l’ère de l’information s’est concrétisé, son sombre revers est aussi de plus en plus évident.
Cet environnement permet à des acteurs malveillants de se livrer à des opérations criminelles et politiques bien plus efficacement qu’avant et en toute impunité. En 2023, les coûts mondiaux associés à la cybercriminalité devraient atteindre 10 000 milliards de dollars canadiens. Si l’on comparait son poids à celui des pays les plus performants sur le plan économique, la cybercriminalité se classerait au troisième rang, après les États-Unis et la Chine.
Cependant, les acteurs malveillants ne sont pas les seuls à causer du tort à cet environnement. À eux seuls, le volume d’information à traiter et l’incapacité des êtres humains à l’interpréter peuvent aussi avoir des effets délétères. Ce phénomène est appelé « censure par le bruit » : il se passe tellement de choses qu’il est impossible de repérer ou de choisir les messages auxquels prêter attention.
Tout cela était bien présent à l’esprit des observateurs quand les premiers contenus produits par l’IA sont apparus, en 2017. Au fur et à mesure que la possibilité d’utiliser l’IA pour générer des données inédites a gagné en viabilité, ses adeptes les plus enthousiastes ont commencé à employer cette technologie pour créer des « hypertrucages ». Ce terme désigne aujourd’hui un contenu synthétisé au moyen de l’IA qui met en scène une personne disant ou faisant quelque chose qu’elle n’a jamais dit ou fait. Même si la scène a été créée de toutes pièces, elle paraît réelle à l’œil et à l’oreille.
La capacité pour l’IA de cloner l’identité des gens, mais surtout de générer des contenus artificiels sur toutes formes de contenu numérique (vidéo, audio, texte et image) est révolutionnaire, et pas seulement parce que l’IA est employée pour concevoir de faux contenus : les ramifications de cette innovation vont bien plus loin. Selon ce nouveau paradigme, l’IA sera utilisée dans la production de toutes les formes d’informations.
Intégrité de l’information et risque existentiel
Dans l’ouvrage Deepfakes: The Coming Infocalypse, paru en 2020, l’idée était avancée que l’arrivée de contenu généré par l’IA allait présenter des risques graves et existentiels, non seulement pour les personnes et les entreprises, mais pour la démocratie même. En effet, depuis la publication de ce livre il y a trois ans, les gens ont commencé à être exposés « dans leur milieu naturel » à d’importants volumes de contenu produit par l’IA.
Au début de l’année 2022, au commencement de l’invasion de l’Ukraine par la Russie, une vidéo « hypertruquée » du président ukrainien, M. Zelensky, pressant son armée de se rendre est apparue sur les médias sociaux. Si ce message avait été publié à un moment crucial de la résistance ukrainienne, il aurait pu avoir des effets dévastateurs. Bien qu’il ait été rapidement démenti, cet exemple d’utilisation offensive de contenus artificiels est annonciateur de ce qui nous attend.
En 2021, d’après la Commission fédérale du commerce des États-Unis, les fraudes par usurpation d’identité faisant appel à des hypertrucages, comme celle qui a permis à des voleurs dans le domaine des cryptomonnaies de se faire passer pour le président-directeur général de Tesla, Elon Musk, ont rapporté plus de 2,3 millions de dollars canadiens en six mois. Pendant ce temps, un nouveau type d’arnaque (appelé « fraude fantôme »), par laquelle des fraudeurs utilisent des identités « hypertruquées » pour accumuler des dettes et blanchir de l’argent, a déjà causé pour environ 4,5 milliards de dollars canadiens de pertes.
Le problème n’est pas juste que n’importe qui peut être victime d’une attaque par hypertrucage. Globalement, la prolifération de contenus générés par l’IA a un impact profond sur la confiance numérique. La santé de l’écosystème informationnel était préoccupante avant l’arrivée de l’IA, mais si tout ce que les gens consommaient en ligne (soit la majeure partie de la nourriture intellectuelle humaine) pouvait être produit par l’IA, quelles incidences cela aurait-il sur la démocratie, et sur la société dans son ensemble? Comment savoir en quoi avoir confiance? Comment faire la différence entre contenu authentique et contenu synthétique?
Protéger l’intégrité de l’écosystème informationnel est une priorité cruciale pour la démocratie, mais aussi pour l’ensemble de la société. Non seulement l’IA peut tout imiter, mais elle peut désormais générer n’importe quel contenu numérique, ce qui signifie que tout contenu authentique (par exemple, une vidéo révélant des violations des droits de la personne ou montrant une personnalité politique accepter un pot-de-vin) peut être dénoncé comme un faux, ou un produit de l’IA : ce phénomène a été baptisé « le dividende du menteur ».
Le risque principal pour la démocratie est un avenir dans lequel l’IA serait utilisée pour générer toutes les informations et toutes les connaissances, ce qui saperait la foi dans l’information numérique. Cependant, la démocratie (comme la société) ne peut pas fonctionner sans un médium d’information et de communication en qui tout le monde ait confiance. Alors que l’IA devient partie intégrante de cet écosystème, il est donc vital pour la société de défendre avec sérieux l’intégrité de l’information.
Solutions : authentification de l’information
Il existe des moyens techniques et sociaux d’y parvenir. L’une des approches les plus prometteuses est l’authentification des contenus. Au lieu d’essayer de détecter tout ce qui est produit par l’IA (ce qui sera vain si l’IA est utilisée pour générer toutes les informations à l’avenir), le dispositif d’authentification est enchâssé dans la trame même d’Internet. Cela pourrait être fait avec un marqueur cryptographique, afin que l’origine et le mode création d’un contenu (fabrication par l’IA ou non) puissent toujours être vérifiés. Ce type de cryptographie est incrusté dans l’ADN du contenu, alors c’est plus qu’un filigrane : il en fait partie intégrante, il ne peut être ni retiré, ni imité.
Cependant, le simple fait de « signer » ainsi le contenu ne suffit pas. La société doit aussi adopter une norme ouverte permettant à cet ADN ou à cette marque d’authentification d’être vue chaque fois que les gens échangent des contenus pour dialoguer sur Internet, que ce soit par courriel, sur YouTube ou sur les réseaux sociaux. Une telle norme ouverte est déjà en cours d’élaboration par la Coalition for Content Provenance and Authenticity (C2PA, voir C2PA.org), une organisation sans but lucratif qui s’intéresse à la provenance et à l’authentification du contenu, dont sont membres la BBC, Microsoft, Adobe et Intel.
En somme, cette approche mise sur la transparence fondamentale de l’information. Au lieu d’essayer de déterminer la vérité (une quête insensée), elle vise à permettre à tout le monde de prendre ses décisions sur la fiabilité des informations en fonction du contexte. Tout comme nous avons besoin de la liste des ingrédients composant nos aliments, la société a besoin d’une infrastructure numérique qui permette à ses membres d’évaluer l’information en ligne dont découlent quasiment toutes les décisions qu’ils prennent et d’en jauger la fiabilité.
Résilience de la société
Néanmoins, il est impossible de relever ce défi à l’aide de la seule technologie. La collectivité peut se doter d’outils pour signer les contenus et d’une norme ouverte pour vérifier l’information partout sur Internet, mais le plus difficile est de comprendre que l’humanité est à l’aube d’un monde très différent, où des progrès technologiques exponentiels vont modifier la trame même de la société. Cela signifie qu’il faut revoir les anciennes façons de réfléchir. Nos systèmes analogiques sont maintenant obsolètes. Il convient de repenser ce qu’implique le fait d’être citoyen dans une démocratie dynamique et pour cela, il faut d’abord appréhender cette nécessité. Au fond, ce n’est pas une question de technologie, mais d’humanité.
Bien que les dernières avancées de l’IA aient engendré des débats sur l’avènement de l’intelligence artificielle générale (le stade auquel les machines prendront le pouvoir parce qu’elles seront plus intelligentes que les personnes), la société n’en est pas (encore) là. Les êtres humains ont toujours la possibilité de décider comment intégrer l’IA à la société et c’est leur responsabilité. À titre de démocratie, ce défi est l’un des plus importants de notre époque, alors ne gâchons pas notre chance de le relever.
Détails de la page
- Date de modification :