Sommaire

Le présent rapport est fondé sur les opinions exprimées et les courts articles offerts par les conférenciers à l’occasion d’un atelier organisé par le Service canadien du renseignement de sécurité dans le cadre de son programme de liaison-recherche et de la collaboration avec les intervenants (LRCI) et la Direction de l’analyse et de l’exploitation des sources d’information (AXSI). Le présent rapport est diffusé pour nourrir les discussions. Il ne s’agit pas d’un document analytique et il ne représente la position officielle d’aucun des organismes participants. L’atelier s’est déroulé conformément à la règle de Chatham House; les intervenants ne sont donc pas cités, et les noms des conférenciers et des participants ne sont pas révélés.

Les menaces pour la sécurité et la démocratie qui sont associées à la désinformation sont jugées importantes et d’actualité, voire permanentes. Nés des progrès de l’intelligence artificielle (IA), les hypertrucages sont considérés comme une version moderne de la désinformation qui pose de nouvelles difficultés aux gouvernements, aux personnes et aux sociétés. Protéger l’intégrité de l’écosystème informationnel est primordial pour la démocratie, mais aussi pour l’ensemble de la société.

Progrès technologiques et applications utiles à la société

Le terme « hypertrucages » (traduction de l’anglais « deepfake », un mot-valise formé des équivalents de « apprentissage profond » et de « faux ») est maintenant utilisé plus largement pour désigner tout contenu mettant en scène des personnes qui a été produit ou modifié au moyen d’algorithmes d’apprentissage profond. La manipulation de vidéos, d’images, d’enregistrements sonores ou vocaux et la création de textes à l’aide de techniques d’IA générative ont rapidement évolué pour gagner en accessibilité et donner des résultats de plus en plus réalistes. À bien des égards, ces progrès ouvrent des possibilités excitantes : 

Menaces pour la société et pour la sécurité

Plus la capacité de synthétiser des contenus gagne en accessibilité et en précision, plus la probabilité de détournement augmente. L’une des grandes préoccupations associées aux hypertrucages est la possibilité de répandre de la désinformation et de manipuler le débat politique, ce qui est facteur de confusion, de méfiance et d’instabilité sociale dans les sociétés démocratiques. 

Il est plus probable que les hypertrucages fassent évoluer des activités liées à la menace pour la sécurité plutôt qu’ils en engendrent de nouvelles, mais il importe de comprendre les risques qui y sont associés et d’élaborer des solutions technologiques fiables, des lignes directrices sur le plan éthique et des mécanismes juridiques pour remédier aux problèmes qu’ils posent et en atténuer les conséquences.

Perspectives

Les hypertrucages sont conçus pour la tromperie et le cerveau humain n’est pas toujours capable de repérer les produits de technologies complexes. Bien que les géants technologiques aient commencé à signaler le contenu « hypertruqué » comme étant de la désinformation, les systèmes de détection qui font appel à la fois à des êtres humains et à des modèles de prédiction sont plus performants. Les gouvernements ont un rôle à jouer pour favoriser les utilisations des technologies d’hypertrucage qui profitent à la population et à la démocratie et qui les protègent, et les citoyennes et les citoyens ont la possibilité de se prémunir contre les hypertrucages et d’en préserver leur communauté. 

Il ne fait aucun doute que la technologie d’hypertrucage continuera d’évoluer rapidement pour produire des contenus de plus en plus réalistes, de façon de plus en plus efficace et de plus en plus économique. Le fait d’envisager les hypertrucages dans leur globalité permet d’adopter des approches complètes, en vue d’optimiser les avantages de ces nouvelles technologies tout en atténuant les risques pour la sécurité nationale et individuelle qui y sont associés, sans compromettre le droit à la vie privée, ni la confiance du public dans les médias et dans les sources d’information.

Détails de la page

Date de modification :