Ce que nous avons entendu : Sécurité en Ligne Autochtones

Préparé pour :
le ministère du Patrimoine canadien

Préparé par :
Archipel Research & Consulting Inc.

Les personnes suivantes d'Archipel Research & Consulting Inc. ont contribué à la rédaction de ce rapport :

Sophia Bain - Chercheuse associée
Graham Paradis - Métis - Chercheur associé et animateur
Catherine Stockall - Chercheuse associée

Nous sommes également reconnaissants à l'aîné Eddie Gardner (Première nation Sqwá - conseiller, terres et ressources) pour les conseils qu'il nous a prodigués tout au long de cette recherche.

Avertissement de contenu

Le rapport suivant contient des informations qui peuvent être préjudiciables ou déclencher des réactions chez certains lecteurs, y compris des mentions d’agression sexuelle, d’automutilation, de maltraitance d’enfants et de racisme.

Sur cette page

Introduction

Ce bref rapport a été élaboré par Archipel Research and Consulting Inc. en collaboration avec le ministère du Patrimoine canadien (PCH) afin de résumer ce qui a été entendu dans le cadre d’un processus de consultation avec 25 Autochtones provenant de diverses parties de ce que nous appelons aujourd’hui le Canada relativement aux préjudices auxquels ils font face en ligne. Ce processus de consultation a été entrepris afin de fournir des conseils et des commentaires à PCH pour l’élaboration d’une loi qui intègre une approche fondée sur le risque en matière de sécurité en ligne ancrée dans l’obligation d’agir de façon responsable.

Ce rapport présente un résumé d’un groupe de discussion ainsi que des entrevues individuelles avec des Autochtones qui travaillent avec des victimes et des groupes de défense des droits des Autochtones ou qui étaient eux-mêmes des Autochtones ayant subi des préjudices en ligne. Ce rapport commence par un aperçu de la méthodologie, du processus de recrutement, du protocole d’analyse et du contexte du projet. Il fournit ensuite un résumé des préoccupations soulevées par les participants concernant spécifiquement la nécessité d’une approche axée sur les Autochtones, les plateformes les plus préjudiciables, la priorité de protéger les plus vulnérables, l’identification et l’atténuation des préjudices potentiels, l’organisme de réglementation de la sécurité en ligne, les engagements de ne pas troubler l’ordre public, les crimes haineux et les discours haineux. Chacun de ces sujets est examiné dans la section des principales constatations ci-dessous. Enfin, le présent rapport contient une brève section de recommandations qui fournit une ligne directrice sur la façon dont PCH devrait intégrer les commentaires recueillis dans le cadre du processus de consultation.

Méthodologie

L’approche adoptée pour la prise de contact, les groupes de discussion, les entrevues et l’analyse de la rétroaction a accordé la priorité aux méthodologies de recherche autochtones. Le principe directeur utilisé incluait la priorisation de l’Etuaptmumk. Fondée par les Aînés Mi’kmaq Murdena et Albert Marshall, l’Etuaptmumk est une méthodologie et un cadre mi’kmaq aussi connu sous le nom d’« approche à double perspective ». L’approche à double perspective peut être expliquée comme apprendre à voir les forces de deux yeux comme un tout, où un œil représente les manières eurocentriques de savoir et l’autre œil représente les façons autochtones de savoir. Cette approche consiste à commencer par les méthodes autochtones d’apprentissage et de connaissance et de les combiner avec les modes de connaissance eurocentriques et académiques, en utilisant les deux au bénéfice de tous (Bartlett et coll., 2012). De leur travail considérable avec l’intégration de l’approche à double perspective, les Aînés Murdena et Albert Marshall ont développé huit leçons :

  1. Reconnaître que nous avons besoin les uns des autres et que nous devons entreprendre un voyage de co-apprentissage
  2. Être guidé par l’approche à double perspective
  3. Voir la « science » de manière inclusive
  4. Faire les choses (plutôt que de « simplement parler ») de manière créative et évolutive
  5. Devenir capable de mettre nos valeurs, nos actions et nos connaissances devant nous, comme un objet, pour examen et discussion
  6. Utiliser des éléments visuels
  7. Faire le va-et-vient entre nos visions du monde
  8. Mettre sur pied un conseil consultatif composé d’intervenants désireux et bien informés, qui s’appuiera sur des personnes provenant des établissements d’enseignement et des communautés autochtones (Bartlett et coll., 2012).

L’approche à double perspective n’est pas la fusion de points de vue différents ni l’ajout de petits éléments sélectifs du savoir autochtone dans les institutions occidentales. Au lieu de cela, l’approche à double perspective est un « va-et-vient entre les connaissances dans lequel chaque brin est nécessaire au processus » (Iwama et coll., 2009, 5). Aux fins de ce projet, l’utilisation d’approches autochtones à la recherche était fondamentale pour s’assurer de la compréhension culturellement spécifique et décolonisée de la relation entre les communautés autochtones et la sécurité en ligne. De plus, l’Etuaptmumk permet de comprendre les nuances de ce sujet qui sont adaptées aux histoires et aux réalités uniques des communautés autochtones.

Le groupe de discussion virtuel a été dirigé sous le style d’une « discussion autour de la table de cuisine ». Afin de fournir un contexte aux participants, le groupe de discussion a commencé par une présentation et une période de question du ministre du Patrimoine canadien, l’honorable Pablo Rodriguez, et de représentants de PCH. Le groupe de discussion a été dirigé par un animateur autochtone, et la plupart des preneurs de notes, des assistants et des rédacteurs de rapports étaient également des PANDC (personnes autochtones, noires et de couleur). Cette approche a été choisie pour encourager les participants à se joindre dans un environnement détendu et pour faciliter un échange de connaissances et d’énergie. Les chercheurs ont également veillé à ce que, à chaque étape du projet, une approche de table ronde soit utilisée, en veillant à ce que des perspectives et des approches holistiques diverses soient intégrées.

De plus, des données sur les groupes de discussion et les entrevues ont été recueillies par la méthode de conversation, « une méthode d’acquisition de connaissances fondée sur la tradition de narration orale qui concorde avec un paradigme autochtone. Il s’agit d’une participation dialogique qui a pour but profond de partager des histoires comme un moyen d’aider les autres » (Kovach, « Conversational Method in Indigenous Research », 2010, 40). Cette conception a été choisie parce qu’elle privilégiait les méthodes de recherche autochtones, qui soulignent l’importance d’approches à la recherche dialogiques et réciproques qui sont riches en histoires. Les idées de Margaret Kovach (2021) sur les méthodologies autochtones étaient essentielles à ce projet parce qu’elles encourageaient les chercheurs et les participants à développer et à co-créer des connaissances par la collaboration et le dialogue. Cette méthode fait partie d’un paradigme de recherche autochtone général qui met l’accent sur la réciprocité, la responsabilité envers la communauté et l’activisme. Les chercheurs se sont également engagés à entreprendre cette recherche en utilisant un prisme de la lutte contre le racisme et la discrimination.

Recrutement

Cette recherche comprend un groupe de discussion virtuel mené en novembre 2022 et une série d’entrevues individuelles, qui ont eu lieu de novembre 2022 à janvier 2023. Au total, 25 participants ont participé à ces activités de mobilisation. Les participants, qui venaient de partout au Canada, représentaient divers milieux et expériences et comprenaient des membres des Premières Nations, des Inuits et des Métis. Les participants ont soit travaillé avec des victimes et des groupes de défense des peuples autochtones, soit étaient eux-mêmes une personne autochtone qui avait subi des préjudices en ligne.

Les chercheurs d’Archipel ont dressé une liste des participants potentiels à l’aide de leur vaste réseau de membres et d’organisations autochtones de partout au Canada. La communication a également été menée au moyen de publications de médias sociaux sur Facebook et Instagram.

Données démographiques

Identité Groupe de discussion Entrevues Total
Premières Nations 20 % 80 % 56 %
Métis 30 % 0 % 12 %
Inuits 40 % 20 % 28 %
InconnueNote de bas de page 1 10 % 0 % 4 %

Protocole d’analyse

Compte tenu des contraintes de temps dans le groupe de discussion, toutes les questions n’ont pas été abordées. À ce titre, 15 autres entrevues ont été menées afin de découvrir des considérations et des détails spécifiques relatifs au projet de loi. Bien que tout ce qui a été partagé au sein du groupe de discussion n’ait pas été directement visé par les lignes directrices du projet et les questions prévues, il demeure important de les inclure dans le présent rapport en complément aux détails plus précis révélés durant les entrevues.

L’analyse et la préparation du présent rapport sont fondées sur des méthodes de recherche propres aux Autochtones, enracinées dans les modes autochtones de connaissances (épistémologies). Note de bas de page 2 En collaboration avec PCH, Archipel a identifié des thèmes soulevés pour révéler les préoccupations importantes des Autochtones au sujet de la sécurité en ligne. Les dimensions explicites et implicites des récits et des expériences personnels des participants ont été prises en compte. Les résultats ont été extraits des données recueillies, compilées et analysées, puis synthétisées dans le présent rapport.

Fatigue reliée aux consultations

L’idée d’une fatigue liée à la consultation est un facteur important des résultats de cette recherche. De nombreux participants, en particulier ceux du groupe de discussion, ont exprimé leur frustration d’être invités à participer à plusieurs reprises aux processus de consultation sans aucune garantie de changement significatif pour eux. La fatigue liée à la recherche « se produit lorsque des groupes souvent marginalisés, minoritaires ou autochtones sont approchés, interrogés, questionnés et intégrés à des projets de recherche pour partager une partie de leur compréhension d’un sujet » (Kater, 2022). Bon nombre des participants avaient déjà participé à de nombreuses occasions d’engagement, partageant leurs expériences à maintes reprises. Comme l’ont déclaré les participants :

[Le racisme] se produit quotidiennement. Nous le voyons tous les jours. Quelles formes de racisme? Systémique, tout racisme. Ce sont les gens qui sont dans la rue. La [communauté 2SLGBTQQIA+], les non-binaires. Ce n’est pas comme si le gouvernement ne connaissait pas les questions autochtones. Ils nous demandent ce qu’ils veulent faire à ce sujet. Combien de temps durera l’amendeNote de bas de page 3? Cette personne a déjà été blessée. Ce n’est pas suffisant. Allons-nous toujours nous battre pour les droits de la personne? Peuples autochtones, nous vivons selon nos traditions holistiques. Vous devez commencer par la guérison. Combien de temps devons-nous encore consacrer à l’éducation? (participant au groupe de discussion)

Il y a tellement de belles paroles, surtout au gouvernement, mais ils ne font rien. (participant à l’entrevue)

Il peut être traumatisant de partager à plusieurs reprises leurs expériences sans voir d’améliorations tangibles et de nombreux Autochtones sont, à juste titre, sceptiques quant à savoir si le gouvernement tiendra compte de leurs expériences pour créer une loi qui reflète exactement ce qu’ils veulent voir. Les problèmes de fatigue liée à la consultation peuvent avoir une incidence sur la collecte de données, car de nombreux Autochtones peuvent choisir de ne pas participer aux processus de consultation lorsqu’il n’y a aucune garantie que leurs préoccupations seront prises au sérieux. L’incapacité à agir avec sensibilité et urgence en fonction des réactions des peuples autochtones a mené à des problèmes profonds de méfiance à l’égard des gouvernements dans les communautés autochtones. De plus, certains peuples autochtones qui font face à d’autres défis plus immédiats, comme le logement ou l’insécurité alimentaire, peuvent avoir de la difficulté à participer pleinement aux discussions concernant les politiques ou la loi. Cela n’est pas nécessairement révélateur d’un manque de volonté de participer à de telles discussions, mais plutôt qu’elles ont des besoins plus immédiats qui entravent leur capacité à participer.

Les participants étaient également préoccupés par le fait que ce processus de mobilisation n’était pas entrepris pour écouter véritablement les expériences des peuples autochtones :

J’aimerais parler de la politique de pure forme. Quand on nous demande d’être dans des situations à ce sujet par des gens non autochtones. Ils ont tendance à inclure un ou deux d’entre nous, juste pour dire que nous avons eu leur voix. C’est dangereux. La politique de pure forme est une véritable menace pour notre peuple. Ils nous volent nos idées et notre identité. (participant au groupe de discussion)

Ces commentaires soulignent l’importance de réfléchir sincèrement aux expériences partagées au cours du groupe de discussion et des entrevues et d’adapter la loi en conséquence.

Mise en contexte

Environ 94 % des adultes canadiens ont au moins un compte de médias sociaux. Les médias sociaux permettent aux Canadiens de communiquer entre eux au Canada et dans le monde et de participer à leurs communautés. Les médias sociaux aident les militants et les organisations de la société civile à s’organiser et amplifier les voix des communautés sous-représentées et qui méritent l’équité. Les sites de médias sociaux sont devenus de plus en plus importants pour la connexion et la communication compte tenu de la pandémie de la COVID-19.

L’utilisation des médias sociaux pour communiquer et partager des histoires est particulièrement importante pour les communautés autochtones du Canada (Bascaramurty, 2020). Les peuples autochtones du Canada méritent d’être en sécurité en ligne. Les médias sociaux se sont avérés être un outil efficace pour les peuples autochtones afin qu’ils puissent établir des liens les uns avec les autres, participer à leurs communautés et s’engager dans le militantisme. Cependant, beaucoup s’inquiètent de plus en plus de la prévalence du contenu préjudiciable en ligne, une tendance qui touche de façon disproportionnée les peuples autochtones.

Les peuples autochtones sont particulièrement vulnérables au contenu préjudiciable en ligne, y compris les discours haineux, le contenu lié à l’exploitation sexuelle des enfants et le contenu qui dépeint le partage non consensuel d’images intimes, pour n’en nommer que quelques-uns. Un nombre croissant de peuples autochtones soulèvent des préoccupations au sujet des préjudices auxquels ils font face en ligne (Arce 2022, APTN 2020). Le gouvernement du Canada reconnaît que les points de vue des peuples autochtones qui ont vécu ou travaillé avec ceux qui ont subi de la haine en ligne sont essentiels au moment où le gouvernement commence à élaborer une politique visant à assurer un environnement en ligne plus transparent et plus responsable.

Archipel a tenu un groupe de discussion virtuel et des entrevues individuelles avec les Premières Nations, les Métis et les Inuits de novembre 2022 à janvier 2023 afin de discuter et de recevoir des commentaires sur les éléments fondamentaux d’un cadre législatif et réglementaire pour la sécurité en ligne. Le groupe de discussion et les entrevues individuelles s’inscrivaient dans le cadre de l’effort de mobilisation plus vaste du gouvernement en matière de sécurité en ligne, décrit ci-dessous.

Le gouvernement du Canada a lancé une consultation nationale en ligne de juillet à septembre 2021 sur ce à quoi pourrait ressembler un cadre législatif et réglementaire pour les préjudices en ligne. Les commentaires écrits obtenus dans le cadre de ce processus de consultation, y compris ceux de quelques groupes de défense des droits et de victimes autochtones, ont indiqué que la plupart des répondants appuient la mise en place d’un cadre législatif et réglementaire national pour lutter contre le contenu préjudiciable en ligne. Toutefois, certaines préoccupations importantes ont été soulevées par les participants au processus de consultation, notamment en ce qui a trait à la liberté d’expression, au droit à la vie privée, aux répercussions possibles sur certains groupes marginalisés et au respect de la Charte canadienne des droits et libertés. Un résumé de ce processus est disponible sur le site Web de Patrimoine canadien.

Le gouvernement a déjà pris des mesures pour rendre l’environnement en ligne plus sûr. Par exemple, le ministre de la Justice et procureur général du Canada a déposé le projet de loi C-36 en juin 2021 pour modifier le Code criminel et la Loi canadienne sur les droits de la personne (LCDP), afin de mieux dénoncer la propagande haineuse et les crimes haineux et d’apporter des modifications connexes à la Loi sur le système de justice pénale pour les adolescents. Le projet de loi n’a pas été adopté lors de la dernière législature, avant l’élection du nouveau Parlement. Veuillez consulter la description du projet de loi C-36 pour obtenir de plus amples renseignements.

Le gouvernement a analysé les commentaires recueillis lors du processus de consultation initial et a constaté qu’il y avait un désir pour un régime qui se concentrerait sur les systèmes, les outils et les approches que les services en ligne pourraient mettre en place, c’est-à-dire une approche fondée sur le risque plutôt qu’un régime de retrait axé sur le retrait de catégories spécifiques de contenu préjudiciable initialement proposé pour la consultation de 2021 mentionnée ci-dessus.

En réponse à ce qui a été entendu, le gouvernement a mis sur pied un groupe consultatif d’experts composé de 12 experts de divers horizons et expériences provenant de partout au Canada. Le groupe consultatif d’experts a été chargé de fournir des conseils sur la meilleure façon de concevoir le cadre législatif et réglementaire pour lutter contre le contenu préjudiciable en ligne, tout en tenant compte des commentaires reçus lors de la consultation nationale de 2021. Le groupe consultatif a participé à 10 ateliers et a rencontré des experts en la matière du Royaume-Uni, de l’Union européenne et de l’Australie afin d’entendre comment des modèles similaires fonctionnent dans d’autres pays. Veuillez consulter le résumé des séances du groupe consultatif d’experts pour plus d’informations.

Les conclusions du groupe consultatif d’experts peuvent être divisées en huit thèmes clés :

Un aperçu de ces thèmes se trouve à l’annexe C du présent document.

En plus de ces mesures, le Forum des politiques publiques, en collaboration avec le ministère du Patrimoine canadien, a tenu la troisième partie de son Assemblée citoyenne sur l’expression démocratique du 15 au 19 juin à Ottawa, cette fois axée sur la sécurité en ligne. L’Assemblée citoyenne sur l’expression démocratique avait pour but d’obtenir les points de vue d’un groupe de citoyens représentatifs semblables à la population du Canada et des régions de partout au Canada sur la recherche et l’élaboration de politiques sur les préjudices et la désinformation en ligne. Enfin, un total de 19 tables rondes ont été organisées partout au Canada – 12 en personne et 1 hybride, dans toutes les régions du pays, et 7 tables rondes virtuelles organisées autour de thèmes, de groupes en quête d’équité et de l’industrie, pour entendre les points de vue sur les préjudices en ligne de la part de ceux qui seraient les plus touchés par la loi sur la sécurité en ligne.

Les participants à notre groupe de discussion et à nos entrevues ont eu un aperçu de cette information, laquelle est semblable au document utilisé par les participants lors des tables rondes ministérielles et aux questions de discussion partagées lors de l’inscription au groupe de discussion, afin de mettre le sujet en contexte et favoriser une discussion plus approfondie. Une copie de la trousse d’information fournie aux participants se trouve à l’annexe C du présent document.

Principales constatations

Les questions et les commentaires soulevés au cours du groupe de discussion et des entrevues ont porté sur un certain nombre de constatations clés :

  1. la nécessité d’une approche axée sur les Autochtones;
  2. les plateformes les plus préjudiciables;
  3. la priorité de protéger les plus vulnérables;
  4. l’identification et l’atténuation des préjudices potentiels;
  5. l’organisme de réglementation de la sécurité en ligne;
  6. les engagements de ne pas troubler l’ordre public; et
  7. les crimes haineux et les discours haineux.

Ces thèmes, ainsi que leurs sous-thèmes subséquents, sont examinés ci-dessous.

Approche axée sur les Autochtones

Tout au long du processus de collecte de données, les participants ont clairement indiqué que les communautés autochtones ont une relation unique avec Internet et que, par conséquent, l’approche pour aborder la sécurité en ligne exige une perspective propre aux Autochtones. Beaucoup ont estimé que les solutions qui pourraient être efficaces pour la population canadienne en général ne fonctionneraient pas pour les communautés autochtones : « Établir des règles qui s’appliquent à tout le Canada pourrait nuire à nos cultures individuelles » (participant à l’entrevue). Comme l’a expliqué un participant à l’entrevue : « il faut adopter une perspective autochtone et racialisée », c’est-à-dire une approche qui met l’accent sur la façon dont les peuples autochtones se perçoivent et interagissent avec le monde qui les entoure. Par conséquent, le présent rapport dans son ensemble devrait être compris dans un contexte spécifiquement autochtone, en reconnaissant les problèmes auxquels font face les communautés autochtones, y compris les traumatismes intergénérationnels.

Plateformes les plus préjudiciables

Les participants ont exprimé des sentiments divergents en ce qui concerne les plateformes en ligne les plus préjudiciables. Facebook a été le plus souvent cité comme une plateforme préjudiciable parce que les participants estimaient que les algorithmes qui fournissent du contenu aux utilisateurs favorisent un environnement de chambre d’écho et des sentiments racistes. Les participants craignaient également que Facebook encourage le trafic et la manipulation psychologique.

Facebook est la façon dont elles sont victimes de trafic. C’est ainsi qu’ils les envoient à des clientsNote de bas de page 4 et qu’elles [victimes de la traite] les rencontrent. Les choses les plus racistes et discriminatoires y sont dites. (participant au groupe de discussion)

Facebook est la plateforme la plus préjudiciable. N’importe qui peut dire ce qu’il veut, et cela se propage. Facebook est la pire plateforme. (participant au groupe de discussion)

Facebook a aussi été fréquemment cité par les participants comme une plateforme qui abritait une quantité significative de sentiments racistes, en particulier dans les sections de commentaires.

À mesure que les nouvelles plateformes gagnent en popularité, les jeunes utilisent de moins en moins les anciennes plateformes comme Facebook. Un participant a illustré cela lorsqu’il a remarqué que les adolescents et les enfants ont tendance à favoriser les applications plus récentes comme Snapchat et TikTok et a exprimé des préoccupations quant aux dangers auxquels ils font face et au manque de supervision sur ces plateformes :

Snapchat et TikTok sont utilisés par plus d’adolescents. Facebook s’adresse davantage aux 30 ans et plus. Mon adolescent est plus sur TikTok et Snapchat. Ils utilisent chaque application pour l’amour. C’est dangereux. Vous ne savez pas si la personne à qui vous parlez a votre âge ou non. (participant au groupe de discussion)

Un autre préjudice potentiel des plateformes comme TikTok et Facebook noté par les participants a été la propagation de la désinformation par des comptes avec un grand nombre d’abonnements, également appelés « comptes d’influenceurs ». Parmi les préoccupations soulevées par les participants figuraient la désinformation liée à la pandémie de la COVID-19 ou les sites Web qui partagent des sentiments racistes et anti-autochtones.

YouTube a également été identifié comme une plateforme potentiellement préjudiciable pour les enfants, car les parents peuvent ne pas être conscients du contenu préjudiciable caché dans les vidéos destinées aux enfants :

YouTube est dangereux pour les enfants parce qu’ils cachent des choses dans des vidéos qui, en tant que parent, si vous ne faites pas attention, vous ne comprendriez pas parce qu’on dit qu’elles sont destinées à un enfant. La plupart des parents ne le savent pas. Les parents pensent que leurs enfants regardent une vidéo sur le déballage de jouets. Vous croyez qu’ils regardent quelque chose d’innocent. (participant au groupe de discussion)

Une autre plateforme dont il a été question était les babillards électroniques ou les forums privés sur des sites Web spécifiques. Les sites Web qui publient du contenu d’extrême droite et de suprématie blanche ont souvent des babillards électroniques anonymes qui peuvent servir de chambres d’écho, où la radicalisation pourrait se produire et poser un risque de préjudice physique aux gens dans des circonstances extrêmes. Un participant a identifié le danger de ne pas savoir combien de ces plateformes existent sur Internet ou comment les suivre :

Je pense que les sites spécifiques en ligne avec des forums privés sont les plus dangereux, mais c’est terrifiant parce que je ne pense pas qu’il y ait moyen de savoir combien il y en a, qui les connaît, mais pour l’accès public. (participant à l’entrevue)

Des préoccupations ont été exprimées sur la façon dont les sentiments antiautochtones et racistes sont communs sur toutes les plateformes en ligne. Un participant a souligné que les peuples autochtones sont fréquemment la cible de discours haineux sur plusieurs plateformes :

Il y a tellement de publications ciblant les peuples autochtones, tellement de haine, YouTube, Facebook, Instagram. Toutes ces plateformes ont tellement de publications violentes ciblant les peuples autochtones. (participant à l’entrevue)

Dans l’ensemble, les participants étaient préoccupés par toutes les plateformes de médias sociaux. Alors que les participants étaient plus préoccupés par le racisme sur Facebook, ils ont estimé que les enfants et les jeunes étaient plus susceptibles de subir des dommages sur des plateformes comme TikTok, Snapchat et YouTube. Un participant a résumé : « Je pense vraiment que toutes les plateformes sont préjudiciables. Elles sont toutes connectées. Lorsque nous examinons les personnes vulnérables, les taux de maladie mentale sont élevés dans notre communauté » (participant à l’entrevue).

Priorité de protéger les plus vulnérables

Les préoccupations concernant la sécurité des enfants, des jeunes et d’autres membres vulnérables de la communauté étaient les préoccupations les plus fréquemment citées parmi les participants. De nombreux participants ont partagé des histoires troublantes sur leurs expériences personnelles, ou celles de leurs enfants ou d’autres membres de la communauté, qui ont révélé des problèmes généralisés de comportement prédateur en ligne.

La principale priorité discutée concernant la sécurité en ligne était de protéger ceux qui sont les plus vulnérables des intentions et des actions prédatrices. La prévention et l’élimination du contenu d’exploitation sexuelle des enfants (CESE) et de tout matériel produit ou partagé sans consentement ont été clairement identifiées par les participants comme une priorité, ainsi que tous les comportements de manipulation psychologique ou de prédation. Les plateformes n’ont pas été distinguées dans cette partie de la conversation, les participants faisant remarquer qu’elles sont souvent reliées et qu’elles présentent des similitudes dans la façon dont les gens sont exploités.

Oui, ce que je vois vraiment, c’est qu’il y a du trafic de personnes. Mais quand nous commençons à regarder d’où ça vient, nous avons les [plateformes] en ligne où les prédateurs vont et ils commencent à manipuler psychologiquement les jeunes, et ils commencent à manipuler psychologiquement les personnes les plus vulnérables. (participant au groupe de discussion)

Parmi les activités prédatrices dont il a été question, mentionnons la cyberimposture et la séduction de jeunes ou de personnes vulnérables sous des prétextes. Des préoccupations ont également été soulevées quant à la façon d’appliquer la loi à ceux qui commettent ces infractions, en particulier le CESE et le partage non consensuel d’images intimes, mais qui ne résident pas au Canada.

Fraude envers les personnes âgées

En plus des crimes contre les enfants, les participants étaient également préoccupés par le fait que des membres de la communauté aînée étaient victimes de fraude en ligne. Plus précisément, les participants se sont dits préoccupés par les personnes ou les entreprises qui ciblent les personnes âgées autochtones qui ne comprennent peut-être pas parfaitement la fraude numérique et comment la prévenir :

Je vois souvent des aînés qui sont seuls se faire attraper par des arnaqueurs qui n’ont pas de pratiques éthiques et qui offrent souvent quelque chose aux aînés et prennent leur argent. (participant à l’entrevue)

Je pense ici à des aînés qui savent à peine utiliser le téléphone et se font arnaquer. Ça me rend triste. (participant à l’entrevue)

Je vois aussi tellement de gens qui ont peut-être reçu un message excentrique et qui ont cliqué dessus et maintenant tout d’un coup, ils le republient au sujet des bitcoins, et ils sont verrouillés de leur compte. Les gens se font arnaquer par des publications disant qu’ils sont le gouvernement ou l’ARC. (participant à l’entrevue)

Ils ont partagé des histoires d’aînés et de gardiens de savoir dans leurs communautés qui ont été victimes de fraude lorsqu’ils pensaient acheter une voiture en ligne ou être victimes d’une fraude lorsqu’ils pensaient avoir gagné un voyage gratuit à Hawaï. Les participants ont raconté d’autres histoires d’aînés qui avaient été escroqués en se faisant voler leur numéro de sécurité sociale ou leurs renseignements de carte de crédit, car ils n’étaient pas conscients de l’importance de protéger ces renseignements en ligne.

Préoccupations concernant la manipulation psychologique et le trafic

L’un des problèmes les plus courants qui préoccupaient les participants était la prévalence du trafic et de la manipulation psychologique des enfants, qui menace et met en danger la sécurité des peuples et des communautés autochtones. Les participants ont soulevé à plusieurs reprises des préoccupations au sujet du rôle que jouent les médias sociaux dans la manipulation psychologique et le trafic d’enfants et de membres vulnérables des communautés autochtones : « La violence, le racisme et la traite sexuelle sont si vastes », faisant référence à l’ampleur et à la fréquence de ces problèmes. Les participants ont indiqué que des comportements de manipulation psychologique et de traite des personnes étaient pratiqués sur des sites comme Facebook, Snapchat et TikTok, ainsi que sur le « Web clandestin ». Note de bas de page 5

De nombreux participants ont estimé que les enfants et les jeunes autochtones étaient particulièrement ciblés par les trafiquants en raison de leur vulnérabilité :

Pour les menaces en ligne, nous devons commencer à examiner comment elles peuvent être identifiées. Comment pouvons-nous nous assurer qu’en tant que société, nos plus vulnérables, les adolescents, les femmes et les filles autochtones, les travailleurs migrants, sont en sécurité? […] Nous avons encore de la méfiance envers la communauté non autochtone. Les menaces que je vois se produire là-bas, ce sont les gens qui recrutent nos plus vulnérables. Comment pouvons-nous identifier ces réseaux, c’est une énorme affaire là-bas? Comment allons-nous éduquer nos jeunes et les plus vulnérables? (participant au groupe de discussion)

Les enfants et les jeunes sont particulièrement vulnérables aux préjudices en ligne, y compris le CESE, la manipulation psychologique et d’autres comportements prédateurs. Par conséquent, de nombreux participants ont estimé qu’il faudrait adopter des mesures d’atténuation plus fortes contre ce type de contenu afin de protéger les plus vulnérables. Les participants ont clairement indiqué que le gouvernement a un rôle à jouer dans l’éducation des jeunes pour s’assurer qu’ils comprennent les risques et les signes de la traite de personnes. En gros, ils voulaient qu’il y ait plus d’accent sur la prévention, plutôt que sur une simple intervention.

Des peines plus sévères pour les crimes contre les enfants

De nombreux participants ont également déclaré qu’il faudrait prendre des mesures plus punitives pour ceux qui exploitent des enfants en ligne. Un participant a raconté comment il avait trouvé du CESE sur l’ordinateur de son partenaire. Lorsqu’il s’est adressé à la police avec cette information, celle-ci a refusé de poursuivre l’enquête. D’autres participants ont partagé des histoires comparables, notant que les auteurs de CESE ciblent souvent les jeunes des communautés à faible revenu et racialisées :

Je suis allé à l’école secondaire avec un garçon de la classe moyenne élevée qui était très reconnaissant pour son implication auprès des jeunes, et il ne l’a fait que dans les quartiers à faible revenu. Et plus tard, il s’est fait avoir pour pornographie juvénile. Il n’a été en prison que pendant quelques mois. […] Les communautés autochtones sont celles qui sont principalement visées. Nous avons besoin d’une meilleure prévention. Je comprends que ce projet de loi est une intervention, mais nous avons besoin de meilleures préventions. (participant au groupe de discussion)

D’autres estimaient que le gouvernement devait jouer un rôle plus important dans la prévention et la lutte contre les crimes contre les enfants :

Il faudrait faire quelque chose pour durcir les peines contre la pornographie juvénile. Nous devrions avoir plus de programmes dans les écoles pour la sécurité sur Internet. Il faudrait faire quelque chose à un niveau plus préventif, car il s’agit d’une situation qui perdure. Il est très important que le programme d’études soit modifié pour que cela se fasse dans nos écoles. Certaines personnes reçoivent une simple tape sur les doigts. (participant au groupe de discussion)

Bien que ces mesures ne soient probablement pas du ressort immédiat de cette loi, il est important de le souligner, car de nombreux participants y étaient profondément attachés. Les participants ont estimé qu’il y a place à amélioration pour traiter les crimes contre les enfants qui ne sont pas visés par cette loi. Certaines de ces mesures, qui seront examinées plus en détail dans la section des recommandations du présent rapport, comprennent l’éducation des enfants et des jeunes sur la sécurité en ligne, la suppression des faux profils et la mise en place d’un navigateur de systèmes pour aider à éliminer les images sexuelles non consensuelles. Ils ont également recommandé que des mesures plus punitives soient prises pour ceux qui exploitent des enfants.

Identification et atténuation des risques potentiels

Les participants à l’entrevue ont été en grande majorité d’accord pour dire que les plateformes Internet devraient être traitées comme n’importe quel autre produit lorsqu’il s’agit d’identifier les risques potentiels et de les atténuer. Les participants ont fait des comparaisons avec d’autres produits, comme les voitures, qui doivent subir des tests de sécurité approfondis avant d’être vendus afin que l’on puisse être raisonnablement certain que le produit qu’ils achètent est sûr à utiliser. Les participants voulaient que des normes de sécurité similaires soient appliquées aux plateformes Internet. De nombreux participants y ont vu une question de gros bon sens. Certains participants ont spécifiquement suggéré que cela pourrait sembler exiger que les plateformes Internet adhèrent à un ensemble d’atteintes spécifiquement conçues pour protéger les utilisateurs autochtones.

Les plateformes de médias sociaux sont gérées comme une institution, un code de conduite, mais elles n’ont pas les mêmes répercussions que les institutions. Le Canada pourrait adopter de meilleures lois pour atténuer les préjudices. (participant à l’entrevue)

En dépit d’un large soutien en faveur de mesures visant à mieux réglementer la sécurité des plateformes Internet, certains participants se sont dits préoccupés par la manière dont ces réglementations s’appliqueraient aux plateformes internationales. Un participant à un groupe de discussion a raconté qu’il a tenté en vain de faire retirer d’un site Web international des images intimes non consensuelles, ou « pornographie de vengeance », qualifiant le processus d’« irréaliste et décourageant. » Ils ont suggéré que le gouvernement fédéral pourrait aider les peuples autochtones dans des positions similaires à supprimer les images intimes non consensuelles d’une plateforme en ligne, en particulier une plateforme internationale. Ils ont également expliqué qu’il serait utile d’avoir un navigateur de systèmes pour les défendre et les guider dans le processus de retrait des images intimes non consensuelles des plateformes internationales.

Avertissements lors de l’inscription

Les participants se sont dits préoccupés par l’absence d’avertissements suffisants au moment de l’inscription et de la vérification sur les sites de médias sociaux concernant le risque que les utilisateurs puissent rencontrer du matériel nuisible sur ces sites. Ils voulaient que les sites de médias sociaux soient tenus d’être plus transparent sur les dangers potentiels de l’utilisation de leurs sites, un peu comme un avertissement d’« acheteur averti ». Par exemple, des avertissements indiquant que du contenu préjudiciable, y compris des images explicites, de la fraude monétaire ou des activités de traite de personnes, pourraient être présents sur le site et des lignes directrices expliquant comment rester vigilant face à de tels comportements :

Ce n’est peut-être pas aussi simple que d’accepter les modalités. Les utilisateurs devraient peut-être regarder de courtes vidéos sur les risques ou les dangers potentiels des médias sociaux et se renseigner sur la sécurité en ligne avant de s’inscrire à un site de médias sociaux. (participant au groupe de discussion)

L’âge des utilisateurs sur les sites de médias sociaux a également été cité comme une préoccupation pour de nombreux participants, qui ont expliqué qu’il y avait beaucoup d’enfants sur ces sites malgré les exigences selon lesquelles les utilisateurs doivent être au-dessus d’un certain âge. Ils ont reconnu que, bien que l’inscription des comptes exige que les utilisateurs aient un certain âge, il n’y a pas de processus de vérification de l’âge pour s’assurer que cela se fasse pendant l’inscription.

Les plateformes ne vérifient pas si [les utilisateurs sont] réellement assez âgés. Comment êtes-vous censés réglementer s’ils ne font pas leur part? Lorsque vous allez sur un site pornographique, il vous demande si vous avez 18 ans. Même s’il n’y a encore qu’une stupide petite fenêtre intempestive, il suffit de cliquer sur oui, même si vous êtes un enfant. Personne ne vérifie réellement. (participant au groupe de discussion)

Cette partie de la discussion a également mis en évidence qu’il existe des lignes directrices communautaires sur les sites de médias sociaux, et qu’elles pourraient être révisées pour tenir compte des besoins uniques des peuples autochtones. Cela pourrait inclure des lignes directrices disponibles dans les langues autochtones, qui sont clairement écrites, et qui reconnaissent et respectent les réalités auxquelles les peuples autochtones sont confrontés en ce qui concerne les traumatismes intergénérationnels, l’augmentation des taux de suicide (Stober, 2019; Statistique Canada, 2019), et risque plus élevé de traite de personnes (Roudometkina et Wakeford, 2018).

Éducation et prévention

Les participants au groupe de discussion et aux entrevues ont estimé que l’éducation et la prévention constituaient un élément essentiel de l’identification et de l’atténuation des risques potentiels pour les utilisateurs en ligne. Beaucoup ont estimé que le processus de consultation et la législation potentielle étaient trop axés sur l’intervention alors qu’ils devraient plutôt être axés sur la prévention des préjudices en ligne. Comme l’a expliqué succinctement un participant à l’entretien, « l’éducation est la clé ». Cette discussion a porté principalement sur les questions de fraude, de traite de personnes et de violence sexuelle. Les participants voulaient que le gouvernement se concentre davantage sur des mesures préventives comme l’éducation pour aider les Autochtones à repérer les méfaits et à éviter qu’on profite d’eux en ligne. Parmi les suggestions à cet égard, mentionnons la collaboration avec les dirigeants des communautés autochtones pour offrir des séances d’éducation et d’information aux membres de la communauté, en particulier aux jeunes et aux personnes âgées vulnérables.

Je ne suis pas très enthousiaste à l’idée de « nous allons choquer ces personnes », mais je pense que beaucoup de gens ont besoin de comprendre à quel point les peuples autochtones sont facilement ciblés. Et ils pourraient penser que « je ne me ferais jamais avoir », mais tant de ces victimes ont pensé la même chose. (participant à l’entrevue)

Bien qu’en dehors de la portée de cette loi, les participants voudraient également voir des séances éducatives organisées dans les écoles pour éduquer les jeunes sur la façon d’utiliser Internet en toute sécurité, surtout parce qu’Internet est si largement utilisé.

Plus d’informations sont nécessaires, peut-être même dans les écoles comme des présentations d’une heure ou comme un atelier d’une demi-journée. Sensibiliser les gens à la facilité avec laquelle il est possible d’être victime de la traite de personnes. Je pense que beaucoup de gens sont tout simplement aveugles parce que les gens de mon groupe d’âge ont grandi avec Internet et la nouvelle génération, ils ne connaissent pas la vie sans Internet. Il s’agit donc de s’adapter à cette nouvelle génération. Avant, on nous apprenait à ne pas monter dans une voiture avec des étrangers, mais ils peuvent parler à des étrangers toute la journée sur Internet. (participant à l’entrevue)

Pas seulement « hé, voici un graphique aléatoire que nous allons mettre sur Facebook. » Non, je pense qu’il doit y avoir des séances en classe pour les enfants à l’école, et des séances de mobilisation avec la communauté sur la sécurité d’Internet en général. (participant à l’entrevue)

Organisme de réglementation de la sécurité en ligne

Il y a aussi eu un large consensus parmi les participants pour que l’organisme de réglementation de la sécurité en ligne soit habilité à supprimer des éléments de contenu qu’il jugeait dangereux. Les participants voulaient surtout voir les faux profils retirés des sites de médias sociaux, car ils étaient souvent cités comme un problème dans des enjeux comme la fraude et le harcèlement :

Les faux profils devraient être supprimés, les gens devraient être tenus de vérifier qui ils sont au moment de créer un compte. (participant à l’entrevue)

En plus de supprimer les faux profils, les participants voulaient voir un processus de vérification plus robuste pour s’assurer que les nouveaux profils ne soient pas créés sous de faux alias.

Toutefois, certains participants ont fait remarquer que certains des termes utilisés dans les documents d’information partagés avec les participants au cours de ce projet, à savoir les « discours haineux » et la « violence », devaient être définis plus clairement afin d’éviter des problèmes potentiels d’interprétation. Ils ont également fait remarquer que les termes qui seraient utilisés dans la législation, une fois élaborés, devraient être clairement définis et faciles à comprendre :

J’aimerais vraiment que les termes soient définis de façon plus précise. Je sais que certains ternes [dans la trousse d’information] étaient très généraux. Je pense qu’avant de commencer à vraiment protéger les gens contre cela, nous devons d’abord déterminer de quoi il s’agit. Peut-être faudrait-il diviser ces catégories en catégories plus petites, afin que nous puissions les définir précisément. Je pense que ce serait utile. Mais nommer quelqu’un pour surveiller un terme aussi général est vraiment dangereux. (Participant à l’entrevue)

Ce participant a estimé que le fait de ne pas définir clairement les termes comme « discours haineux » et « violence » pourrait laisser beaucoup de place à des erreurs d’interprétation, surtout si l’organisme de réglementation en ligne n’était pas bien au fait des questions autochtones.

Enfin, une question spécifique où les participants ont estimé qu’un organisme de réglementation pour la sécurité en ligne devrait être plus proactif concerne les mentions de suicide :

Si l’on discute du suicide, l’organisme de réglementation devrait également avoir la responsabilité d’essayer d’obtenir de l’aide pour la personne qui publie. (participant à l’entrevue)

Je connais quelqu’un qui s’est suicidé sur les médias sociaux. (participant à l’entrevue)

Je connais des gens qui se sont suicidés, ou que leur santé mentale a été complètement détruite à cause de ce qui se passe sur les médias sociaux. (participant à l’entrevue)

Au moins un participant a lié les questions de suicide à la cyberintimidation et le harcèlement :

Les gens se suicident à cause de la cyberintimidation. Les femmes inuites se suicident parce que […] la cyberintimidation a fait des ravages sur leur santé mentale. (participant au groupe de discussion)

Nous avons perdu une chanteuse très aimée à cause de l’intimidation en ligne, à cause de la pornographie vengeresse. Elle s’est suicidée la veille de Noël. Elle a également souffert de problèmes de santé mentale. Donc, en plus des problèmes de santé mentale, elle a fait face à de l’intimidation en ligne, à des cyberattaques, et à des gens qui se sont introduits dans son compte. […] C’est très passionnant pour moi à cause du niveau, du nombre de suicides qui existent dans le Nord. (participant au groupe de discussion)

Cette question est particulièrement importante parce que le taux de suicide est deux fois plus élevé pour les communautés métisses, trois fois plus élevé dans les communautés des Premières Nations et neuf fois plus élevé dans les communautés inuites que chez les non-Autochtones (Stober, 2019; Statistique Canada, 2019).

Préoccupations concernant les sanctions administratives pécuniaires

Les participants ont concentré une partie de leur discussion au sein du groupe de discussion sur les sanctions administratives pécuniaires (SAP) qui pourraient être imposées aux services de médias sociaux en réponse à leur non-conformité aux obligations en vertu de la loi sur la sécurité en ligne. Les participants ont soulevé des questions sur les personnes qui seraient pénalisées financièrement pour le contenu nocif trouvé sur les services de médias sociaux – les créateurs ou les services de médias sociaux ou les deux. Cette préoccupation était moins fréquente pendant les entrevues, bien qu’un participant ait fait remarquer que « les sanctions pécuniaires sont un bon moyen de dissuasion ». L’idée d’imposer des amendes aux utilisateurs individuels qui publient du contenu préjudiciable a fait l’objet d’un débat plus approfondi. Certains participants des groupes de discussion ont exprimé des préoccupations au sujet de cette idée, car cela impliquerait de suivre les utilisateurs et pourrait causer des inefficacités quant à la vitesse à laquelle l’amende est imposée. Ce serait trop pour l’organisme de réglementation de prendre en charge et pourrait causer des préoccupations en matière de protection de la vie privée pour les utilisateurs de ces services de médias sociaux.

Les participants ont également proposé d’affecter les fonds recueillis au moyen des SAP payés par les services de médias sociaux aux victimes de contenu préjudiciable ou à des initiatives éducatives visant à atténuer les préjudices futurs de même nature.

J’ai cru comprendre que l’argent serait utilisé pour financer la poursuite de l’application de cette politique. Je comprends que le financement fédéral doit venir de quelque part. Mais si nous parlons de justice pour nos communautés, je pense que nous devons discuter de la façon dont une partie de ce financement devrait être intégrée aux services et aux programmes qui touchent directement les communautés touchées. (participant au groupe de discussion)

Les participants ont également précisé que si un soutien financier était destiné aux victimes qui ont été confrontées à des contenus préjudiciables en ligne, cela doit être fait avec suffisamment d’anonymat pour protéger les victimes « de la stigmatisation associée à ce dont elles ont été victimes. » Les participants se sont dits préoccupés par le temps qu’il faudrait pour que des sanctions administratives pécuniaires soient imposées aux services de médias sociaux et dans certains cas, par le temps qu’il faudrait pour que les systèmes de médias sociaux réagissent aux préjudices subis par leurs services ou pour que certains contenus préjudiciables soient retirés, notant que le préjudice a déjà été causé et que, pour que l’impact de la réglementation soit ressenti, certains matériels extrêmement nocifs doivent être retirés immédiatement et les SAP traitées rapidement.

Préoccupations concernant les antécédents du commissaire

La possibilité d’avoir un organisme de réglementation ou une personne chargée de l’application des politiques discutées dans le cadre de ce forum a soulevé plusieurs préoccupations importantes. Des préoccupations ont été soulevées au sujet du pouvoir que cet organisme aurait, et de l’étendue de l’expertise qu’il détiendrait, individuellement et collectivement. Si, par exemple, la chasse traditionnelle au phoque ou les produits fabriqués à partir de peaux de phoque étaient étiquetés ou enlevés, cela est directement lié à la culture et à la race.

Sur certaines plateformes, nous ne pouvons même pas écrire le mot phoque. Cela devient une question raciale et c’est une attaque contre qui je suis. Tout dépend de qui est l’organisme de réglementation. D’où vient-il? A-t-il assez de connaissances? Viendraient-ils de milieux divers? (participant au groupe de discussion)

Une autre préoccupation importante était de savoir si un organisme de réglementation serait susceptible de ne représenter qu’une seule perspective. S’ils n’autorisent que les points de vue tolérés par le gouvernement canadien et qu’ils peuvent limiter les discours sur les critiques ou les solutions de rechange, cela est considéré comme trop contraignant et dangereux. Ce thème a également été abordé lors de la partie de la collecte de données consacrée aux entrevues, un participant ayant déclaré :

Qui prendrait ces décisions? Quel est leur point de vue? (participant à l’entrevue)

Qui va décider ce qui constitue un discours haineux? Mon meilleur ami appelle les gens des Indiens, il est Ojibwé. D’autres peuvent calomnier en utilisant les mêmes mots, mais qui va discerner? (participant à l’entrevue)

De même, certains participants ont soulevé des préoccupations au sujet de la liberté d’expression et des difficultés à trouver un équilibre entre la liberté de dire ou d’exprimer ce qu’ils aimeraient avec les droits d’autres personnes, comme les peuples autochtones qui pourraient être lésés par le contenu publié :

Les gens devraient avoir la liberté d’expression à moins qu’ils ne fassent l’apologie d’activités criminelles ou de la haine. (participant à l’entrevue)

C’est difficile parce qu’on veut avoir la liberté d’expression, mais on ne veut pas de contenu haineux en ligne en même temps. (participant à l’entrevue)

Les participants ont fait remarqué qu’il ne faudrait pas donner à un organisme de réglementation de la sécurité en ligne le pouvoir d’obliger les entités réglementées à supprimer du contenu jugé préjudiciable, car cela pourrait entraîner des préjugés à l’égard des communautés autochtones, où certains contenus pourraient être étiquetés à tort comme étant préjudiciables. Les participants ont notamment soulevé des questions concernant les manifestations et l’exploitation des ressources. Les participants étaient également préoccupés par le fait que, si un nouveau gouvernement devait être élu et qu’il était plus hostile envers les peuples autochtones, tout contenu lié aux droits des Autochtones pourrait être considéré comme nuisible, haineux, voire comme un comportement terroriste. Malgré ces préoccupations, il est important de noter que le nouvel organisme de réglementation du gouvernement serait un organisme de réglementation indépendant et que ses décisions ne seraient pas influencées par le gouvernement.

Un participant a souligné la dynamique de pouvoir inégale que peut créer la présence d’un commissaire à la sécurité, même si cette personne est indépendante de l’influence du gouvernement. Les participants craignaient que des préjugés personnels ou inconscients ne conduisent à une prise de décision injuste.

C’est trop de pouvoir pour une seule personne. Il y a un risque de partialité de l’organisme de réglementation. (participant à l’entrevue)

Au lieu de cela, certains participants ont suggéré qu’il devrait y avoir un comité de commissaires, composé de personnes diverses, au lieu d’un seul. Cela pourrait aider à créer de la nuance dans leur approche et à éviter les préjugés contre un groupe en particulier.

Engagements de ne pas troubler l’ordre public

Les participants étaient divisés sur la question de savoir si la proposition de l’ancien projet de loi C-36 de créer un nouvel engagement de ne pas troubler l’ordre public aiderait à prévenir les infractions de propagande haineuse et les crimes haineux. Dans certains cas, les participants ont estimé qu’un engagement de ne pas troubler l’ordre public serait un outil utile pour lutter contre le contenu préjudiciable, en particulier dans les cas de harcèlement :

Si quelqu’un estime qu’il y a un tel danger à publier des messages haineux, il devrait pouvoir obtenir un engagement de ne pas troubler l’ordre public (participant à l’entrevue)

Je sais que les engagements de ne pas troubler l’ordre public ne fonctionnent pas toujours, mais c’est un pas de plus vers l’action et la responsabilisation. (participant à l’entrevue)

Certains participants ont également estimé que le fait d’avoir la possibilité d’obtenir un engagement de ne pas troubler l’ordre public serait une étape utile dans le suivi des comportements nuisibles si d’autres mesures devaient être prises :

Il s’agit de la force exécutoire, si quelqu’un rompt un engagement de ne pas troubler l’ordre public, il y a peut-être des motifs d’appliquer quelque chose de plus lourd. (participant à l’entrevue)

Toutefois, d’autres participants doutaient davantage qu’un processus d’engagement de ne pas troubler l’ordre public puisse contribuer à lutter contre les crimes haineux. Les participants étaient de cet avis pour plusieurs raisons, notamment parce qu’ils croyaient que les personnes qui s’adonnent à des discours haineux en ligne trouveraient des façons de le faire, peu importe l’engagement de ne pas troubler l’ordre public, et qu’ils ne croyaient pas que le système de justice canadien prendrait au sérieux les discours haineux contre les peuples autochtones.

Les gens avaient encore ces rassemblements pour haine avant Internet. Qu’est-ce qui vous fait croire qu’ils ne trouveront pas de moyen de contourner le problème? Ou trouver un moyen de le déguiser? Je pense qu’ils pourraient essayer et cela pourrait aider, mais si ces gens sont désireux et croient vraiment en ce qu’ils font, ils vont trouver un moyen, réglementé ou non et c’est assez effrayant. (participant à l’entrevue)

Lorsque le système de justice canadien n’a jamais traité les peuples autochtones de façon équitable, il est difficile d’avoir confiance dans le processus. (participant à l’entrevue)

Bref, les participants étaient ouverts à l’idée d’un processus d’engagement de ne pas troubler l’ordre public pour prévenir la propagande haineuse et les infractions motivées par la haine, mais, pour plusieurs raisons, certains ont également estimé que ce processus était à lui seul un pas en avant trop petit.

Crimes et discours haineux

Bien qu’il y ait eu un certain soutien, plusieurs participants étaient sceptiques quant à l’utilité d’un processus de plainte pour discours haineux dans la Loi canadienne sur les droits de la personne comme mesure supplémentaire et complémentaire pour lutter contre les discours haineux en ligne :

D’après mon expérience personnelle avec le Tribunal des droits de la personne, il n’apporte pas de représailles suffisantes aux victimes. (participant à l’entrevue)

Cette citation souligne la nécessité d’intégrer les victimes de préjudices en ligne dans toute approche pour lutter contre les préjudices en ligne et pour s’assurer qu’elles reçoivent un soutien adéquat et adapté à leur culture.

Néanmoins, d’autres participants ont estimé qu’un processus de plainte pour discours haineux dans la Loi canadienne sur les droits de la personne pourrait être utile pour lutter contre les discours haineux en ligne.

Cela n’arrêtera pas tout le monde, mais cela aidera à limiter certaines occurrences. Tout ce qui peut aider à prévenir les récidives est utile. (participant à l’entrevue)

Cela serait important et utile, mais il est également important que ce processus soit utile avec un soutien culturel pour les personnes qui ont été victimes de violence en ligne. Nous devons nous assurer qu’ils ne sont pas traumatisés à nouveau et à ce que le processus puisse être un processus de guérison après ce qu’ils ont vécu. (participant à l’entrevue)

Encore une fois, les participants ont indiqué clairement que toute mesure prise pour introduire un processus de plainte pour discours haineux dans la Loi canadienne sur les droits de la personne devait tenir compte des besoins de la victime d’une manière qui soit adaptée à la culture. Un participant a suggéré qu’« une bonne façon d’essayer de régler ce problème est de tenir compte des suggestions du rapport sur les FFADA » (participant à l’entrevue). Les appels à la justice du rapport final de l’Enquête nationale sur les femmes et les filles autochtones disparues et assassinées sont particulièrement pertinents dans les appels à la justice 5.6 ii, qui stipulent :

Cet appel à la justice fait écho à un appel à l’action semblable (40) dans le rapport final de la Commission de vérité et réconciliation du Canada, qui stipule que « tous les ordres de gouvernement, en collaboration avec les peuples autochtones, doivent créer des programmes et des services suffisamment financés et faciles d’accès destinés expressément aux victimes autochtones, ainsi que des mécanismes d’évaluation appropriés. » (appels à l’action de la CVR, 2015, 5) Compte tenu de cela, il est nécessaire de fournir un soutien adéquat aux victimes en signalant les préjudices qu’elles ont pu subir en ligne.

Déclaration aux organismes d’application de la loi

Les participants ont exprimé des opinions mitigées sur la question de savoir si les services en ligne devraient être tenus de rapporter du contenu qui, selon eux, constitue une preuve d’infraction pénale aux organismes d’application de la loi. Beaucoup ont estimé que le fait d’exiger que les services en ligne fassent rapport aiderait à fournir les preuves nécessaires à d’autres poursuites, en particulier dans les cas de traite de personnes, de violence sexuelle ou d’exploitation de mineurs : « Bien sûr. Il devrait s’agir d’une preuve, 100 % » (participant à l’entrevue). En général, les participants étaient plus favorables à l’obligation de rendre compte aux organismes d’application de la loi lorsqu’il s’agissait d’un partage non consensuel d’images intimes ou de CESE : « Oui, surtout si c’est des choses comme l’exploitation des enfants et le partage non consensuel de photos intimes » (participant à l’entrevue).

De plus, beaucoup ont estimé que le fait de rendre obligatoire la présentation de preuves aux organismes d’application de la loi aiderait à prévenir les récidives :

Surtout s’il s’agit de prédateurs en ligne qui ont déjà eu des problèmes. J’ai vu tellement de cas par ici de gens bizarres essayant de ramasser une fille ou autre chose et ils ne sont déjà pas censés être sur Facebook, mais comme je l’ai dit, ils peuvent simplement créer un nouveau compte et un nouveau nom. Je pense vraiment qu’ils devraient être plus attentifs à cela parce que ces gars-là essaient toujours de courtiser de jeunes filles et vous vous demandez comment vous ne les voyez pas techniquement sur Facebook ou ailleurs. Mais s’ils l’ont déjà fait, ils devraient être dénoncés ou surveillés, au moins.

À l’inverse, certains participants craignaient que le partage de ces renseignements avec les organismes d’application de la loi ne conduise à criminaliser davantage certaines personnes autochtones ou racialisées.

La [déclaration obligatoire] donne l’occasion aux Autochtones et aux personnes racialisées d’être encore plus criminalisés en vertu du droit canadien. (participant à l’entrevue)

La plupart des participants ont clairement indiqué qu’ils voulaient voir des occasions pour les gens d’apprendre de leurs erreurs, au lieu de se contenter de criminaliser. Ils voulaient que ces possibilités soient conformes aux conceptions autochtones traditionnelles de la justice réparatrice.

Ce qui est considéré comme criminel en vertu du droit occidental ne peut pas nécessairement être criminel aux yeux des nations souveraines. (participant à l’entrevue)

De plus, les participants ont également estimé que bon nombre des problèmes auxquels les peuples autochtones étaient confrontés sont causés par un manque fondamental de connaissances et de compréhension des questions autochtones par les peuples non autochtones.

Un manque d’éducation sur les questions autochtones perpétue les malentendus en ligne. (participant à l’entrevue)

C’est [un engagement de ne pas troubler l’ordre public] une excellente idée si l’on vous permet de vous instruire sur ce que vous avez fait de mal. Sans possibilité d’apprendre, elle risque de pousser encore plus loin la radicalisation vers la haine. (participant à l’entrevue)

De nombreux participants ont estimé que le gouvernement fédéral avait la responsabilité de créer des possibilités d’apprentissage pour ceux qui se livrent à des comportements racistes en ligne :

Les gens devraient avoir la possibilité de devenir une meilleure personne et de ne pas être mis dans le même sac pour la vie. (participant à l’entrevue)

Si cela mène à l’éducation, à la réforme et à la justice réparatrice et pas seulement à la criminalisation. (participant à l’entrevue)

De nombreux participants s’intéressaient à un système dans lequel ceux qui avaient participé à des activités haineuses en ligne auraient la possibilité de suivre une formation au lieu de s’engager immédiatement dans le système de justice pénale. En fin de compte, les participants ont clairement indiqué que le gouvernement devrait adopter une approche plus préventive, plutôt qu’axée sur l’intervention, qui accorde la priorité aux expériences vécues par les peuples autochtones et offre des possibilités de croissance et de changement pour tous les Canadiens.

Conclusion et recommandations

Ce rapport donne un aperçu de la discussion lors d’un groupe de discussion en ligne et d’entrevues individuelles, qui a mobilisé un total de 25 participants autochtones de partout au Canada entre novembre 2022 et janvier 2023. Le rapport explore les expériences des peuples autochtones en ligne, en se concentrant spécifiquement sur les questions entourant la nécessité d’une approche axée sur les Autochtones, les plateformes les plus nuisibles, la priorité de protéger les plus vulnérables, l’identification et l’atténuation des préjudices potentiels, l’organisme de réglementation de la sécurité en ligne, les engagements de ne pas troubler l’ordre public et les crimes haineux et les discours haineux.

Tout au long du processus de recherche, les participants ont formulé un certain nombre de recommandations qui aideraient à identifier, à atténuer et à prévenir les préjudices auxquels les peuples autochtones font face en ligne. Celles-ci sont partagées ci-dessous.

  1. Nouvel organisme de réglementation ou commissaire : Les participants étaient préoccupés par l’étendue de l’expertise et des difficultés excessives qui pourraient être causées aux peuples autochtones si les connaissances du commissaire sur les communautés autochtones s’avéraient insuffisantes. Ils ont recommandé ce qui suit :
    1. Le nouvel organisme de réglementation et son personnel doivent être formés sur les questions et les expériences vécues qui touchent les communautés autochtones, y compris les traumatismes intergénérationnels.
    2. Le nouvel organisme de réglementation doit rester indépendant du gouvernement, afin d’éviter toute influence ou ingérence.
    3. Il devrait y avoir un groupe de commissaires avec une représentation autochtone diversifiée, au lieu d’un commissaire, pour aider à atténuer les problèmes potentiels de partialité.
  2. Sanctions administratives pécuniaires et leur utilisation : De nombreux participants, en particulier ceux du groupe de discussion, craignaient que si des sanctions pécuniaires étaient perçues sur des plateformes en ligne qui refusaient de respecter les normes de sécurité, l’argent ne soit pas réinvesti dans les collectivités qui avaient subi des préjudices. Les participants ont recommandé que les collectivités décident de ce qu’il faut faire avec les sanctions pécuniaires perçues et qu’elles soient directement investies dans les collectivités, en mettant l’accent sur les programmes de guérison pour les victimes.
  3. Besoin d’avertissements et de conditions en langage clair : Des inquiétudes ont été exprimées au sujet d’avertissements détaillant les risques de participation à des forums en ligne ou à des activités sociales pour les utilisateurs de médias sociaux concernant des contenus illégaux, abusifs ou explicites. Les participants ont reconnu que les plateformes Internet exigent des utilisateurs qu’ils signent les modalités avant de s’inscrire, mais ils ont expliqué que la langue officielle et le volume de texte signifiaient que la plupart des utilisateurs ne les lisent pas. Les participants ont donc recommandé que les avertissements soient simples et en langage clair ou qu’ils prennent la forme d’une vidéo obligatoire à visionner avant l’inscription.
  4. Déclaration obligatoire aux organismes d’application de la loi : De nombreux participants se sont dits préoccupés par le fait que certaines mesures proposées pour lutter contre les préjudices en ligne, en particulier la déclaration obligatoire aux organismes d’application de la loi, pourraient mener à la criminalisation des peuples autochtones, un groupe démographique déjà surreprésenté dans le système de justice pénale (Canada, Recherches et données du ministère de la Justice, 2019). Néanmoins, les participants ont estimé que le fait d’exiger des services en ligne qu’ils fassent rapport aux organismes d’application de la loi pourrait aider à fournir les preuves nécessaires pour poursuivre les poursuites, en particulier dans les cas de traite de personnes, de violence sexuelle ou d’exploitation de mineurs. Toutefois, étant donné le risque que la déclaration obligatoire puisse causer d’autres dommages aux communautés autochtones, il est recommandé que la justice réparatrice, axée spécifiquement sur les approches traditionnelles autochtones de la justice, soit privilégiée dans tous les aspects de toute législation sur la sécurité en ligne concernant les peuples autochtones.
  5. Soutien aux victimes : Les participants ont exprimé le souhait que davantage soit fait pour soutenir les victimes autochtones de préjudices en ligne. En ce qui concerne l’appel à la justice 5.6 ii dans le Rapport final de l’Enquête nationale sur les femmes et les filles autochtones disparues et assassinées et l’appel à l’action 40 dans le Rapport final de la Commission de vérité et réconciliation du Canada à titre indicatif, il est recommandé que le gouvernement travaille avec les communautés autochtones pour fournir un soutien holistique et culturellement pertinent aux victimes de préjudices en ligne.
  6. Éducation et alphabétisation numérique : Les participants ont souligné l’importance de l’éducation comme outil de prévention lorsqu’il s’agit de préjudices en ligne, particulièrement en ce qui concerne les aînés autochtones. Ils ont recommandé que le gouvernement fournisse un soutien et un financement aux communautés autochtones pour qu’elles entreprennent des séances et des campagnes d’éducation visant à éduquer les membres de la communauté sur la sécurité en ligne et à mettre l’accent sur les campagnes d’éducation dans les écoles et pour les aînés. Ils ont également recommandé que le Gouvernement collabore avec les communautés autochtones pour lancer des campagnes médiatiques, qui seraient diffusées à la télévision, à la radio et en ligne, afin d’éduquer les populations autochtones sur la sécurité en ligne, en veillant à ce que tous les documents soient disponibles dans les langues autochtones.
  7. Comprendre les cultures autochtones : De nombreux participants ont indiqué que le manque de compréhension des cultures autochtones signifiait parfois que le contenu qui n’était pas préjudiciable était signalé et retiré des sites de médias sociaux. Cette préoccupation a été fréquemment citée en relation avec la suppression de tout message mentionnant la vente de produits issus de la chasse au phoque, une pratique durable pratiquée par les Inuits depuis des milliers d’années et qui est vitale pour leur subsistance (CIC s. d.). Les participants ont donc suggéré que toutes les grandes plateformes Internet devraient être tenues d’avoir un analyste ou un comité autochtone pour éviter de tels malentendus.
  8. Navigateur de systèmes pour les victimes : Certains participants ont exprimé les difficultés qu’ils éprouvaient, ou celles qu’ils connaissaient, à essayer de faire retirer des images intimes non consensuelles (pornographie vengeresse) des plateformes internationales. Ils ont recommandé que le gouvernement aide les victimes de pornographie vengeresse sur les plateformes internationales en leur fournissant un navigateur de systèmes pour les défendre et les guider tout au long du processus de retrait de ces images des plateformes internationales.
  9. Définition claire des termes : Les participants ont fait remarquer que certains des termes utilisés dans les documents d’accompagnement pour ce projet devaient être définis plus clairement. Ils ont recommandé que tous les termes liés à la loi sur la sécurité en ligne et à son application soient plus clairement définis afin d’éviter les problèmes potentiels d’interprétation erronée.
  10. Conséquences proportionnelles de l’engagement avec le CESE : Les participants ont souligné la vulnérabilité accrue de nombreux jeunes autochtones. Ils ont recommandé de prévoir des sanctions plus sévères et plus proportionnées dans les cas d’utilisation de CESE ou de tout matériel d’exploitation, et que la législation mette l’accent sur la prévention ainsi que sur les mesures punitives et correctives en cas de crimes ou d’infractions. Cela n’est pas directement du ressort de ce projet de recherche ni de la législation en vigueur. Néanmoins, il s’agissait d’un thème majeur pour les participants, en particulier ceux du groupe de discussion. Il est donc essentiel qu’il soit inclus.

Les commentaires recueillis au cours de la table ronde et des entrevues ont fourni des renseignements et des points de vue précieux sur ce que les Autochtones du groupe de discussion et les entrevues espèrent voir inclus dans la législation future. Patrimoine canadien s’inspirera de l’information recueillie lors de la table ronde et des entrevues pour élaborer des politiques et des lois. Conformément à sa lettre de mandat, le ministre du Patrimoine canadien continue de travailler au dépôt du projet de loi le plus tôt possible.

Références

© Sa Majesté le Roi du chef du Canada, représenté par le ministre de [appellation légale du ministère], [année de publication]
No. de catalogue : XX0-0/0000
ISSN : 0-000-00000-0

Détails de la page

Date de modification :