Questions et réponses – Haine en ligne
Sur cette page
- Thème 1 : Engagements de mandat
- 1. Quel est le but de l’adoption de nouvelles dispositions législatives?
- 2. Pourquoi le gouvernement présente-t-il de nouveaux projets de loi?
- 3. Pourquoi proposez-vous ce projet de loi maintenant? Ne devrions-nous pas nous concentrer sur la pandémie de la COVID-19?
- 4. Quels engagements pangouvernementaux le nouveau projet de loi pourrait-il respecter?
- 5. Pourquoi un nouveau cadre législatif et réglementaire est-il nécessaire pour traiter les contenus nocifs dans les médias sociaux?
- 6. Comment assurerez-vous que tout nouvel cadre réglementaire est exempt de racisme systémique?
- 7. Les plateformes, les groupes de victimes, les partis politiques ou les provinces ont-ils été consultés au sujet du nouveau projet de loi?
- 8. Comment le nouveau projet de loi se rapporte-t-il au programme stratégique plus vaste du gouvernement concernant l’Internet et les grandes plateformes technologiques?
- Thème 2 : Cadre réglementaire
- 9. Quels genres d’exigences seront imposées aux plateformes de médias sociaux?
- 10. Quels types de contenus nocifs seront réglementés?
- 11. Quelles plateformes de médias sociaux seront soumises à la réglementation?
- 12. Comment les nouvelles exigences relatives aux plateformes de médias sociaux réglementées seront-elles appliquées?
- Thème 3 : Répercussions
- 13. Quels seront les avantages du nouveau projet de loi? Qu’en est-il des limitations?
- 14. Que signifie le nouveau projet de loi pour les utilisateurs de médias sociaux au Canada?
- 15. Comment le cadre réglementaire interagira-t-il avec les politiques et les procédures déjà mises en œuvre par les plateformes de médias sociaux?
- 16. Quelles répercussions auront les nouvelles dispositions législatives et réglementaires applicables aux médias sociaux quant à la liberté d’expression?
- 17. Comment le nouveau projet de loi se compare-t-il aux initiatives semblables dans d’autres pays?
- 18. Combien de temps faudra-t-il pour que de nouvelles dispositions législatives comme celles-ci entrent en vigueur?
Thème 1 : Engagements de mandat
1. Quel est le but de l’adoption de nouvelles dispositions législatives?
Le projet de loi en cours d’élaboration établirait un nouveau cadre réglementaire pour les plateformes de médias sociaux en vue de les rendre plus transparents, responsables et réceptifs dans la lutte contre la propagation de contenus néfastes.
Dans ce cadre, les plateformes de médias sociaux seraient tenues de supprimer les catégories de contenus néfastes décrits dans les dispositions législatives. L’un des principaux objectifs du cadre est de créer un environnement propice dans lequel tous les Canadiens peuvent participer à une vie publique en ligne sans honte, sans menace ou sans crainte. En même temps, le cadre vise également à faire en sorte que les Canadiens aient accès aux outils et aux mécanismes de recours pour signaler les abus et obtenir une réparation lorsqu’ils traitent en ligne.
2. Pourquoi le gouvernement présente-t-il de nouveaux projets de loi?
L’environnement en ligne amplifie et propage un contenu qui fait la promotion des idéologies haineuses et extrémistes et cause des préjudices aux victimes de crimes graves. Le préjudice causé par la prolifération ce type de contenu en ligne touche tous les Canadiens, surtout les communautés en quête d’équité, et limite leur capacité de s’exprimer en ligne sans crainte. L’expérience de ces préjudices en ligne est bien documentée et connue.
Contenu haineux en ligne contre les peuples autochtones
Par exemple, les événements récents soulignent à quel point les peuples autochtones sont confrontés à ce genre de haine, ce qui comprend des contenus racistes, dérogatoires et menaçants. L’assassinat de Colten Boushie en 2016 a vu les médias sociaux inondés de commentaires haineux ciblant M. Boushie et ses amis. En 2018, deux femmes de Flin Flon, au Manitoba, ont été accusées de proférer des menaces et d’inciter à la haine après avoir affiché des photos d’une voiture vandalisée, indiquant que des Autochtones seraient assassinés et appelant à une journée [Traduction] « abattre un Indien ». En 2020, deux groupes ethnonationalistes appelés les « Proud Boys » (gars fiers) et les « Sons of Odin » (fils d’Odin) ont utilisé les médias sociaux pour menacer et attaquer des membres de la communauté Wet’suwet’en pendant les manifestations contre le pipeline. Les données de Statistique Canada indiquent que les crimes haineux signalés par la police contre les peuples autochtones sont à la hausse : entre 2016 et 2018, les incidents visant les communautés des Premières Nations, des Métis ou des Inuits ont augmenté de 17 % (passant de 30 à 35).
Violence et haine idéologiques
Les groupes terroristes et les extrémistes violents utilisent les plateformes de médias sociaux pour diffuser la propagande, recruter, organiser et inciter à la violence, et certains extrémistes violents encouragent et incitent à la haine contre des groupes identifiables, conformément aux définitions prévues dans le Code criminel. En juin 2020, l’Institute for Strategic Dialogue a publié un rapport sur l’extrémisme de droite au Canada, qui recensait 6 660 canaux, pages, groupes et comptes extrémistes de droite sur 7 plateformes de médias sociaux qui ont atteint plus de 11 millions utilisateurs. Depuis 2014, des Canadiens inspirés en tout ou en partie par leurs opinions extrêmes ont assassiné 21 personnes et blessé 41 personnes au Canada. Cela inclut la fusillade à Moncton en 2014 (violence anti-autorité), l’attaque par véhicule-bélier de 2014 de Saint-Jean-sur-Richelieu (extrémisme violent motivé par la religion), l’attaque par piétinement de 2015 à Edmonton (violence fondée sur le genre, violence « incel »), la fusillade dans une mosquée de Québec en 2017 (violence ethnonationaliste), l’attaque par fourgonnette de 2018 à Toronto et l’agresseur présumé de parloirs de massage de la RGT (violence incel), l’incident à Sudbury en 2019 où une mère et un bébé ont été poignardés (violence incel), l’incident en 2020 dans la RGT où une personne a été poignardée dans un parloir de massage (violence incel).
Exploitation sexuelle des enfants
L’exploitation sexuelle et la violence sexuelle des enfants, qui peuvent prendre la forme de la création, de la consommation et du partage de matériel montrant l’exploitation sexuelle des enfants, du leurre d’enfants et de la préparation des enfants, sont peut-être l’un des préjudices les plus flagrants qui se manifestent en ligne. Les délinquants cherchent toujours de nouvelles façons d’exploiter les enfants à mesure que la technologie évolue. Les organismes canadiens d’application de la loi ont constaté une hausse spectaculaire du nombre de cas d’exploitation sexuelle d’enfants sur Internet ayant été signalés au cours des dernières années. En 2019, la Gendarmerie royale du Canada (GRC) a enregistré une augmentation de 1 106 % du nombre de cas signalés par rapport à 2014 (c.-à-d., de 8 535 à plus de 102 000 par année). Cette exploitation touche de manière disproportionnée les filles. En 2019, la GRC a constaté que les filles représentaient 62 % des victimes canadiennes identifiées dans le matériel d’exploitation sexuelle des enfants en ligne. Un examen récent par le Centre canadien de protection de l’enfance (CCPE) a révélé que 80 % des victimes semblaient être des femmes et que 78 % des images examinées affichaient des enfants de moins de 12 ans.
La haine fondée sur le genre
Les contenus néfastes dans les médias sociaux sont également souvent propres au genre : un sondage réalisé en 2017 par Amnesty International dans huit pays à revenu élevé a révélé que 23 % des femmes âgées de 18 à 55 ans avaient été victimes d’au moins une forme de harcèlement ou de violence sur les plateformes de médias sociaux. Plus récemment, une étude de 2020 effectuée par Plan International a révélé que 58 % des filles interrogées dans 22 pays avaient été victimes de harcèlement ou de violence lors de l’utilisation des médias sociaux.
3. Pourquoi proposez-vous ce projet de loi maintenant? Ne devrions-nous pas nous concentrer sur la pandémie de la COVID-19?
La pandémie du COVID-19 n’a fait qu’exacerber ces problèmes. Il y a eu une augmentation documentée des préjudices en ligne liés à la COVID-19, y compris le racisme, les crimes haineux et le harcèlement verbal et physique. Par exemple, dans un sondage de juin 2020, près de 30 % des Canadiens chinois ont déclaré avoir été exposés à des messages ou graffitis racistes dans les médias sociaux depuis le début de la pandémie. De même, les communautés juives ont été exposées à l’antisémitisme en ligne par des théories du complot et des déclarations accusant les juifs et Israël d’avoir fabriqué le virus.
Il est également clair que les Canadiens recherchent une intervention du gouvernement dans ce domaine. Un récent sondage commandé par la Fondation canadienne des relations raciales a révélé que plus de 90 % des Canadiens estiment que la haine et le racisme en ligne constituent un problème, et que 60 % estiment que le gouvernement fédéral devrait faire davantage pour empêcher la propagation de comportements haineux et racistes en ligne. Il convient de noter que, d’une marge de 2 à 1, les Canadiens s’inquiètent davantage des préjudices causés par les discours de haine et le racisme plutôt que des limites à la liberté d’expression ou à la protection de la vie privée.
Enfin, les responsables des plateformes de médias sociaux ont démontré qu’ils n’agiraient pas de manière assez agressive pour faire face à ces préjudices. Au contraire, ils ont constamment démontré qu’ils ne le font souvent que lorsqu’il convient à leurs propres intérêts. Par conséquent, il est urgent de veiller à ce que ces entreprises jouent un rôle actif, cohérent et transparent dans le soutien de l’intérêt public et l’élimination du contenu nocif et illégal de leurs plateformes.
4. Quels engagements pangouvernementaux le nouveau projet de loi pourrait-il respecter?
Le projet de loi en cours d’élaboration respecterait mon engagement dans ma lettre de mandat de créer de nouveaux règlements pour les plateformes de médias sociaux, en commençant par exiger que toutes les plateformes éliminent le contenu illégal, y compris le discours haineux, dans les 24 heures. Cela devrait inclure d’autres préjudices en ligne tels que la radicalisation, l’incitation à la violence, l’exploitation des enfants ou la création ou la diffusion de propagande terroriste.
Il appuierait également les principes relatifs au cadre stratégique numérique du Canada en vertu de la Charte numérique, en diminuant l’ampleur du contenu nocif sur les plateformes de médias sociaux et en assurant une application rigoureuse et la responsabilisation en cas de violation des lois et règlements qui appuient les principes de la Charte. De plus, le projet de loi appuierait les engagements globaux pris dans le discours du Trône de 2020.
En outre, les mesures prises répondraient également aux recommandations formulées par le Comité permanent de la justice et des droits de la personne dans son rapport de 2019 intitulé « Agir pour mettre fin à la haine en ligne » et répondraient aux engagements clés de l’appel de Christchurch pour supprimer les contenus terroristes et extrémistes violents en ligne.
5. Pourquoi un nouveau cadre législatif et réglementaire est-il nécessaire pour traiter les contenus nocifs dans les médias sociaux?
Les cadres législatifs et réglementaires actuels du Canada ne sont pas en mesure de s’attaquer de façon significative à la prolifération de contenus nocifs en ligne. Les lois en vigueur, y compris le Code criminel et la loi sur la déclaration obligatoire, sont étroitement ciblées et ne peuvent être appliquées que par l’intermédiaire du système judiciaire.
Le projet de loi en cours d’élaboration comblerait cette lacune en créant un nouvel organisme de réglementation chargé d’administrer, de superviser et d’appliquer les nouvelles exigences législatives visant à rendre la déclaration, la surveillance et la modération des contenus nocifs transparents, rapides, efficaces et exhaustifs.
6. Comment assurerez-vous que tout nouvel cadre réglementaire est exempt de racisme systémique?
Éliminer le racisme systémique est très difficile. Je pense qu’il est utile de se souvenir de la phrase d’Angela Davis : « Dans une société raciste, il ne suffit pas d’être non raciste, il faut être antiraciste. »
Nous ne pouvons pas simplement lire une liste de contrôle et dire : « D’accord, nous l’avons fait, nous ne sommes pas racistes. » Nous devons nous fixer des objectifs d’équité, en ce qui concerne des résultats et des rapports, et nous devons surveiller et examiner continuellement et activement ces objectifs et travailler à l’amélioration de nos progrès. Tout nouvel cadre réglementaire aurait ces objectifs.
7. Les plateformes, les groupes de victimes, les partis politiques ou les provinces ont-ils été consultés au sujet du nouveau projet de loi?
Au cours des derniers mois, des fonctionnaires de mon ministère et moi-même avons consulté des intervenants d’organisations de la société civile et du secteur de la technologie numérique, qui ont inclus plusieurs tables rondes. En 2020, le secrétaire parlementaire du ministre de la Justice et du ministère de la Justice a également tenu des consultations avec les intervenants au sujet des recours judiciaires pour les victimes de haine en ligne.
J’ai tenu quatre tables rondes avec des experts universitaires et techniques, des groupes en quête d’équité et des groupes de défense, des communautés autochtones, l’industrie, des groupes de réflexion et des plateformes. Le secrétaire parlementaire du ministre du Patrimoine canadien a tenu une table ronde avec de nombreux intervenants et des consultations approfondies avec le caucus du Parti libéral, afin de recueillir des points de vue de tous les coins. Le secrétaire parlementaire du ministre de la Justice a également tenu de vastes consultations avec des organisations communautaires, des groupes de défense des droits, des policiers, des procureurs et des universitaires sur les discours de haine et les contenus nocifs en ligne.
8. Comment le nouveau projet de loi se rapporte-t-il au programme stratégique plus vaste du gouvernement concernant l’Internet et les grandes plateformes technologiques?
Le projet de loi en cours d’élaboration permettrait de faire progresser bon nombre des buts et principes que le gouvernement a définis aux fins de la politique numérique et Internet dans la Charte canadienne du numérique, à savoir :
- Soutenir une démocratie forte en défendant la liberté d’expression et en supprimant les contenus nocifs en ligne qui sapent la cohésion sociale et l’intégrité de nos institutions démocratiques.
- Veiller à ce que les utilisateurs soient libres de la haine et de l’extrémisme violent en instaurant des règlements exigeant des plateformes qu’elles suppriment et ne permettent plus la diffusion de la haine, de l’extrémisme violent ou du contenu criminel.
- Assurer une application rigoureuse et une responsabilisation réelle en créant un régime d’application pour assurer la conformité des plateformes aux règlements et en instaurant de nouvelles mesures de transparence pour s’assurer que les plateformes sont tenues de rendre compte de leurs décisions.
Thème 2 : Cadre réglementaire
9. Quels genres d’exigences seront imposées aux plateformes de médias sociaux?
Les Canadiens peuvent s’attendre à des obligations qui s’inspirent d’un cadre semblable dans des pays comparables, et qui pourraient comprendre :
- l’obligation de supprimer du contenu ciblé de leurs services;
- les exigences visant à établir des outils de modération de contenu efficaces et faciles à utiliser pour les utilisateurs;
- les obligations de transparence pour les plateformes de signaler les contenus nocifs et la manière dont elles les traitent.
10. Quels types de contenus nocifs seront réglementés?
Les Canadiens peuvent s’attendre à ce que toute nouvelle disposition législative s’applique aux catégories de contenu nocif décrites dans ma lettre de mandat : Discours de haine; contenu d’exploitation sexuelle des enfants; contenu terroriste; contenu qui incite à la violence; et des images intimes partagées sans consentement.
Ils peuvent aussi s’attendre à ce que notre approche de sélection des types de contenu à réglementer soit ancrée dans le droit pénal canadien. Ces catégories ont été sélectionnées, car elles représentent les catégories de contenus nocifs les plus pernicieuses qui, dans l’ensemble, peuvent être facilement déterminées et intégrées dans un nouveau cadre législatif et réglementaire qui respecte la liberté d’expression.
11. Quelles plateformes de médias sociaux seront soumises à la réglementation?
Nous avons l’intention d’être très clairs dans les dispositions législatives quant à savoir qui sera assujetti aux nouvelles règles.
Les Canadiens peuvent s’attendre à ce que nous réglementions les grands services que les Canadiens associent intuitivement aux « plateformes de médias sociaux », comme Facebook, YouTube et Twitter.
Ils peuvent également s’attendre à ce que nous réglementions les plateformes où l’exploitation sexuelle des enfants et le partage d’images intimes sans consentement sont plus susceptibles de se produire, comme Pornhub.
12. Comment les nouvelles exigences relatives aux plateformes de médias sociaux réglementées seront-elles appliquées?
Un nouvel organisme de réglementation devra être identifiée qui serait chargé d’administrer et de superviser le cadre, de promouvoir et d’appliquer la conformité.
Thème 3 : Répercussions
13. Quels seront les avantages du nouveau projet de loi? Qu’en est-il des limitations?
Il y a un certain nombre d’avantages associés au projet de loi que nous élaborons, dont la première est une réduction des contenus nocifs en ligne – et, avec elle, une augmentation de l’expression inclusive et sûre et de la participation à la vie numérique par ceux qui sont marginalisés en raison de contenus nocifs.
Le projet de loi entraînerait également une augmentation considérable de renseignements et de rapports sur la façon dont les plateformes de médias sociaux mènent leurs affaires en matière de contenus nocifs. Cela aiderait à élaborer de meilleures recherches, pratiques et surveillance de la façon dont le contenu nocif est géré.
Bien sûr, nous devons être clairs sur le fait que ce projet de loi ne viserait pas l’ensemble des préjudices en ligne, qui comprennent l’intimidation, le harcèlement et d’autres comportements [Traduction] « horribles, mais légitimes ». Il s’agit de véritables limitations, mais soyez assurés que nous prenons des mesures progressives pour faire face aux contenus nocifs en ligne.
En outre, dans certains cas, la législation et la réglementation ne sont peut-être pas le mécanisme le plus utile pour lutter contre les préjudices en ligne. Dans certaines situations, d'autres interventions peuvent être plus appropriées.
Prenons l'exemple de l'Initiative de citoyenneté numérique (ICN) du ministère du Patrimoine canadien, qui vise à renforcer la résilience des citoyens en offrant des programmes et des recherches sur la désinformation et la mésinformation. Dans le cadre de ses activités, elle finance des activités et des recherches axées sur les citoyens afin d'obtenir des résultats concrets, comme la lutte contre le racisme et la désinformation liés au COVID, qui touchent les communautés asiatiques de Toronto; elle dirige l'élaboration de politiques et la collaboration en matière de mésinformation et de désinformation, de contenu en ligne préjudiciable et de gouvernance des plateformes entre la société civile, le monde universitaire et les partenaires gouvernementaux ; et elle contribue au niveau international aux principes de diversité du contenu en ligne. Toute législation ou réglementation que nous ferions progresser s'appuierait sur ces activités pour compléter et amplifier leurs avantages.
Il faut également tenir compte du fait que, dans un certain nombre de cas, la lutte contre les contenus préjudiciables en ligne implique de faire face à des contenus illégaux par nature. Dans ces cas, l'application de la loi jouera un rôle important, en plus de toute législation ou réglementation que nous pourrions proposer.
14. Que signifie le nouveau projet de loi pour les utilisateurs de médias sociaux au Canada?
L’un des principaux objectifs du projet de loi en cours d’élaboration consiste à s’assurer que les utilisateurs des plateformes de médias sociaux réglementées au Canada disposent des outils dont ils ont besoin pour signaler les contenus nocifs des catégories visées, pour comprendre comment les plateformes modèrent ces contenus. De nouvelles obligations de transparence pour les plateformes réglementées permettraient aux utilisateurs de mieux comprendre le volume et les répercussions du contenu des catégories ciblées, ce qui leur permettrait de prendre des décisions plus éclairées sur la façon et l’endroit où ils participent en ligne.
15. Comment le cadre réglementaire interagira-t-il avec les politiques et les procédures déjà mises en œuvre par les plateformes de médias sociaux?
Le Gouvernement reconnaît les mesures déjà prises par certaines entreprises de médias sociaux pour atténuer et prévenir la prolifération de contenus nocifs sur leurs plateformes. Les plateformes qui sont déjà actives dans la modération de contenu nocif sur leurs services feraient reconnaître ce travail, avec des exigences définies pour améliorer leurs processus de modération de contenu existants.
16. Quelles répercussions auront les nouvelles dispositions législatives et réglementaires applicables aux médias sociaux quant à la liberté d’expression?
Toute disposition législative qui réglementerait la façon dont les plateformes de médias sociaux modéraient le contenu – et qui les obligerait à supprimer certains types de contenu – met en cause la liberté d’expression des plateformes de médias sociaux et de leurs utilisateurs conformément à la garantie prévue à l’alinéa 2b) de la Charte canadienne des droits et libertés. Mes yeux sont ouverts à ce fait.
Le projet de loi que nous élaborons ne viserait pas à compromettre la liberté d’expression pour soutenir la sécurité de nos citoyens. En fait, ces deux valeurs se renforcent mutuellement. Notre approche permettrait de trouver un juste équilibre entre la protection de l’expression sur un Internet ouvert et la prévention des préjudices sur un Internet plus sûr. Ce faisant, il favoriserait un environnement en ligne plus sécuritaire pour que les Canadiens puissent s’exprimer librement. Plus les gens se sentiront en sécurité grâce à ces formes de contenu en ligne les plus pernicieuses, plus ils pourront s’exprimer ouvertement.
Compte tenu des sensibilités en jeu, nous prendrions des mesures claires et intentionnelles pour veiller à ce que toute limitation de l’expression soit raisonnable et proportionnée. Par exemple, les dispositions législatives et réglementaires en cours d’élaboration se limiteraient aux catégories de contenu nocif qui sont ancrées dans le Code criminel et la jurisprudence connexe – dont une grande partie, en d’autres termes, est déjà illégale. Et nous serions très, très prudents de mettre en place des garanties procédurales pour protéger les utilisateurs contre une censure déraisonnable, injustifiée ou disproportionnée.
17. Comment le nouveau projet de loi se compare-t-il aux initiatives semblables dans d’autres pays?
Nous avons bénéficié de l’analyse des expériences de pays aux vues similaires qui ont pris des mesures au cours des dernières années, notamment l’Australie, la France, le Royaume-Uni et la Commission européenne.
Compte tenu de la prolifération mondiale des préjudices en ligne et du consensus mondial selon lequel l’autorégulation ne fonctionne pas, les alliés et les pays aux vues similaires ont entrepris différentes méthodes pour s’attaquer aux préjudices en ligne.
Nous examinons ce que le Canada peut apprendre et adopter de ces pays. En France et en Allemagne, on observe des approches caractérisées par des exigences élevées pour les plateformes de médias sociaux de supprimer de vastes catégories de contenus dans de courtes périodes de temps définies avec des définitions générales. En Australie, au Royaume-Uni et sous la Commission européenne nous voyons des approches qui soulignent également l’importance des mesures visant à améliorer la transparence et la responsabilité des plateformes en matière de prise de décisions. En outre, ces approches soulignent les avantages des mécanismes non réglementaires, notamment la création de partenariats et la poursuite de la collaboration avec les plateformes, les organisations de la société civile et les utilisateurs. Nous faisons le point sur la façon dont ces régimes ont été mis en place et évaluons comment ils pourraient s'adapter au contexte canadien.
Dans tous les pays, nous avons noté les mérites de mettre en place une approche progressive et adaptable qui peut évoluer au fil du temps, ainsi que l'importance d’établir un organisme de réglementation doté d’une expertise particulière pour effectuer ce travail.
18. Combien de temps faudra-t-il pour que de nouvelles dispositions législatives comme celles-ci entrent en vigueur?
Nous nous sommes engagés à adopter une approche progressive, dans laquelle de nouveaux pouvoirs et de nouvelles possibilités seraient instaurés systématiquement et stratégiquement.
À l’instar des cadres réglementaires pour les préjudices en ligne instaurés dans d’autres pays, il faudrait du temps pour mettre en œuvre cette proposition. Un nouveau projet de loi devrait être déposé, débattu et adopté.
Un organisme de réglementation serait alors chargé d’élaborer d’autres détails sur la façon dont les plateformes doivent s’acquitter de leurs obligations. Cette phase devrait inclure la consultation des Canadiens et des parties prenantes concernées.
Détails de la page
- Date de modification :