Cercle de partage sur la sécurité en ligne Document d'information pour les participants

Sur cette page

Sujet

Une grande majorité d'adultes au Canada (94 %) ont un compte sur au moins une plateforme de médias sociaux. Les médias sociaux permettent de relier les gens du monde entier. Entre autres, ils offrent aux Canadiens un espace pour participer à leurs communautés et leur démocratie. Les médias sociaux offrent aussi aux activistes et aux organisations de la société civile un espace d’organisation et d’amplification des voix des communautés sous-représentées et méritant l'équité.

Cependant, il y a de plus en plus de démonstrations que les avantages associés à l'utilisation des médias sociaux et d'autres services en ligne s'accompagnent également de préjudices importants pour de nombreux utilisateurs. Ces plateformes peuvent être utilisées pour menacer et intimider des Canadiens et pour promouvoir des positions qui ciblent certaines communautés, mettant la sécurité des gens en danger, et minant la cohésion sociale ou la démocratie. La recherche constate également que malgré certains efforts, les plateformes n’en font pas assez pour limiter la propagation de ces contenus sur leurs services.

Aujourd'hui, plus que jamais, les services en ligne doivent être tenus responsables. Un sondage Nanos Research commandé par le Globe and Mail a révélé que 55 % des Canadiens sont généralement favorables à une plus grande réglementation gouvernementale de l'Internet. Les Canadiens sont préoccupés par la sécurité dans le monde en ligne et 62 % d'entre eux estiment que la haine en ligne devrait être réglementée.

Contexte - 2021 Consultation

Le gouvernement du Canada a organisé une consultation nationale en ligne de juillet à septembre 2021 sur ce à quoi pourrait ressembler un cadre législatif et réglementaire pour pallier aux préjudices en ligne. Le cadre était axé sur ce que les services réglementés (comme les plateformes de médias sociaux) pourraient être obligés de retirer et comment ils pourraient être tenus de le faire, y compris un délai spécifique à respecter.

Les commentaires reçus au cours de la consultation en ligne de 2021 ont reconnu que la majorité des répondants soutiennent un cadre législatif et réglementaire national, dirigé par le gouvernement fédéral, pour lutter contre les contenus préjudiciables en ligne. Cependant, les répondants ont identifié plusieurs préoccupations liées à la liberté d'expression, au droit à la vie privée, à l'incidence potentielle de la proposition sur certains groupes marginalisés et, plus généralement, à la conformité avec la Charte canadienne des droits et libertés.

Ces préoccupations générales étaient liées à un certain nombre d'éléments spécifiques de la proposition, notamment les obligations de modération du contenu, telles que la disposition de retrait 24 heures sur 24, et l'obligation pour les plateformes de surveiller de manière proactive leurs services pour détecter les contenus préjudiciables.

Cette réorientation a commencé par la publication, le 3 février, d'un rapport Ce que nous avons entendu qui donne un aperçu des commentaires reçus lors des consultations.

Groupe consultatif d'experts

The Le gouvernement a pris acte des préoccupations exprimées lors de la consultation de 2021 et a annoncé la formation d'un groupe consultatif d'experts le 30 mars 2022. Le groupe avait pour mandat de fournir des conseils sur la meilleure manière de concevoir le cadre législatif et réglementaire pour lutter contre le contenu préjudiciable en ligne tout en intégrant les commentaires reçus lors de la consultation nationale.

Le groupe consultatif était composé de 12 experts d’à travers le pays. Ils étaient issus de divers horizons et avaient de l'expérience sur des questions liées à la gouvernance des plateformes et à la réglementation du contenu, aux préjudices en ligne, aux libertés civiles, à la réglementation des technologies et à la sécurité nationale.

Ils ont participé à 10 sessions d'ateliers pour discuter des éléments fondamentaux d'un cadre visant à garantir que les plateformes soient plus transparentes et responsables du contenu qu'elles hébergent. Le groupe consultatif d'experts a également rencontré des représentants du Royaume-Uni, de l'Union européenne et de l'Australie afin d'apprendre et d'entendre comment des modèles similaires fonctionnent dans d'autres juridictions. Le groupe consultatif d'experts a conclu ses sessions le 10 juin 2022. Les feuilles de travail élaborées pour la discussion et les résumés des séances du groupe consultatif d'experts sont publiés sur le site Web de Patrimoine canadien.

Le groupe consultatif d'experts n'a pas été chargé de rédiger la législation elle-même. Il a fourni des conseils et des commentaires sur les éléments d'un cadre législatif et réglementaire efficace pour assurer un environnement en ligne plus transparent et responsable qui appui la participation. Ces conseils et ce retour d'information pourraient alimenter l'élaboration de la législation.

Les tables rondes et les discussions ultérieures avec les parties prenantes ont l'occasion de s'appuyer sur les conseils reçus du groupe consultatif d'experts et seront également prises en compte dans le cadre de l'élaboration de la politique de sécurité en ligne.

Résumé des commentaires reçus du groupe consultatif d'experts

Approche fondée sur le risque :

Les experts ont indiqué qu'une approche de la réglementation fondée sur le risque pourrait être la plus appropriée. Elle ne permettrait pas de remédier à tous les incidents de contenu préjudiciable en ligne, mais elle pourrait plutôt améliorer les pratiques générales des services en ligne en matière de gestion des risques. Les experts ont souligné qu'un contenu tel que la pédopornographie, ou plus généralement le contenu relatif à l'exploitation sexuelle des enfants, pourrait nécessiter une solution spécifique.

  • Cette approche se concentre sur les systèmes et les outils que les services en ligne peuvent mettre en place au lieu de se focaliser sur le retrait des contenus préjudiciables et sur des obligations de modération rigides.
  • Les entités réglementées pourraient avoir un "devoir d'agir de manière responsable" en ce qui concerne les contenus préjudiciables en ligne. Cela signifie qu'elles pourraient être tenues de prendre des mesures raisonnables pour mettre en place des outils, des protocoles et des procédures visant à atténuer les préjudices prévisibles découlant du fonctionnement et de la conception de leurs services.
  • Une approche de la réglementation fondée sur le risque, ancrée dans l'obligation d'agir de manière responsable, pourrait obliger les services réglementés à respecter trois étapes clés. Dans la première étape, les services réglementés pourraient identifier et évaluer les risques posés par leurs services. Dans un deuxième temps, les services pourraient atténuer ces risques. Troisièmement, les services pourraient rendre compte de leurs outils d'identification et d'atténuation afin de garantir la responsabilité. Les informations recueillies au cours de cette dernière étape pourraient ensuite alimenter le prochain cycle d'évaluation des risques des services. Ce cycle pourrait favoriser l'amélioration continue des systèmes et des outils des services visant à réduire les risques qu'ils font courir aux utilisateurs.
Services réglementés :
Les experts ont convenu que le cadre réglementaire devrait s'appliquer à un large éventail de services opérant en ligne, y compris ceux qui se situent plus bas dans la "pile technologique", tels que les magasins d'applications, les services d'hébergement web et les réseaux de diffusion de contenu. Les experts ne sont pas d'accord sur l'opportunité et la manière d'inclure les communications privées dans un cadre réglementaire. Certains experts ont souligné que l'obligation d'agir de manière responsable devrait s'appliquer à tous les services opérant en ligne, mais que les services réglementés pourraient être classés par catégories, avec des obligations spécifiques basées sur le risque de préjudice et la capacité du service.
Contenu à réglementer :
Les experts ont convenu que la législation devrait aller au-delà des 5 types de préjudice précédemment proposés par le gouvernement en 2021 (contenu lié à l'exploitation sexuelle des enfants, contenu terroriste, contenu incitant à la violence, discours de haine et partage non consensuel d'images intimes). Ils ont insisté sur le fait que certaines formes de préjudice le sont d’une certaine perspective ou sont extrêmement difficiles à définir et à identifier. Ils ont mentionné que le matériel contenant de l’exploitation sexuelle des enfants et le partage non consensuel d'images intimes sont plus faciles à définir et à identifier et pourraient être traités différemment.
Obligations :

Une approche fondée sur le risque pourrait imposer aux services réglementés des obligations en matière de transparence et de responsabilité. Les experts ont indiqué que les obligations imposées aux services devraient être flexibles afin que la législation puisse résister à l'épreuve du temps. Ils ont souligné que les obligations ne devaient pas porter atteinte aux droits de la personne, mais au contraire les protéger. Les experts ont convenu de la nécessité d'une source indépendante de soutien aux utilisateurs. Son rôle pourrait consister à recevoir les plaintes des utilisateurs au sujet du respect par les services de leur devoir d'agir de manière responsable et à collecter des données sur les problèmes pour les utilisateurs et les victimes. Ces informations pourraient contribuer à l'élaboration de codes de pratique.

Enfin, les experts n'étaient pas d'accord sur la question de savoir si un organe de décision pour le retrait de contenu pouvait fonctionner dans le cadre d'une approche fondée sur les risques. Certains experts ont expliqué que les victimes ont besoin d'un lieu pour exprimer leurs préoccupations. Ils ont expliqué que les victimes ont souvent le sentiment que les plateformes n'écoutent pas leurs plaintes, qu'elles continuent à subir des préjudices et que le contenu qu'elles signalent n'est pas pris en compte. D'autres experts ne sont pas d'accord et soulignent qu'il est possible de soutenir les victimes sans créer une autorité de suppression des contenus. Ils ont insisté sur le fait que la création d'un organisme indépendant chargé de prendre les décisions relatives au retrait de contenu pourrait être une entreprise de grande envergure, qui s'apparenterait à la création d'un système quasi-judiciaire entièrement nouveau, avec des problèmes constitutionnels majeurs liés au fédéralisme et à la Charte.

Pouvoirs réglementaires du commissaire :
Les experts ont souligné que l'organisme de réglementation devrait être doté de solides pouvoirs d'audit et d'exécution, y compris la capacité de prélever des sanctions administratives pécuniaires (SAP) et d'émettre des ordres de conformité. Les experts ont également mentionné que les codes de pratique sont essentiels et qu'ils devraient être élaborés conjointement avec l'industrie et d'autres parties prenantes. Ils ont expliqué que le cadre législatif et réglementaire pourrait être soutenu par des codes de pratique ou des lignes directrices élaborés conjointement par l'organisme de réglementation et les parties prenantes, décrivant comment les services réglementés pourraient remplir leurs obligations.
Charte des droits :
Les experts ont souligné qu'un cadre réglementaire devrait accorder une importance égale à la gestion des risques et à la protection des droits de la personne. Ils ont souligné qu'il était important de trouver un équilibre entre la capacité à publier librement des contenus et la garantie que les utilisateurs se sentent en sécurité sur ces services. Ils ont insisté pour que les obligations imposées aux services réglementés et les outils mis à la disposition des utilisateurs tiennent compte de la meilleure façon de protéger les communautés marginalisées contre des conséquences involontaires.
Lien avec l’application de la loi :
Les experts ont souligné le faible niveau de confiance de certaines communautés marginalisées envers les forces de l'ordre. Les experts n'étaient pas d'accord sur la question de savoir si le rapport obligatoire ou la préservation aux forces de l’ordre devrait faire partie du cadre de sécurité en ligne. Certains craignent que l'obligation de signaler des contenus aux forces de l'ordre ou de les conserver à des fins d'enquête criminelle n'entraîne une surveillance excessive de ces communautés. D'autres experts ont souligné que les forces de l'ordre doivent disposer des outils nécessaires pour mener à bien leurs enquêtes.
La désinformation:
Les experts ont souligné que la désinformation est néfaste, mais qu'il est difficile d'en définir l'étendue et la portée tout en protégeant la liberté d'expression. Ils ont également fait preuve d'une prudence à l'égard de l’idée de définir la désinformation dans la législation pour plusieurs raisons, notamment parce que cela pourrait mettre le gouvernement en position de distinguer le vrai du faux, ce qu'il ne devrait tout simplement pas faire. Au lieu de définir la désinformation dans la législation, certains experts ont suggéré que la législation pourrait se concentrer sur les effets néfastes de la désinformation ou sur certains comportements associés à la désinformation, comme la manipulation coordonnée à l'aide de robots et de réseaux de robots.

Les résumés de toutes les réunions du Groupe consultatif d'experts sont publiés en ligne sur le site Web de Patrimoine canadien.

Ancien projet de loi C-36 modifiant la Loi canadienne sur les droits de la personne et le Code criminel

En juin 2021, le ministre de la Justice et procureur général du Canada a présenté un projet de loi visant à combattre le discours et les crimes haineux. Le projet de loi proposait de modifier la Loi canadienne sur les droits de la personne et le Code criminel et d'apporter des modifications connexes à la Loi sur le système de justice pénale pour les adolescents. Le projet de loi n'a pas été adopté par le Parlement précédent avant l'élection du nouveau Parlement.

Les modifications proposées dans ce projet de loi compléteraient les mesures de sécurité en ligne discutées lors de cette table ronde en offrant des recours aux victimes et en tenant les individus responsables des dommages causés par la haine qu'ils propagent.

Une description du projet de loi est disponible en ligne. Le texte intégral du projet de loi se trouve sur le site Web du Parlement du Canada.

Votre participation à la table ronde

As En tant que participante à cette table ronde, vous aurez l'occasion de discuter des éléments fondamentaux d'un cadre législatif et réglementaire fondé sur le risque avec les autres participants.

Vous aurez également l'occasion de contribuer à l'élaboration de la politique du gouvernement en partageant vos réflexions, vos préoccupations et vos points de vue sur la sécurité en ligne. Vos connaissances et vos perspectives sont essentielles au moment où le gouvernement du Canada commence à élaborer une politique visant à assurer un environnement en ligne plus transparent et plus responsable.

Questions proposées pour les participants

  1. Qu’est-ce qui vous a incité à participer à ce cercle de partage ou à cet entretien ?
  2. Êtes-vous préoccupé par les contenus préjudiciables en ligne ? Quels sont les types de contenus préjudiciables qui vous préoccupent ?
  3. Sur quelles plateformes pensez-vous que ces contenus nuisibles sont les plus présents ? Selon vous, quels types de plateformes ou de services en ligne présentent le plus grand risque de préjudice pour les Autochtones ?
  4. Les plateformes doivent-elles être traitées comme n'importe quel autre produit en identifiant les risques potentiels et en les atténuant ?
  5. Un nouveau régulateur de la sécurité en ligne devrait-il avoir le pouvoir d'ordonner que des éléments de contenu spécifiques soient retirés des plateformes? Dans l'affirmative, à quels types de contenus ce pouvoir devrait-il s'appliquer?
  6. Les services en ligne devraient-ils être tenus de signaler aux autorités chargées de l'application de la loi les contenus qu'ils estiment être la preuve probable d'une infraction pénale?
  7. La proposition de l'ancien projet de loi C-36 concernant un nouvel engagement de ne pas troubler l'ordre public aiderait-elle à prévenir les infractions de propagande haineuse et les crimes haineux ?
  8. La proposition de l'ancien projet de loi C-36 concernant un processus de plainte pour propagande haineuse dans la Loi canadienne sur les droits de la personne serait-elle utile comme mesure supplémentaire et complémentaire pour combattre la propagande haineuse en ligne ?
  9. Quels sont les résultats que vous souhaiteriez obtenir dans le cadre de ces discussions ?
  10. Y a-t-il autre chose que vous aimeriez dire et qui n'a pas été abordé jusqu'à présent ?

Détails de la page

Date de modification :