⚠️ C-63 et C-27 : deux lois distinctes, souvent confondues
Réforme de la LPRPDE (PIPEDA). Portait sur la collecte de données personnelles, l'intelligence artificielle, le consentement, le droit à la suppression. Déjà couvert sur naviguer.ca — lire l'article C-27.
Responsabilité des plateformes numériques. Portait sur les contenus nuisibles : deepfakes sexuels non consentis, harcèlement en ligne, discours haineux, exploitation d'enfants (CSAM). C'est cette loi qui fait l'objet de cet article.
📋 Contenu de cet article
- Ce qui s'est passé en janvier 2025
- Ce que la loi aurait imposé aux plateformes
- La Commission de sécurité numérique
- Deepfakes et harcèlement : le vide actuel
- La haine en ligne et le Code criminel
- La Loi 25 ne couvre pas les préjudices en ligne
- Le gouvernement Carney et 2026
- Ce que vous pouvez faire maintenant
- Les organismes pertinents
- Questions fréquentes
Ce qui s'est passé en janvier 2025
Le 6 janvier 2025, Justin Trudeau a annoncé sa démission et demandé la prorogation du Parlement. Cette décision politique a eu un effet immédiat sur la législation en cours : tous les projets de loi non adoptés sont morts sur le feuilleton. C-63 en faisait partie.
Le projet de loi C-63, Loi sur les préjudices en ligne, avait été déposé en février 2024. En moins d'un an d'existence parlementaire, il n'avait jamais franchi l'étape du vote final. Les débats en comité avaient mis en lumière des points de tension réels — liberté d'expression, définition de la haine en ligne, pouvoirs de la nouvelle agence proposée — mais le processus avait avancé. La prorogation l'a tout simplement effacé.
- Février 2024 : Dépôt du projet de loi C-63 à la Chambre des communes
- Printemps–automne 2024 : Débats, études en comité, témoignages d'experts
- 6 janvier 2025 : Prorogation du Parlement — C-63 mort au feuilleton
- Printemps 2025 : Élections fédérales — nouveau gouvernement Carney
- Mars 2026 : Aucun projet de loi sur les préjudices en ligne déposé
Ce que la loi aurait imposé aux plateformes
Le cœur de C-63 était une obligation de résultat pour les grandes plateformes numériques opérant au Canada : Meta (Facebook, Instagram), YouTube, TikTok, X (anciennement Twitter), et d'autres services de contenu généré par les utilisateurs. Le projet créait une obligation de retrait rapide pour les catégories de contenus les plus graves.
Les sept catégories de contenus ciblées
- Contenu sexuel mettant en scène des enfants (CSAM) : retrait en 24 heures maximum
- Contenu intime non consenti (deepfakes et autres) : retrait en 24 heures
- Contenu terroriste : retrait en 24 heures
- Incitation à la violence : retrait dans des délais définis
- Discours haineux : retrait dans des délais définis
- Intimidation d'enfants : obligation de protection
- Activité de gangs et crime organisé : signalement aux autorités
Les plateformes auraient aussi été tenues de publier des rapports de transparence annuels détaillant le volume de contenus retirés, les délais de traitement, et les mécanismes de signalement disponibles aux utilisateurs.
La vérification d'âge
C-63 aurait introduit des exigences de vérification d'âge pour les plateformes diffusant du contenu sexuellement explicite. Les détails techniques n'étaient pas encore finalisés au moment de la mort du projet — une zone de tension, puisque les mécanismes de vérification d'âge soulèvent eux-mêmes des questions de vie privée. Mais le principe était établi : certaines plateformes n'auraient plus pu laisser des mineurs accéder à du contenu adulte sans friction.
La Commission de sécurité numérique
C-63 proposait la création d'une Commission de sécurité numérique — une nouvelle agence fédérale indépendante chargée de superviser la conformité des plateformes, de recevoir les plaintes des utilisateurs, et d'imposer des sanctions.
Cette commission aurait eu des pouvoirs réels :
- Émettre des ordonnances contraignantes aux plateformes
- Imposer des amendes substantielles en cas de non-conformité
- Publier des rapports d'audit sur les pratiques des plateformes
- Recevoir et traiter les plaintes des utilisateurs canadiens
Sans C-63, il n'existe aucun organisme fédéral spécifiquement mandaté pour superviser les contenus des plateformes numériques au Canada. Le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) a des pouvoirs élargis depuis la Loi C-11 sur la diffusion continue en ligne — mais son mandat concerne la réglementation des contenus canadiens, pas la protection des utilisateurs contre les préjudices.
Deepfakes et harcèlement : le vide actuel
L'une des lacunes les plus concrètes laissées par la mort de C-63 concerne les deepfakes non consentis — ces images ou vidéos fabriquées par intelligence artificielle, représentant une personne réelle dans une situation sexuelle sans son consentement. La technologie pour les créer est aujourd'hui accessible à quiconque dispose d'un ordinateur et d'une connexion internet.
En mars 2026, il n'existe toujours pas de loi fédérale canadienne spécifiquement ciblant les deepfakes non consentis. Les recours disponibles sont limités :
- Code criminel — voyeurisme (article 162) : couvre certaines situations, mais pas explicitement les deepfakes générés par IA
- Code criminel — harcèlement criminel (article 264) : applicable si la diffusion est répétée et crée une crainte pour la sécurité, mais difficile à prouver
- Recours civil : atteinte à la vie privée ou à la réputation — coûteux, long, et pratiquement inutilisable contre des contenus hébergés sur des serveurs à l'étranger
C-63 aurait créé une obligation légale pour les plateformes de retirer ces contenus en 24 heures sur signalement de la victime. Sans cette obligation, les plateformes appliquent leurs propres politiques — quand elles veulent, comme elles veulent.
Le harcèlement en ligne
Pour le harcèlement ciblé sur les plateformes — campagnes coordonnées, brigades de harcèlement, doxxing — la situation est similaire. Les outils du Code criminel existent, mais ils sont lents, requièrent l'intervention de la police, et les enquêtes sur les infractions numériques sont chroniquement sous-financées. C-63 aurait donné aux victimes un mécanisme de plainte direct auprès d'une agence fédérale, sans avoir à passer par une enquête criminelle.
La haine en ligne et le Code criminel
C-63 comprenait des amendements au Code criminel sur la promotion de la haine. Le plus significatif : rétablir une disposition abrogée en 2013 permettant au Tribunal canadien des droits de la personne de traiter des plaintes pour diffusion de haine, sans avoir à prouver l'intention criminelle — un seuil de preuve beaucoup plus accessible que le droit pénal.
Le cadre actuel du Code criminel (articles 318 et 319) criminalise le génocide public et la haine publique contre des groupes identifiables. Ces dispositions existent — mais leur application est rare. Les poursuites criminelles pour discours haineux nécessitent le consentement du procureur général et doivent prouver l'intention, pas seulement l'effet. En pratique, elles sont utilisées dans des cas extrêmes.
C-63 aurait ajouté une voie administrative moins exigeante — pas une criminalisation accrue, mais un mécanisme de recours civil renforcé. Cette nuance a souvent été mal comprise dans le débat public sur le projet.
| Situation | Avec C-63 | Sans C-63 (aujourd'hui) |
|---|---|---|
| Deepfake sexuel non consenti sur une plateforme | ✓ Retrait obligatoire en 24h sur signalement | ✗ Dépend des politiques de la plateforme |
| Discours haineux ciblé sur les réseaux sociaux | ✓ Plainte à la Commission de sécurité numérique | ✗ Code criminel ou plainte au CCDP (lent, limité) |
| Harcèlement coordonné sur une plateforme | ✓ Obligation de retrait + rapport de transparence | ✗ Signalement interne à la plateforme (discrétionnaire) |
| CSAM découvert sur une plateforme | ✓ Retrait en 24h, signalement obligatoire aux autorités | ~ Obligation limitée sous la LPRPDE, pas de délai défini |
| Vérification d'âge sur sites adultes | ✓ Obligation légale pour certaines plateformes | ✗ Aucune obligation fédérale |
| Transparence des plateformes sur les retraits | ✓ Rapports annuels obligatoires | ✗ Volontaire, selon le bon vouloir de chaque plateforme |
La Loi 25 du Québec ne couvre pas les préjudices en ligne
Une confusion fréquente : penser que la Loi 25 provinciale comble le vide laissé par C-63. Ce n'est pas le cas.
La Loi 25 porte sur la protection des renseignements personnels — comment les entreprises collectent, utilisent, conservent et divulguent vos données. C'est une loi sur la vie privée, pas une loi sur les préjudices. Elle répond à la question : « une entreprise peut-elle utiliser mes données ? » Elle ne répond pas à : « une plateforme doit-elle retirer un contenu qui me nuit ? »
- Loi 25 (vie privée) : Une entreprise vous demande votre consentement avant de partager vos données avec des tiers → relevant de la Loi 25 et du Commissariat fédéral (CPVP)
- C-63 (préjudices en ligne) : Un deepfake de vous circule sur Instagram → relevant de C-63. Aujourd'hui, aucun cadre fédéral ne force Instagram à retirer ce contenu dans un délai défini.
La Loi 25 peut intervenir si une plateforme traite vos données personnelles sans consentement pour créer ou diffuser du contenu — mais c'est une voie indirecte, et la Commission d'accès à l'information du Québec (CAI) n'a pas de mandat de retrait de contenu. Elle peut imposer des amendes pour violations de données, pas ordonner le retrait d'un deepfake.
En clair : pour les Québécois victimes de harcèlement, de deepfakes non consentis ou de discours haineux sur les grandes plateformes, la Loi 25 n'offre pas de protection spécifique. C'est exactement la lacune que C-63 devait combler au niveau fédéral.
Le gouvernement Carney et 2026
Les élections fédérales du printemps 2025 ont porté le Parti libéral sous Mark Carney au pouvoir. Le gouvernement Carney a indiqué, lors de discours et de consultations préliminaires, un intérêt pour une législation sur les préjudices en ligne — en reconnaissant explicitement la mort de C-63 comme une lacune à combler.
Mais l'intention n'est pas un projet de loi. En mars 2026, aucun texte n'a été déposé à la Chambre des communes. Les priorités du nouveau gouvernement ont été accaparées par d'autres dossiers économiques et géopolitiques — ce qui, dans les faits, repousse encore la fenêtre de la réforme.
La réalité du calendrier législatif : même si un projet était déposé au printemps 2026, les études en comité, les amendements et les lectures prendraient au minimum un an. Une loi sur les préjudices en ligne ne serait pas en vigueur avant 2027 au plus tôt — et encore, dans le meilleur scénario.
Ce que vous pouvez faire maintenant
En l'absence de cadre législatif fédéral, les recours sont limités — mais ils existent.
Si vous êtes victime de deepfakes ou de contenu non consenti
Le Centre canadien de protection de l'enfance opère Cyberaide.ca pour le signalement de CSAM. Pour les adultes victimes de contenus intimes non consentis, chaque plateforme a un mécanisme de signalement — Meta, YouTube, TikTok offrent des formulaires dédiés. Ces mécanismes sont lents et discrétionnaires, mais c'est actuellement ce qui est disponible.
La SurvivorsConnect au Canada et l'organisme britannique Revenge Porn Helpline offrent un soutien et des ressources pour naviguer les signalements de plateforme. L'absence d'obligation légale ne signifie pas que les démarches sont inutiles — les grandes plateformes retirent souvent ce type de contenu sous pression directe, surtout avec documentation.
Si vous êtes victime de harcèlement ou de discours haineux
La Commission canadienne des droits de la personne (CCDP) accepte les plaintes en matière de discrimination et de haine dans certains contextes — notamment liés à des motifs prohibés (race, religion, sexe, orientation sexuelle, etc.). La portée est limitée, mais une plainte formelle crée un dossier et peut avoir un effet dissuasif.
Pour le harcèlement criminel grave, signalez à la police locale. Les corps policiers canadiens ont des unités spécialisées en cybercriminalité, bien que leurs ressources soient variables. Documentez tout : captures d'écran horodatées, URLs, comptes impliqués.
Protégez-vous proactivement
Les lacunes législatives ne se combleront pas rapidement. Pendant ce temps, des mesures pratiques réduisent votre exposition :
- Paramètres de confidentialité : Limitez qui peut voir vos photos et informations sur les plateformes sociales. Moins de surface exposée = moins de risque.
- Alertes Google : Configurez des alertes sur votre nom pour être averti si du contenu vous concernant apparaît en ligne.
- VPN : Protège votre adresse IP et votre navigation des regards de votre FAI et des réseaux non sécurisés — voir notre comparatif VPN pour Québécois.
- Pseudonymie stratégique : Pour les activités à risque (militantisme, journalisme, communautés marginalisées), l'anonymat en ligne reste une protection pratique que la loi ne peut pas vous offrir.
Faire entendre votre voix
Le gouvernement Carney consulte sur les préjudices en ligne. Les organismes de défense des droits numériques — CIPPIC, OpenMedia — participent activement à ces consultations. Les soutenir financièrement ou amplifier leur travail contribue à maintenir la pression pour une réforme sérieuse.
Les organismes pertinents
Organisme national gérant le signalement de contenus d'exploitation sexuelle d'enfants en ligne. Opère Cyberaide.ca, le portail de signalement officiel au Canada.
cybertip.ca →Accepte les plaintes en matière de discrimination et de haine dans certains contextes fédéraux. Recours limité mais disponible pour les cas relevant de motifs prohibés.
chrc-ccdp.gc.ca →Principal organisme de défense des droits numériques au Canada. Participe aux consultations sur C-63 et ses successeurs. Référence pour les analyses indépendantes.
cippic.ca →Organisme canadien de défense d'un internet ouvert et sécuritaire. Campagnes, pétitions et interventions publiques sur les projets de loi touchant les droits numériques.
openmedia.org →Pour les violations de données personnelles sous la Loi 25 (juridiction provinciale). Ne couvre pas les préjudices en ligne, mais reste le recours pour les abus de données par des entreprises québécoises.
cai.gouv.qc.ca →Pour les violations de données personnelles sous la LPRPDE (juridiction fédérale). Couvre aussi certaines dimensions vie privée des préjudices numériques — mais pas les contenus nuisibles.
priv.gc.ca →❓ Questions fréquentes
C-63 et C-27, c'est la même loi ?
Non — et c'est une confusion très répandue. C-27 portait sur la protection des données personnelles et l'intelligence artificielle (réforme de la LPRPDE). C-63, la Loi sur les préjudices en ligne, visait la responsabilité des plateformes pour les contenus nuisibles — deepfakes, harcèlement, haine, CSAM.
Les deux sont morts avec la prorogation du Parlement en janvier 2025. Les deux laissent des vides réglementaires réels, mais dans des domaines différents. Cet article couvre C-63. Pour C-27, consultez notre article sur la mort de C-27.
Qu'est-ce que le projet de loi C-63 aurait changé pour moi ?
C-63 aurait forcé les grandes plateformes numériques (Meta, YouTube, TikTok, etc.) à retirer rapidement les contenus nuisibles sur signalement. Pour vous concrètement :
- Si un deepfake de vous était mis en ligne, vous auriez pu signaler à la Commission de sécurité numérique et exiger un retrait en 24 heures
- Si vous étiez victime de harcèlement coordonné, la plateforme aurait été légalement tenue d'agir
- Les plateformes adultes auraient dû vérifier l'âge de leurs utilisateurs
Sans C-63, vous dépendez des politiques internes de chaque plateforme — appliquées de façon inégale et sans obligation légale.
Pourquoi le C-63 est-il mort ?
La mort de C-63 est une conséquence de la crise politique libérale de l'hiver 2024-2025. Quand Trudeau a annoncé sa démission et demandé la prorogation du Parlement le 6 janvier 2025, tous les projets de loi non adoptés ont été annulés — c'est une règle du parlementarisme canadien. C-63 n'avait jamais été mis aux voix ; il est mort sans avoir eu la chance d'être adopté ou rejeté.
Suis-je protégé contre les deepfakes non consentis au Canada ?
Très faiblement. Il n'existe aucune loi fédérale ciblant spécifiquement les deepfakes non consentis. Certaines dispositions du Code criminel peuvent s'appliquer dans des cas extrêmes (voyeurisme, harcèlement criminel), mais le seuil de preuve est élevé et les poursuites sont rares.
Les recours civils existent théoriquement — atteinte à la réputation, atteinte à la vie privée — mais ils sont coûteux, longs, et pratiquement inutilisables contre des contenus hébergés à l'étranger. C-63 aurait créé une voie directe et rapide. Sans lui, c'est une case vide dans le droit canadien.
La Loi 25 du Québec couvre-t-elle les préjudices en ligne ?
Non. La Loi 25 porte sur la protection des renseignements personnels — comment les entreprises collectent et utilisent vos données. Elle ne couvre pas les préjudices causés par des contenus en ligne comme le harcèlement, les deepfakes ou le discours haineux.
La Loi 25 est une loi de vie privée. C-63 était une loi sur les préjudices numériques. Ce sont deux champs de droit distincts. La mort de C-63 laisse un vide que la Loi 25 ne peut pas combler.
Y a-t-il un nouveau projet de loi sur les préjudices en ligne en 2026 ?
Pas encore déposé. Le gouvernement Carney a signalé un intérêt pour légiférer, mais aucun texte n'est soumis à la Chambre des communes en mars 2026. Les consultations préliminaires sont en cours, mais le vide réglementaire persiste.
Même si un projet était déposé demain, les délais parlementaires signifient qu'une loi ne serait probablement pas en vigueur avant 2027 — et c'est optimiste.
C-63 aurait-il porté atteinte à la liberté d'expression ?
C'était la principale critique formulée par des juristes et des groupes de libertés civiles — notamment concernant les nouvelles dispositions sur la haine en ligne et les pouvoirs de la Commission de sécurité numérique. Ces préoccupations étaient légitimes et auraient dû mener à des amendements ciblés.
Mais le débat n'est plus théorique : C-63 est mort. La question aujourd'hui n'est plus « C-63 était-il parfait ? » mais « que fait-on du vide qu'il laisse ? » Les deux enjeux — protéger les victimes de préjudices en ligne et protéger la liberté d'expression — auraient dû être réconciliés par amendement. Ce travail reste à faire dans le prochain cycle législatif.
Approfondir votre protection numérique
C-27 : la mort de la réforme sur la vie privée
L'autre loi morte en janvier 2025 — la réforme de la LPRPDE et le cadre sur l'IA. Différente de C-63, mais tout aussi importante pour vos droits numériques.
Votre droit à l'anonymat en ligne au Québec
En attendant une réforme législative, l'anonymat proactif reste votre meilleure protection contre la surveillance et le harcèlement ciblé.
VPN gratuit vs payant — le comparatif honnête
Un bon VPN protège votre adresse IP et votre trafic des regards indiscrets. Comparatif des meilleures options pour les Québécois.