Claude est utile. Probablement trop utile — au point où on finit par lui coller des trucs qu'on ne montrerait pas à n'importe qui. Contrats, notes médicales, données clients.
Voici ce qu'Anthropic fait vraiment de tout ça, et comment limiter l'exposition si vous y tenez.
Dernière mise à jour : mars 2026
On a lu la politique de confidentialité d'Anthropic. Ce n'est pas la plus opaque qu'on ait vue, mais elle est rédigée pour des avocats américains, pas pour un comptable de Laval qui veut juste savoir si Claude va revendre ses chiffres à quelqu'un.
Voici ce qu'Anthropic dit clairement : quand vous utilisez Claude.ai (le site web ou l'application), vos conversations peuvent être utilisées pour améliorer les modèles. C'est la version standard de la plupart des services IA grand public. Anthropic dit avoir un processus de révision humaine pour certains cas, ce qui veut dire que oui, des humains peuvent lire vos conversations dans certaines circonstances.
Des contractuels basés aux États-Unis, vraisemblablement.
Il y a une option pour se retirer de ce programme (Settings → Privacy → désactiver "Improve Claude for everyone"). On l'a cherchée — elle existe. Mais les données sont quand même conservées selon la politique de rétention d'Anthropic, qui est floue sur les délais précis.
Ce qu'Anthropic ne dit pas clairement : combien de temps exactement vos données sont gardées, qui y a accès dans l'entreprise, et quelles sont les procédures si une agence gouvernementale américaine fait une demande légale. Pour cette dernière question, on a exploré le droit à l'anonymat ailleurs sur ce site — la réponse courte est que les entreprises américaines sont soumises à des lois (CLOUD Act notamment) qui leur permettent de remettre des données à des autorités sans nécessairement vous en informer.
La distinction la plus utile qu'on puisse vous donner : il existe deux façons d'accéder à Claude, et elles n'ont pas du tout les mêmes règles de confidentialité.
C'est la version que la plupart des gens utilisent. Compte gratuit ou payant sur claude.ai. Par défaut, vos conversations peuvent être utilisées pour l'entraînement des modèles.
C'est ce que vous acceptez dans les conditions d'utilisation. On peut se désinscrire, mais c'est opt-out (vous devez le faire activement), pas opt-in.
Quand un développeur accède à Claude via l'API (pour construire une application, par exemple), Anthropic dit explicitement ne pas utiliser ces données pour entraîner ses modèles — sauf si l'entreprise donne son consentement explicite. C'est opt-in dans ce cas. Si vous utilisez une application tierce construite sur Claude, la politique de cette application s'applique aussi.
En pratique, si vous utilisez Claude via une application d'entreprise (un CRM, un outil de rédaction, etc.) qui est construite sur l'API Anthropic, vous êtes probablement dans le cadre API — ce qui est plus protecteur. Mais vérifiez auprès du vendeur. On a vu des entreprises qui disent "propulsé par Claude" sans avoir configuré quoi que ce soit de particulier côté confidentialité.
Règle de base qu'on applique : si vous ne donneriez pas ce document à un stagiaire américain inconnu en échange d'un résumé gratuit, ne le donnez pas à Claude non plus.
Concrètement, voici ce qu'on évite :
Contrats et ententes légales avec des noms réels. Si vous avez un contrat avec un client et que vous voulez que Claude le résume, retirez tous les noms, entreprises, montants et numéros identifiants avant. Le texte juridique générique est généralement ok; les informations personnelles ne le sont pas.
Données de patients ou de clients. On l'a vu dans des groupes Facebook de professionnels de santé au Québec — des gens qui collent des notes de consultation dans ChatGPT ou Claude "juste pour avoir un résumé". C'est une violation flagrante de la confidentialité médicale et très probablement de la Loi 25 si les données sont nominatives.
Vos identifiants, numéros d'assurance sociale, informations bancaires. Ça semble évident mais on a vu des exemples de gens qui posent des questions type "voici mon relevé bancaire [coller le PDF entier], est-ce que j'économise de l'argent?" Ne faites pas ça.
Code source propriétaire avec logique d'affaires sensible. Si votre code contient des algorithmes de tarification, des clés API, ou de la logique propriétaire, nettoyez ça avant de demander à Claude de déboguer. Gardez les exemples génériques.
Si vous avez des données vraiment sensibles et que vous avez besoin d'IA, il existe une solution qui ne dépend d'aucun serveur américain : les modèles qui tournent directement sur votre ordinateur.
Ollama est l'outil qu'on recommande pour ça. C'est un logiciel libre que vous installez sur votre Mac ou votre machine Linux, et qui vous permet de faire tourner des modèles comme Llama 3, Mistral, ou Phi-3 localement. Rien ne sort de votre ordinateur.
Zéro données envoyées nulle part.
Le compromis honnête : ces modèles sont moins bons que Claude pour beaucoup de tâches. Llama 3.1 70B est impressionnant pour du texte général, mais si vous voulez le niveau de raisonnement de Claude 3.5 Sonnet, vous ne l'aurez pas localement à moins d'avoir une machine très puissante. Pour beaucoup d'usages professionnels courants — rédiger des courriels, résumer des documents internes, générer des premières ébauches — les modèles locaux font très bien l'affaire.
On ne vous dira pas d'installer Ollama si vous n'êtes pas à l'aise avec un terminal. C'est faisable, mais ce n'est pas pour tout le monde. Pour les non-techniciens qui ont besoin de confidentialité maximale, Jan.ai offre une interface graphique plus accessible sur les modèles locaux.
La Loi 25 (officiellement la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels) est en vigueur au Québec depuis 2023. La Commission d'accès à l'information (CAI) a commencé à regarder de plus près comment les entreprises gèrent les données personnelles.
Si vous êtes une entreprise québécoise et que vous utilisez Claude avec des données de clients québécois, plusieurs questions se posent :
D'abord, avez-vous informé vos clients que leurs données pourraient être traitées par un sous-traitant américain? La Loi 25 exige de divulguer les transferts de renseignements personnels à l'extérieur du Québec et d'évaluer si la protection est adéquate.
Ensuite, est-ce qu'Anthropic peut être considéré comme un "sous-traitant" au sens de la loi? C'est une zone grise. On n'a pas trouvé de décision de la CAI qui tranche clairement sur les outils IA.
Quelques avocats spécialisés en droit de la vie privée au Québec (notamment du côté des cabinets McCarthy Tétrault et Lavery) ont publié des notes de pratique sur le sujet — consultez-les si vous gérez des volumes importants de données clients.
Le projet de loi C-27 au fédéral (Loi sur l'intelligence artificielle et les données) stagne encore au Parlement en 2026, mais son adoption éventuelle ajouterait des exigences supplémentaires pour les systèmes IA qui traitent des données canadiennes. À surveiller.
On va être directs. Si vous utilisez Claude pour écrire des courriels, débloquer une rédaction, comprendre un concept complexe, ou brainstormer — vous n'avez probablement pas à vous inquiéter outre mesure. Le risque est comparable à celui d'utiliser Gmail ou Google Docs : vos données passent par des serveurs américains, oui, mais vous obtenez quelque chose d'utile en échange, et les probabilités que quelqu'un s'intéresse spécifiquement à votre texte sur la rénovation de votre cuisine sont minces.
Là où on recommande plus de prudence : les professionnels qui traitent des données de tiers (avocats, médecins, comptables, conseillers financiers), les entreprises qui ont des obligations légales envers leurs clients québécois, et quiconque travaille avec des secrets commerciaux réels.
Et si vous avez besoin d'un VPN pour protéger votre navigation en général — pour que votre fournisseur internet (Vidéotron, Bell, Cogeco) ne voie pas vos habitudes de navigation, pas seulement vos échanges avec Claude — on a fait le tour de la question dans notre comparatif VPN. Mais soyons honnêtes : un VPN ne change rien à ce qu'Anthropic fait de vos données une fois que vous les lui avez envoyées. Ce sont deux problèmes distincts.