ChatGPT — ce qui est envoyé à OpenAI

Quand tu utilises ChatGPT, chaque message que tu envoies est transmis aux serveurs d'OpenAI aux États-Unis. Ce n'est pas différent d'utiliser n'importe quel autre service cloud — mais la nature des échanges avec un assistant IA tend à être plus intime et révélatrice que les autres services.

Les gens partagent volontiers des détails sur leur santé (« j'ai des douleurs abdominales depuis 3 jours »), leur situation financière (« j'ai 15 000 $ de dettes »), leur vie professionnelle (« mon patron me harcèle »), et leur identité. Tout ça est transmis, stocké, et potentiellement utilisé.

Politique de conservation des données d'OpenAI

OpenAI conserve les conversations selon sa politique de confidentialité. Pour les utilisateurs gratuits et Plus (personnels), les conversations peuvent être utilisées pour entraîner les modèles futurs — sauf si tu désactives cette option.

🔧 Comment désactiver l'entraînement sur tes conversations Dans ChatGPT : Clic sur ton profil → Paramètres → Contrôles des données → Désactiver « Améliorer les modèles pour tout le monde ». Cette option arrête l'utilisation de tes nouvelles conversations pour l'entraînement. Les conversations précédentes déjà utilisées ne peuvent pas être retirées.

Les utilisateurs de ChatGPT Team et Enterprise bénéficient d'une protection différente — OpenAI déclare ne pas utiliser leurs données pour l'entraînement par défaut. Si ton employeur utilise ChatGPT Enterprise, tes conversations professionnelles sont théoriquement plus protégées.

Claude vs ChatGPT vs Gemini — comparaison vie privée

⚠️ Vérifier les paramètres

🤖 ChatGPT (OpenAI)

  • Données envoyées : serveurs OpenAI, É.-U.
  • Entraînement : opt-out disponible dans les paramètres
  • Conservation : par défaut, conversations retenues 30 jours minimum
  • Données partagées avec des tiers : pour certification de sécurité, bug fixing
  • Juridiction : États-Unis (Cloud Act applicable)
✅ Politiques plus claires

🌀 Claude (Anthropic)

  • Données envoyées : serveurs Anthropic, É.-U.
  • Entraînement : opt-out disponible, usage commercial désactivé par défaut pour les plans payants
  • Politique de rétention : 90 jours par défaut pour les conversations
  • Pas de publicité ciblée basée sur les conversations
  • Juridiction : États-Unis
⚠️ Intégration Google

✨ Gemini (Google)

  • Données envoyées : serveurs Google, É.-U.
  • Intégration avec le compte Google — données potentiellement liées à ton profil
  • Entraînement : opt-out possible mais plus complexe
  • Google peut utiliser les conversations pour améliorer ses services (selon conditions)
  • Si tu utilises Google Workspace, règles différentes

Résumé : lequel est le plus respectueux de la vie privée?

Aucun des trois n'est parfait. Tous opèrent depuis les États-Unis, sous la juridiction du Cloud Act qui permet aux autorités américaines d'accéder aux données. Pour les usages personnels courants sans données sensibles, la différence pratique entre les trois est relativement faible si tu désactives l'entraînement sur tes données.

Pour les données vraiment sensibles — documents médicaux, informations fiscales, secrets d'affaires — aucun de ces outils ne devrait les recevoir. C'est là qu'interviennent les outils IA locaux.

Ce qu'il ne faut jamais entrer dans un outil IA en ligne

🚫 Ne jamais entrer dans ChatGPT, Claude, Gemini, ou tout outil IA cloud :

🏦
Numéro d'assurance sociale (NAS) — peut servir à l'usurpation d'identité. Jamais, sous aucun prétexte.
💊
Numéro d'assurance maladie (RAMQ) et dossiers médicaux détaillés — information hautement sensible protégée par des lois spécifiques au Québec.
💳
Informations bancaires et numéros de cartes de crédit — aucun outil IA légitime n'a besoin de ces informations pour t'aider.
🔑
Mots de passe — jamais. Si tu veux de l'aide avec la sécurité de tes mots de passe, décris le problème sans donner le mot de passe lui-même.
📄
Documents confidentiels de travail — les secrets commerciaux, données de clients, stratégies non publiques. Plusieurs entreprises canadiennes ont mis à jour leurs politiques pour interdire l'usage de ChatGPT avec des données propriétaires.
🏠
Adresse complète combinée avec d'autres identifiants — ton adresse seule est publique dans certains registres, mais combinée avec d'autres infos, elle devient un risque.
👶
Informations identifiables sur des tiers — les infos de tes clients, patients, élèves, ou autres personnes. Tu n'as pas le droit de partager leurs données personnelles sans leur consentement.

Outils IA locaux pour données sensibles

Si tu as besoin d'utiliser l'IA pour traiter des données sensibles, la solution est d'utiliser un modèle qui fonctionne directement sur ton ordinateur — sans envoyer quoi que ce soit sur Internet.

Ollama

Ollama est l'outil le plus simple pour exécuter un modèle de langage sur ton propre ordinateur. Il fonctionne sur Mac, Windows, et Linux. Tu télécharges le logiciel, tu télécharges un modèle (Llama, Mistral, Gemma, etc.), et tu l'utilises localement via une interface de chat ou en ligne de commande. Aucune donnée ne quitte ton appareil.

Requis : Un ordinateur relativement récent avec 8 Go de RAM minimum. Pour de bonnes performances, 16 Go+ recommandé. Une carte graphique dédiée (NVIDIA ou AMD) accélère considérablement le traitement.

LM Studio

LM Studio offre une interface graphique conviviale pour télécharger et utiliser des modèles IA localement. C'est plus accessible qu'Ollama pour les non-techniciens — tu peux choisir un modèle depuis une bibliothèque et commencer à l'utiliser en quelques clics. Disponible pour Mac, Windows, et Linux.

Quelle est la qualité des modèles locaux?

Les modèles locaux accessibles gratuitement (Llama 3, Mistral, Gemma 2) offrent une qualité raisonnable pour beaucoup de tâches — résumés, rédaction, analyse de texte, code. Ils sont généralement moins capables que GPT-4 ou Claude 3 Sonnet sur des tâches complexes, mais pour du travail courant avec des données sensibles, c'est souvent suffisant.

Loi 25 et les entreprises IA opérant au Québec

La Loi 25 du Québec s'applique en principe à toute entreprise qui collecte, utilise, ou traite des renseignements personnels de Québécois — même si l'entreprise est basée à l'étranger. OpenAI, Anthropic, et Google collectent tous des données de Québécois qui utilisent leurs services.

En pratique, ça signifie que ces entreprises devraient techniquement respecter les droits des Québécois sous la Loi 25 : droit d'accès, droit de rectification, droit à l'effacement, et transparence sur l'utilisation des données. Plusieurs ont commencé à offrir des mécanismes pour exercer ces droits dans leurs politiques de confidentialité.

⚠️ Faire respecter la Loi 25 sur des entreprises américaines est complexe La Commission d'accès à l'information du Québec peut en théorie prendre des mesures contre des entreprises étrangères. En pratique, l'application extraterritoriale est difficile. La meilleure protection reste de limiter les données que tu partages avec ces outils.

La CAI a publié des lignes directrices sur l'utilisation des systèmes d'IA dans les organisations québécoises, soulignant que les entreprises québécoises qui utilisent des outils IA cloud pour traiter des données de leurs clients sont responsables de la conformité à la Loi 25 — pas seulement le fournisseur IA.

Questions fréquentes

ChatGPT utilise-t-il mes conversations pour entraîner ses modèles?

Par défaut, oui pour les comptes gratuits et Plus. Tu peux désactiver ça : Paramètres → Contrôles des données → désactiver « Améliorer les modèles pour tout le monde ». Les comptes Team et Enterprise ont cette option désactivée par défaut. Une fois qu'une conversation a été utilisée pour l'entraînement, elle ne peut pas être retirée rétroactivement.

La Loi 25 du Québec s'applique-t-elle à ChatGPT et aux autres IA?

En principe, oui — si des renseignements personnels de Québécois sont traités, la Loi 25 s'applique. En pratique, l'application sur des entreprises américaines est complexe. La Commission d'accès à l'information s'intéresse à ces questions. La meilleure protection reste de ne pas entrer de renseignements personnels sensibles dans ces outils.

Mon médecin ou avocat peut-il utiliser ChatGPT avec mes informations?

Pas sans mesures de protection sérieuses. Les professionnels de santé et les avocats sont soumis à des obligations de confidentialité strictes. Utiliser un outil cloud standard pour traiter des données de patients ou clients sans entente de traitement des données conforme serait problématique au regard de la Loi 25 et des codes de déontologie professionnels. Plusieurs ordres professionnels québécois ont émis des guides sur l'utilisation de l'IA.

⚠️ Avis : Cet article est fourni à titre informatif seulement. Il ne constitue pas un avis juridique. Les politiques de confidentialité des entreprises mentionnées peuvent évoluer. Consultez directement les politiques de confidentialité actuelles des fournisseurs concernés avant d'utiliser leurs services avec des données sensibles.