📋 Dans cet article
ChatGPT — ce qui est envoyé à OpenAI
Quand tu utilises ChatGPT, chaque message que tu envoies est transmis aux serveurs d'OpenAI aux États-Unis. Ce n'est pas différent d'utiliser n'importe quel autre service cloud — mais la nature des échanges avec un assistant IA tend à être plus intime et révélatrice que les autres services.
Les gens partagent volontiers des détails sur leur santé (« j'ai des douleurs abdominales depuis 3 jours »), leur situation financière (« j'ai 15 000 $ de dettes »), leur vie professionnelle (« mon patron me harcèle »), et leur identité. Tout ça est transmis, stocké, et potentiellement utilisé.
Politique de conservation des données d'OpenAI
OpenAI conserve les conversations selon sa politique de confidentialité. Pour les utilisateurs gratuits et Plus (personnels), les conversations peuvent être utilisées pour entraîner les modèles futurs — sauf si tu désactives cette option.
Les utilisateurs de ChatGPT Team et Enterprise bénéficient d'une protection différente — OpenAI déclare ne pas utiliser leurs données pour l'entraînement par défaut. Si ton employeur utilise ChatGPT Enterprise, tes conversations professionnelles sont théoriquement plus protégées.
Claude vs ChatGPT vs Gemini — comparaison vie privée
🤖 ChatGPT (OpenAI)
- Données envoyées : serveurs OpenAI, É.-U.
- Entraînement : opt-out disponible dans les paramètres
- Conservation : par défaut, conversations retenues 30 jours minimum
- Données partagées avec des tiers : pour certification de sécurité, bug fixing
- Juridiction : États-Unis (Cloud Act applicable)
🌀 Claude (Anthropic)
- Données envoyées : serveurs Anthropic, É.-U.
- Entraînement : opt-out disponible, usage commercial désactivé par défaut pour les plans payants
- Politique de rétention : 90 jours par défaut pour les conversations
- Pas de publicité ciblée basée sur les conversations
- Juridiction : États-Unis
✨ Gemini (Google)
- Données envoyées : serveurs Google, É.-U.
- Intégration avec le compte Google — données potentiellement liées à ton profil
- Entraînement : opt-out possible mais plus complexe
- Google peut utiliser les conversations pour améliorer ses services (selon conditions)
- Si tu utilises Google Workspace, règles différentes
Résumé : lequel est le plus respectueux de la vie privée?
Aucun des trois n'est parfait. Tous opèrent depuis les États-Unis, sous la juridiction du Cloud Act qui permet aux autorités américaines d'accéder aux données. Pour les usages personnels courants sans données sensibles, la différence pratique entre les trois est relativement faible si tu désactives l'entraînement sur tes données.
Pour les données vraiment sensibles — documents médicaux, informations fiscales, secrets d'affaires — aucun de ces outils ne devrait les recevoir. C'est là qu'interviennent les outils IA locaux.
Ce qu'il ne faut jamais entrer dans un outil IA en ligne
🚫 Ne jamais entrer dans ChatGPT, Claude, Gemini, ou tout outil IA cloud :
Outils IA locaux pour données sensibles
Si tu as besoin d'utiliser l'IA pour traiter des données sensibles, la solution est d'utiliser un modèle qui fonctionne directement sur ton ordinateur — sans envoyer quoi que ce soit sur Internet.
Ollama
Ollama est l'outil le plus simple pour exécuter un modèle de langage sur ton propre ordinateur. Il fonctionne sur Mac, Windows, et Linux. Tu télécharges le logiciel, tu télécharges un modèle (Llama, Mistral, Gemma, etc.), et tu l'utilises localement via une interface de chat ou en ligne de commande. Aucune donnée ne quitte ton appareil.
Requis : Un ordinateur relativement récent avec 8 Go de RAM minimum. Pour de bonnes performances, 16 Go+ recommandé. Une carte graphique dédiée (NVIDIA ou AMD) accélère considérablement le traitement.
LM Studio
LM Studio offre une interface graphique conviviale pour télécharger et utiliser des modèles IA localement. C'est plus accessible qu'Ollama pour les non-techniciens — tu peux choisir un modèle depuis une bibliothèque et commencer à l'utiliser en quelques clics. Disponible pour Mac, Windows, et Linux.
Quelle est la qualité des modèles locaux?
Les modèles locaux accessibles gratuitement (Llama 3, Mistral, Gemma 2) offrent une qualité raisonnable pour beaucoup de tâches — résumés, rédaction, analyse de texte, code. Ils sont généralement moins capables que GPT-4 ou Claude 3 Sonnet sur des tâches complexes, mais pour du travail courant avec des données sensibles, c'est souvent suffisant.
Loi 25 et les entreprises IA opérant au Québec
La Loi 25 du Québec s'applique en principe à toute entreprise qui collecte, utilise, ou traite des renseignements personnels de Québécois — même si l'entreprise est basée à l'étranger. OpenAI, Anthropic, et Google collectent tous des données de Québécois qui utilisent leurs services.
En pratique, ça signifie que ces entreprises devraient techniquement respecter les droits des Québécois sous la Loi 25 : droit d'accès, droit de rectification, droit à l'effacement, et transparence sur l'utilisation des données. Plusieurs ont commencé à offrir des mécanismes pour exercer ces droits dans leurs politiques de confidentialité.
La CAI a publié des lignes directrices sur l'utilisation des systèmes d'IA dans les organisations québécoises, soulignant que les entreprises québécoises qui utilisent des outils IA cloud pour traiter des données de leurs clients sont responsables de la conformité à la Loi 25 — pas seulement le fournisseur IA.
Questions fréquentes
ChatGPT utilise-t-il mes conversations pour entraîner ses modèles?
Par défaut, oui pour les comptes gratuits et Plus. Tu peux désactiver ça : Paramètres → Contrôles des données → désactiver « Améliorer les modèles pour tout le monde ». Les comptes Team et Enterprise ont cette option désactivée par défaut. Une fois qu'une conversation a été utilisée pour l'entraînement, elle ne peut pas être retirée rétroactivement.
La Loi 25 du Québec s'applique-t-elle à ChatGPT et aux autres IA?
En principe, oui — si des renseignements personnels de Québécois sont traités, la Loi 25 s'applique. En pratique, l'application sur des entreprises américaines est complexe. La Commission d'accès à l'information s'intéresse à ces questions. La meilleure protection reste de ne pas entrer de renseignements personnels sensibles dans ces outils.
Mon médecin ou avocat peut-il utiliser ChatGPT avec mes informations?
Pas sans mesures de protection sérieuses. Les professionnels de santé et les avocats sont soumis à des obligations de confidentialité strictes. Utiliser un outil cloud standard pour traiter des données de patients ou clients sans entente de traitement des données conforme serait problématique au regard de la Loi 25 et des codes de déontologie professionnels. Plusieurs ordres professionnels québécois ont émis des guides sur l'utilisation de l'IA.
⚠️ Avis : Cet article est fourni à titre informatif seulement. Il ne constitue pas un avis juridique. Les politiques de confidentialité des entreprises mentionnées peuvent évoluer. Consultez directement les politiques de confidentialité actuelles des fournisseurs concernés avant d'utiliser leurs services avec des données sensibles.