Ce que font les IA de vos données

La plupart des gens supposent que leurs conversations avec ChatGPT disparaissent dans le néant une fois la fenêtre fermée. Ce n'est pas ce qui se passe.

OpenAI (ChatGPT) conserve vos conversations et les utilise par défaut pour améliorer ses modèles. Vous pouvez désactiver cette collecte dans les paramètres — on vous montre comment plus bas — mais même avec l'historique désactivé, OpenAI conserve les données 30 jours à des fins de sécurité. Certains usages impliquent également une révision humaine par des contractuels.

Google Gemini lie les conversations à votre compte Google. Par défaut, ces données peuvent être examinées par des réviseurs humains et utilisées pour améliorer les produits Google. Vous pouvez désactiver l'activité Gemini dans Mon activité Google, mais vos données sont conservées 72 heures même après désactivation.

Anthropic Claude a une politique légèrement différente : dans Claude.ai (le site grand public), les conversations peuvent être utilisées pour l'entraînement sauf opt-out actif. Via l'API — c'est-à-dire quand une application tierce utilise Claude en arrière-plan — Anthropic s'engage à ne pas entraîner ses modèles avec vos données sans consentement explicite. Notre guide détaillé sur Claude et la vie privée explique ces distinctions en profondeur.

La différence fondamentale qui compte pour votre vie privée :

Outil IA Conservation par défaut Entraînement des modèles Opt-out disponible
ChatGPT (web/app) Indéfini (historique activé) Oui par défaut Oui (opt-out actif)
Google Gemini 18 mois par défaut (ajustable) Oui par défaut Oui (désactivable)
Claude.ai (web) Selon politique Anthropic Oui par défaut Oui (opt-out actif)
Claude via API Limité (30 jours max) Non par défaut Opt-in requis
Ollama (local) Rien ne quitte votre machine Aucune collecte N/A
📌 Local vs nuage : la vraie différence Un modèle IA qui tourne localement sur votre ordinateur — comme avec Ollama — ne transmet rien à personne. Vos données ne quittent jamais votre machine. C'est le seul scénario où la confidentialité est garantie à 100%.

La question Loi 25 : ce que ça signifie pour les Québécois en 2026

ChatGPT n'est probablement pas conforme à la Loi 25 dans la majorité des usages professionnels. Ce n'est pas une accusation — c'est simplement la conséquence de ce que la loi exige.

La CAI (Commission d'accès à l'information du Québec) a publié des lignes directrices à l'intention des organisations qui utilisent des outils IA. Le message central : si votre organisation utilise des outils IA avec des renseignements personnels de résidents québécois, vous devez effectuer une évaluation des facteurs relatifs à la vie privée (EFVP) et vous assurer que le niveau de protection est comparable à celui offert au Québec.

OpenAI est une entreprise américaine soumise au CLOUD Act — ce qui signifie que les autorités américaines peuvent demander l'accès à des données hébergées par OpenAI, sans nécessairement vous en informer. Cette réalité rend difficile, voire impossible, de garantir un niveau de protection équivalent à la Loi 25 pour des données de clients québécois.

En pratique, en 2026, la CAI n'a pas encore sanctionné d'entreprise spécifiquement pour l'usage de ChatGPT. Mais les lignes directrices sont publiées, les attentes sont claires, et les risques se précisent. Les organisations qui traitent des volumes importants de données personnelles via des outils IA grand public jouent avec le feu.

⚠️ Ce que ça signifie concrètement pour les particuliers québécois Pour un usage personnel (rédaction, apprentissage, brainstorming sans données sensibles), la Loi 25 n'impose pas d'obligations directes aux individus. La loi s'applique aux organisations. Par contre, vous avez le droit de savoir comment vos données sont traitées, et vous pouvez exercer ce droit auprès des services que vous utilisez.

Ce qu'il ne faut JAMAIS mettre dans un chat IA

Règle simple : si vous ne le donneriez pas à un inconnu sur Internet en échange d'un service, ne le donnez pas à ChatGPT non plus.

Voici la liste des informations à ne jamais entrer dans une conversation IA, quelle que soit la plateforme :

  • 🚫 Numéro d'assurance sociale (NAS) — le document d'identité le plus sensible qui soit. Un NAS compromis peut servir à des fraudes fiscales, des demandes de crédit frauduleuses, ou du vol d'identité pendant des années.
  • 🚫 Numéro d'assurance maladie (NAM) — lié directement à votre dossier médical et à votre identité. Sa divulgation peut faciliter la fraude au système de santé ou l'accès non autorisé à vos informations médicales.
  • 🚫 Numéro de permis de conduire — combiné à d'autres données, il suffit souvent à usurper votre identité dans plusieurs démarches administratives.
  • 🚫 Renseignements fiscaux et salaire — déclarations de revenus, talons de paye, relevés T4 ou RL-1. Ces documents contiennent souvent plusieurs identifiants sensibles en une seule page.
  • 🚫 Dossier médical — diagnostics, médicaments, résultats de tests. Même « pour avoir l'avis de l'IA » : retirez les identifiants personnels et ne décrivez que le cas clinique en termes généraux.
  • 🚫 Mots de passe — jamais, sous aucun prétexte, même pour « vérifier si c'est sécuritaire ». Utilisez un gestionnaire de mots de passe à la place.
  • 🚫 Données confidentielles au travail — listes de clients, contrats, données financières de l'entreprise, propriété intellectuelle, secrets d'affaires. Même reformulées, ces informations peuvent constituer une violation de vos obligations envers votre employeur.

La bonne pratique quand vous devez quand même utiliser l'IA sur un document sensible : anonymisez d'abord. Remplacez les noms par des pseudonymes, les montants réels par des exemples génériques, les identifiants par des codes neutres. Posez votre question sur la version anonymisée.

L'IA au travail : la responsabilité de l'employeur

Voici une réalité que beaucoup d'organisations québécoises n'ont pas encore intégrée : si un employé utilise ChatGPT avec des données de clients de l'entreprise, c'est l'employeur qui assume la responsabilité légale — pas OpenAI.

La Loi 25 s'applique aux organisations qui collectent, utilisent et communiquent des renseignements personnels. La compagnie d'IA américaine n'est pas dans la mire de la CAI — c'est l'organisation québécoise qui lui a fourni les données qui l'est.

En pratique, cela signifie que si votre entreprise n'a pas de politique claire sur l'utilisation des outils IA, et qu'un employé envoie par inadvertance des données clients dans ChatGPT, vous êtes potentiellement en infraction à la Loi 25.

🚨 Scénarios courants à risque en entreprise
  • Un représentant colle une fiche client dans ChatGPT pour rédiger un courriel personnalisé
  • Un RH demande à l'IA de résumer un dossier d'employé avec les vrais noms et informations
  • Un comptable soumet un fichier Excel contenant des données fiscales à un outil IA pour analyse
  • Un développeur colle du code avec des clés API ou des données de production pour déboguer

Ce que les organisations devraient faire : adopter une politique d'utilisation des outils IA qui définit quelles données peuvent être soumises à quels outils, former les employés, et documenter les mesures prises. Pour plus de détails sur le cadre légal, consultez notre article sur la surveillance des employés et la Loi 25.

Alternatives respectueuses de la vie privée

Il existe des façons d'utiliser l'IA sans envoyer vos données sur des serveurs américains.

🖥️ Ollama (local)

Logiciel libre qui fait tourner des modèles IA directement sur votre ordinateur. Rien ne quitte votre machine — zéro connexion requise après le téléchargement initial. Supporte Llama 3, Mistral, Phi-3 et d'autres. Nécessite un ordinateur récent avec suffisamment de RAM. C'est la solution la plus robuste pour la confidentialité.

🦆 DuckDuckGo AI Chat

Interface web qui donne accès à plusieurs modèles IA (dont GPT-4o Mini et Claude) sans créer de compte. DuckDuckGo s'engage contractuellement à ne pas conserver les conversations et à ne pas permettre l'entraînement des modèles avec vos données. Pratique pour des questions ponctuelles sans compte associé.

🔒 Proton AI

Proton (connu pour ProtonMail) intègre des fonctionnalités IA dans sa suite avec le même engagement de confidentialité qui a fait sa réputation. Basé en Suisse, hors juridiction américaine. Offre disponible via abonnement Proton.

Pour les usages professionnels avec des données vraiment sensibles, Ollama est la seule solution où vous pouvez avoir une certitude absolue que rien ne sort de votre infrastructure. Les modèles actuels (Llama 3.1, Mistral 7B, Phi-3) sont honnêtement capables pour la rédaction, le résumé, et l'analyse de documents généraux.

Paramètres à désactiver maintenant

Si vous continuez à utiliser ces outils — et la plupart d'entre nous le feront — voici les paramètres à désactiver pour limiter la collecte de vos données.

ChatGPT — Désactiver l'entraînement des modèles

  1. Connectez-vous à chatgpt.com
  2. Cliquez sur votre photo de profil (en bas à gauche sur desktop)
  3. Allez dans Paramètres
  4. Sélectionnez Contrôles des données
  5. Désactivez Améliorer le modèle pour tous
  6. Si vous souhaitez aussi effacer l'historique : dans la même section, cliquez Supprimer tout l'historique des discussions

Google Gemini — Désactiver le partage de données

  1. Allez sur myaccount.google.com
  2. Cliquez sur Données et confidentialité
  3. Défilez jusqu'à Historique des activités et de la localisation
  4. Cliquez sur Activité Gemini
  5. Désactivez l'activité Gemini (cela arrête la conservation des conversations)
  6. Pour désactiver la révision humaine : dans Paramètres Gemini → désactivez Activité Gemini et Améliorer les produits Google

Claude (Anthropic) — Paramètres de confidentialité

  1. Connectez-vous à claude.ai
  2. Cliquez sur votre prénom en bas à gauche
  3. Sélectionnez Paramètres
  4. Allez dans l'onglet Confidentialité
  5. Désactivez Améliorer Claude pour tout le monde
  6. Notez que vos données restent conservées selon la politique d'Anthropic même après désactivation — voir notre guide complet sur Claude et la vie privée
💡 Le conseil pratique qui change tout Même avec tous les paramètres désactivés, vos données passent par des serveurs américains tant que vous utilisez ces services. Les paramètres réduisent la collecte, ils ne l'éliminent pas. Pour les informations vraiment sensibles, la seule vraie protection reste de ne pas les soumettre — ou d'utiliser un modèle local.

Questions fréquentes

Est-ce que ChatGPT conserve mes conversations?

Par défaut, oui. OpenAI conserve vos conversations et peut les utiliser pour améliorer ses modèles. Avec l'historique activé, les données sont conservées tant que vous n'effacez pas manuellement les conversations. Avec l'historique désactivé, les données sont conservées 30 jours à des fins de sécurité selon la politique d'OpenAI.

La désactivation de l'option « Améliorer le modèle pour tous » dans les paramètres arrête l'utilisation de vos données pour l'entraînement, mais ne signifie pas que les données disparaissent immédiatement.

ChatGPT est-il conforme à la Loi 25 du Québec?

Pour les usages professionnels impliquant des données de résidents québécois, probablement pas. La CAI a publié des lignes directrices indiquant que les organisations doivent effectuer une évaluation des facteurs relatifs à la vie privée avant d'utiliser des outils IA avec des données personnelles. OpenAI est soumis au CLOUD Act américain, ce qui complique l'établissement d'un niveau de protection équivalent à la Loi 25.

Pour un usage personnel sans données sensibles, la Loi 25 ne s'applique pas directement aux individus.

Un VPN protège-t-il mes données quand j'utilise ChatGPT?

Non. Un VPN chiffre votre connexion entre votre appareil et Internet, mais une fois que vos données arrivent sur les serveurs d'OpenAI, elles sont dans les mains d'OpenAI — peu importe si vous avez utilisé un VPN pour les envoyer. Le VPN masque votre adresse IP, pas le contenu de vos conversations.

Un VPN est utile pour d'autres choses (protection sur WiFi public, protection contre la surveillance de votre FAI) mais il ne change rien à ce que ChatGPT fait de vos données.

Ollama est-il difficile à installer?

C'est plus simple que ça en a l'air. Sur Mac ou Windows, il y a un installateur graphique disponible sur ollama.com. Sur Linux, c'est une commande dans le terminal. Une fois installé, vous téléchargez un modèle avec une commande comme ollama pull llama3 et vous pouvez l'utiliser immédiatement.

La limite réelle, c'est le matériel : les bons modèles (Llama 3.1 8B et plus) ont besoin d'au moins 8 Go de RAM. Pour les modèles plus grands et plus capables (32B et plus), comptez 32 Go ou plus. Si votre ordinateur est récent et bien équipé, Ollama fonctionne très bien.

Mon employeur peut-il me reprocher d'avoir utilisé ChatGPT au travail?

Ça dépend de la politique de votre employeur. De plus en plus d'organisations au Québec ont adopté des politiques d'utilisation des outils IA. Si votre organisation n'en a pas, vous opérez dans une zone grise.

Ce qui est clair : si vous avez soumis des données confidentielles de l'entreprise ou de ses clients à un outil IA grand public, vous avez potentiellement violé votre obligation de confidentialité envers votre employeur — indépendamment de toute politique écrite. La prudence s'impose.

Allez plus loin avec Claude spécifiquement

Notre guide dédié explore en détail les politiques de confidentialité d'Anthropic, les différences entre Claude.ai et l'API, et les bonnes pratiques pour les professionnels qui l'utilisent régulièrement.

Lire : Comment utiliser Claude sans exposer vos données →

📚 À lire aussi sur naviguer.ca