Vous collez un contrat confidentiel dans ChatGPT pour en obtenir un résumé. Vous soumettez des données clients à un assistant IA pour rédiger un rapport. Des millions de personnes le font chaque jour sans y réfléchir. Mais dès que vous appuyez sur Entrée, vos données entrent dans un système que vous ne contrôlez pas.
Le modèle de confiance des outils IA
Chaque chatbot IA fonctionne sur un modèle client-serveur : votre saisie quitte votre appareil, traverse Internet et est traitée sur l'infrastructure du fournisseur. C'est fondamentalement différent d'ouvrir un fichier sur votre ordinateur. Vous confiez vos données à un tiers.
La question essentielle n'est pas de savoir si les outils IA sont utiles — ils le sont. La question est ce qui advient de vos données après que l'IA a généré sa réponse.
| Ce qui se passe | ChatGPT (gratuit) | ChatGPT (Enterprise) | Google Gemini | Claude |
|---|---|---|---|---|
| Données envoyées aux serveurs | Oui | Oui | Oui | Oui |
| Utilisées pour l'entraînement | Par défaut, oui | Non | Variable selon l'offre | Non (par défaut) |
| Conversations journalisées | Oui | Oui (chiffrées) | Oui | Oui |
| Opt-out disponible | Oui | N/A | Partiel | Oui |
La distinction entre « pas utilisé pour l'entraînement » et « pas stocké » est cruciale. Même les fournisseurs qui promettent de ne jamais entraîner leurs modèles sur vos données conservent les conversations pour la détection d'abus, le débogage et la conformité légale. Ces journaux peuvent persister pendant des semaines ou des mois.
Distinction clé « Pas utilisé pour l'entraînement » ne signifie pas « pas stocké ». Vos données peuvent être journalisées sur les serveurs du fournisseur pour la détection d'abus, l'assurance qualité ou la conformité légale — même si elles ne sont jamais injectées dans un modèle.
Pourquoi c'est plus grave qu'on ne le pense
L'incident Samsung en 2023 a servi d'électrochoc. Des ingénieurs ont collé du code source propriétaire et des notes de réunion stratégiques dans ChatGPT. Comme l'entraînement sur les données était activé par défaut, ces informations confidentielles ont potentiellement été intégrées à la base de connaissances du modèle. Samsung a réagi en interdisant les chatbots IA dans toute l'entreprise.
Ce n'est pas un cas isolé. Les études montrent que 11 % des données collées dans les outils IA sont confidentielles et que 38 % des entreprises ont connu une forme d'exposition de données via des outils IA.
Les catégories de risque sont bien identifiées :
- Données d'identité (numéros de sécurité sociale, CNI) — permettent l'usurpation d'identité
- Identifiants (mots de passe, clés API, tokens) — à considérer comme compromis dès qu'ils sont collés
- Secrets d'entreprise (code, données financières, documents stratégiques) — avantage concurrentiel perdu
- Données de tiers (informations clients, dossiers patients) — responsabilité juridique sous le RGPD
- Communications privées — violent la vie privée des autres personnes concernées
Le RGPD et la dimension juridique
En Europe, le RGPD s'applique à toute donnée personnelle que vous partagez avec un fournisseur IA. Si vous collez les informations personnelles de vos clients dans ChatGPT sans base légale, vous êtes techniquement en infraction. L'Italie a temporairement interdit ChatGPT en 2023 pour cette raison. La CNIL française et le AI Act européen imposent des obligations de transparence sur le traitement des données par les systèmes IA.
Pour les entreprises, les enjeux sont concrets : les violations du RGPD peuvent entraîner des amendes allant jusqu'à 4 % du chiffre d'affaires annuel.
L'alternative du traitement côté client
Il existe une architecture fondamentalement différente : le traitement côté client. Les outils qui fonctionnent entièrement dans le navigateur n'envoient jamais vos données à un serveur. Le calcul se fait sur votre propre appareil, et quand vous fermez l'onglet, les données disparaissent.
| Aspect | Outils IA cloud | Outils côté client |
|---|---|---|
| Les données quittent votre appareil | Oui | Non |
| Le fournisseur peut accéder à vos données | Oui | Non |
| Fonctionne hors connexion | Non | Souvent oui |
| Risque de conservation des données | Oui | Aucun |
Cette distinction est cruciale pour les opérations sur les fichiers : nettoyer les métadonnées d'un PDF, supprimer les données EXIF d'une photo, convertir un document. Ces tâches ne nécessitent pas d'IA — elles nécessitent du calcul — et il n'y a aucune raison de téléverser des fichiers sensibles pour les accomplir.
Règle simple Si une tâche peut être réalisée avec du calcul local (conversion de fichiers, suppression de métadonnées, formatage de texte), préférez les outils côté client. Réservez l'IA cloud pour les tâches qui nécessitent véritablement un modèle de langage — et anonymisez vos données avant de les soumettre.
L'approche raisonnable
Éviter complètement les outils IA n'est pas réaliste. Mais les traiter comme un inconnu compétent est sage : vous discuteriez librement de sujets généraux, mais vous ne lui confieriez ni votre passeport, ni vos mots de passe, ni les données financières de votre entreprise.
Principes clés :
- Anonymiser avant de coller — remplacez les vrais noms, numéros et identifiants par des substituts
- Vérifier la politique de données du fournisseur — notamment si l'entraînement est activé par défaut et combien de temps les journaux sont conservés
- Utiliser les offres entreprise pour les données professionnelles — elles offrent généralement des garanties contractuelles de protection
- Choisir les outils côté client pour les fichiers sensibles — pas de téléversement signifie pas d'exposition
La commodité de l'IA est réelle. Mais la responsabilité de comprendre où vont vos données l'est tout autant.
Pour aller plus loin
Découvrez des outils qui traitent vos fichiers localement dans le navigateur, sans aucun envoi vers un serveur :
- Nettoyer les métadonnées d'un PDF — supprimer les informations cachées de vos documents
- Supprimer les données EXIF de vos photos — retirer la localisation et les informations d'appareil
- Protéger un PDF par mot de passe — chiffrer les documents sensibles avant partage
