Copi un paragrafo da un contratto riservato in ChatGPT per ottenere un riassunto. Incolli i dati dei clienti in un assistente IA per redigere un rapporto. Milioni di persone lo fanno ogni giorno senza pensare alle implicazioni. Ma nel momento in cui premi Invio, i tuoi dati entrano in un sistema che non controlli.
Il modello di fiducia dietro gli strumenti di IA
Ogni chatbot IA funziona secondo un modello client-server: il tuo input lascia il tuo dispositivo, viaggia su internet e viene elaborato sull'infrastruttura del fornitore. Questo è fondamentalmente diverso dall'aprire un file sul tuo computer. Stai consegnando i tuoi dati a una terza parte.
La domanda fondamentale non è se gli strumenti di IA siano utili — lo sono. La domanda è cosa succede ai tuoi dati dopo che l'IA genera la sua risposta.
| Cosa succede | ChatGPT (gratuito) | ChatGPT (Enterprise) | Google Gemini | Claude |
|---|---|---|---|---|
| Dati inviati ai server | Sì | Sì | Sì | Sì |
| Usati per l'addestramento del modello | Per impostazione predefinita, sì | No | Varia in base al piano | No (per impostazione predefinita) |
| Conversazioni registrate | Sì | Sì (crittografate) | Sì | Sì |
| Opt-out disponibile | Sì | N/A | Parziale | Sì |
La distinzione tra "non usato per l'addestramento" e "non memorizzato" è cruciale. Anche i fornitori che promettono di non addestrare mai sui tuoi dati continuano a registrare le conversazioni per il monitoraggio degli abusi, il debug e la conformità legale. Questi registri possono persistere per settimane o mesi.
Distinzione fondamentale "Non usato per l'addestramento" non significa "non memorizzato." I tuoi dati possono comunque essere registrati sui server del fornitore per il rilevamento degli abusi, il controllo qualità o la conformità legale — anche se non vengono mai immessi in un modello.
Perché questo è più importante di quanto pensi
L'incidente Samsung del 2023 è stato un campanello d'allarme. Gli ingegneri incollarono codice sorgente proprietario e appunti di riunioni interne in ChatGPT. Poiché l'addestramento con i dati era attivato per impostazione predefinita, quelle informazioni riservate furono potenzialmente incorporate nella base di conoscenza del modello. Samsung rispose vietando i chatbot IA in tutta l'azienda.
Non è un caso isolato. Gli studi mostrano che l'11% dei dati incollati negli strumenti di IA è riservato e il 38% delle aziende ha sperimentato qualche forma di esposizione dei dati attraverso strumenti di IA.
Le categorie di rischio sono ben note:
- Dati identificativi (documenti d'identità, codici fiscali) — consente il furto d'identità
- Credenziali (password, chiavi API, token) — devono essere considerate compromesse una volta incollate
- Segreti commerciali (codice, dati finanziari, documenti strategici) — vantaggio competitivo perso
- Dati di terzi (informazioni sui clienti, cartelle cliniche) — responsabilità legale ai sensi del GDPR e dell'HIPAA
- Comunicazioni private — viola la privacy delle altre persone coinvolte
GDPR e la dimensione legale
In Europa, il GDPR si applica a qualsiasi dato personale condiviso con un fornitore di IA. Se incolli le informazioni personali dei tuoi clienti in ChatGPT senza una base giuridica, stai tecnicamente violando la legge sulla protezione dei dati. L'Italia ha temporaneamente vietato ChatGPT nel 2023 proprio per questa preoccupazione. La CNIL francese e l'EU AI Act impongono entrambi obblighi di trasparenza su come i sistemi di IA gestiscono i dati personali.
Per le aziende, le conseguenze sono concrete: le violazioni del GDPR possono comportare sanzioni fino al 4% del fatturato annuo.
L'alternativa lato client
Esiste un'architettura fondamentalmente diversa: l'elaborazione lato client. Gli strumenti che funzionano interamente nel browser non inviano mai i tuoi dati a un server. Il calcolo avviene sul tuo stesso dispositivo, e quando chiudi la scheda, i dati scompaiono.
| Aspetto | Strumenti IA cloud | Strumenti lato client |
|---|---|---|
| I dati lasciano il tuo dispositivo | Sì | No |
| Il fornitore può accedere ai tuoi dati | Sì | No |
| Funziona offline | No | Spesso sì |
| Rischio di conservazione dei dati | Sì | Nessuno |
Questa distinzione è particolarmente importante per le operazioni sui file: pulire i metadati di un PDF, rimuovere i dati EXIF da una foto, convertire un documento. Queste attività non richiedono IA — richiedono calcolo — e non c'è motivo di caricare file sensibili per eseguirle.
Regola pratica Se un'attività può essere svolta con il calcolo locale (conversione file, rimozione metadati, formattazione del testo), preferisci gli strumenti lato client. Riserva l'IA cloud per attività che necessitano genuinamente di un modello linguistico — e anonimizza i tuoi dati prima di inviarli.
L'approccio ragionevole
Evitare completamente gli strumenti di IA è impraticabile. Ma trattarli come un estraneo competente è saggio: discuteresti liberamente di argomenti generali, ma non consegneresti il tuo passaporto, le tue password o i dati finanziari della tua azienda.
Principi chiave:
- Anonimizza prima di incollare — sostituisci nomi reali, numeri e identificatori con segnaposto
- Verifica la politica sui dati del fornitore — in particolare se l'addestramento è attivo per impostazione predefinita e per quanto tempo vengono conservati i registri
- Usa piani enterprise per i dati aziendali — offrono tipicamente garanzie contrattuali di protezione dei dati
- Scegli strumenti lato client per file sensibili — nessun caricamento significa nessuna esposizione
La comodità dell'IA è reale. Ma lo è anche la responsabilità di capire dove vanno i tuoi dati.
Per approfondire
Esplora strumenti che elaborano i tuoi file localmente nel browser, senza alcun caricamento su server:
- Pulire i metadati PDF — rimuovere informazioni nascoste dai documenti
- Rimuovere i dati EXIF dalle foto — eliminare informazioni su posizione e dispositivo dalle immagini
- Proteggere un PDF con password — crittografare documenti sensibili prima della condivisione
