Chiunque sa che non deve dare la password al telefono a uno sconosciuto. Che è meglio non inserire i dati della carta di credito in un sito sospetto. Che quell’email che promette un guadagno facile, non è affatto un’opportunità finanziaria. Sono regole di buon senso, che la maggior parte delle persone oramai ha interiorizzato dopo anni di avvertimenti. Poi è arrivata l’intelligenza artificiale, e chissà perché, il buon senso è improvvisamente sparito…
Gli assistenti AI sono utili, rispondono velocemente, sembrano affidabili, e la tentazione di incollare qualsiasi cosa nella casella di testo per ottenere un aiuto rapido è comprensibile. Ma quella casella non è una cassaforte o un diario privato. È un servizio digitale gestito da un’azienda, e tutto ciò che si scrive potrebbe essere archiviato, analizzato o. nel peggiore dei casi, esposto in modo imprevisto.
7 informazioni che non vanno mai condivise con un assistente AI
Le cause legali intentate da singoli, aziende e persino organizzazioni governative sulle modalità di gestione dei dati degli utenti dovrebbero far riflettere. La regola da seguire è semplice: presumere che qualsiasi cosa si digiti possa essere letta da qualcun altro. Con questa mentalità, diventa molto più facile capire cosa fare.
1. Le password
Sembra ovvio, eppure succede più spesso di quanto si pensi. Qualcuno incolla una password cercando aiuto per un problema di accesso, qualcun altro chiede all’AI di generare una variazione di una password esistente partendo dall’originale. In entrambi i casi, si sta consegnando la chiave di casa a uno sconosciuto, con la differenza che questo sconosciuto ha una memoria potenzialmente molto più lunga della nostra…
Se si ha bisogno di una password più sicura, meglio chiedere all’AI di generarne una da zero, senza fornire quella attuale come punto di partenza.
Ad esempio: Genera cinque password sicure di almeno 16 caratteri che includano lettere maiuscole, minuscole, numeri e simboli. Non basarti su nessun dato personale.
2. Le informazioni finanziarie
Numeri di carte di credito o debito, coordinate bancarie, dati sugli investimenti, dettagli dei conti correnti, nulla di tutto questo dovrebbe mai finire nella conversazione con un assistente AI. Chiedere consigli generici sulla gestione del budget è perfettamente ragionevole. Incollare l’estratto conto per farli analizzare non lo è.
La differenza è notevole, si può descrivere la propria situazione finanziaria in termini generali senza mai condividere i numeri reali. Guadagno circa X e spendo circa Y
è un’informazione utile per l’AI e innocua per l’utente. Il numero della carta di credito non lo è.
Aiutami a creare un piano di risparmio mensile per una persona con un reddito netto di [indicare cifra approssimativa] e spese fisse di [indicare cifra approssimativa]. Non condividerò dati finanziari specifici.
3. Il codice fiscale e i documenti di identità
Il codice fiscale è una miniera d’oro per chi commette frodi, e non dovrebbe mai comparire in alcun prompt, per nessuna ragione. Lo stesso vale per numeri di documenti di identità, patente o qualsiasi altro identificativo personale. Con la crescente preoccupazione sulla condivisione dei dati degli utenti da parte delle aziende di intelligenza artificiale, esporre queste informazioni è un rischio che non ha alcuna giustificazione pratica.
4. I documenti riservati
Caricare documenti che contengono il proprio indirizzo, numeri di conto o informazioni sensibili per farli analizzare è una tentazione comprensibile, l’AI è bravissima in questo tipo di analisi. Ma la comodità non giustifica il rischio.
Se si deve far analizzare un documento, bisogna rimuovere prima tutte le informazioni identificabili. Oscurare nomi, indirizzi, numeri di conto e qualsiasi dato che permetta di risalire a sé. Il contenuto da analizzare resta intatto; la propria esposizione si riduce a zero.
Analizzerò un documento da cui ho rimosso i dati personali. Concentrati sulla struttura, sulla chiarezza del linguaggio e sulle eventuali clausole problematiche.
5. Le informazioni di lavoro riservate
La tentazione di far riassumere all’AI un’email lunga, una presentazione complessa o un documento strategico ricevuto da un collega è forte, soprattutto quando il tempo stringe. Ma prima di farlo, bisogna farsi una domanda: la politica aziendale lo consente? Si rischia di esporre dati interni, strategie commerciali o informazioni riservate della vostra azienda?
Molte aziende hanno regole precise sull’uso dell’intelligenza artificiale con materiali interni. Violarle per risparmiare dieci minuti di lettura non è un compromesso ragionevole. Se si deve usare l’AI per il materiale di lavoro, è importante verificare prima le politiche aziendali e, se possibile, utilizzare strumenti approvati dall’azienda che garantiscano la riservatezza dei dati.
Devo riassumere un documento di lavoro lungo ma non posso condividerne il contenuto specifico. Posso descriverti la struttura e i temi principali e tu mi aiuti a creare un modello di riassunto che posso compilare da solo?
6. I documenti medici
Esistono strumenti di intelligenza artificiale progettati specificamente per domande sulla salute come ChatGPT Salute. Usarli per capire meglio i propri sintomi o per prepararsi a una visita medica è perfettamente sensato, a patto di consultare poi un professionista reale. Quello che non è sensato è caricare referti medici, risultati di laboratorio o la propria storia clinica completa in un assistente generico.
I dati sanitari sono tra le informazioni più sensibili che esistano, e una volta condivisi, il controllo su come vengono utilizzati o archiviati si perde completamente.
Vorrei capire meglio cosa significa un certo valore nei risultati degli esami del sangue. Ti descrivo il parametro e il range senza condividere il documento originale: [nome del parametro] risulta [alto/basso/nella norma]. Cosa potrebbe significare?
7. Le informazioni di altre persone
Questo è forse il punto più trascurato, e il più grave dal punto di vista etico. Condividere i dati personali di qualcun altro con un assistente di intelligenza artificiale, come nome, indirizzo, numero di telefono, informazioni finanziarie o sanitarie, significa esporre un’altra persona a un rischio che non ha scelto di correre.
Non importa quanto sia innocua l’intenzione, chiedere all’AI di analizzare il curriculum di un amico, incollare i dati di un familiare per una verifica o condividere informazioni di un collega per velocizzare un compito significa violare la fiducia di quella persona. E il fatto che non lo sapranno mai non lo rende meno problematico.
La mentalità giusta
L‘intelligenza artificiale è uno strumento straordinariamente utile, ma non è un consulente vincolato dal segreto professionale, non è un archivio protetto, non è un ambiente privato.
La regola da adottare non è complicata, prima di premere invio, bisogna chiedersi come ci si sentirebbe se quell’informazione finisse su un cartellone pubblicitario in centro città. Se la risposta è no, allora è il caso di trovare un altro modo per formulare la domanda, perché l’AI può quasi sempre essere utile senza consegnarle i propri dati più preziosi.