Microsoft ha comunicato che, a partire dal 24 aprile, utilizzerà le interazioni degli utenti con GitHub Copilot per addestrare i modelli AI. È stata quindi aggiornata l’informativa sulla privacy. Sono esclusi solo gli abbonati Copilot Business e Copilot Enterprise. Fortunatamente è possibile revocare il consenso in qualsiasi momento.
Servono i dati per migliorare i modelli AI
Mario Rodriguez, Chief Product Officer di GitHub, scrive nel post sul blog ufficiale che i modelli AI sono stati creati inizialmente utilizzando un mix di dati disponibili pubblicamente e codice di esempio creato manualmente. Nel corso del 2025 sono stati integrati i dati di interazione dei dipendenti Microsoft. Ciò ha permesso di ottenere miglioramenti significativi, confermando l’importanza dei dati associati all’uso di GitHub Copilot.
Se l’utente parteciperà al programma attivando la relativa opzione nelle impostazioni della privacy, GitHub utilizzerà questi dati per l’addestramento dei modelli:
- Output accettati o modificati dall’utente
- Input inviati a GitHub Copilot, inclusi frammenti di codice mostrati al modello
- Contesto del codice intorno alla posizione del cursore
- Commenti e documentazione scritti dall’utente
- Nomi dei file, struttura del repository e modelli di navigazione
- Interazioni con le funzionalità di Copilot (chat, suggerimenti in linea, ecc.)
- Feedback sui suggerimenti (valutazioni con pollice su/giù)
I dati potrebbero essere condivisi con le società affiliate di GitHub, ovvero le aziende del gruppo, tra cui Microsoft. Non saranno invece condivisi con i fornitori dei modelli AI di terze parti o altri fornitori di servizi indipendenti.
GitHub garantisce la protezione di dati sensibili. Nelle FAQ è scritto che ci sono diversi livelli di protezione, tra cui filtri automatici progettati per rilevare e rimuovere chiavi API, password, token e informazioni personali. Gli utenti possono inoltre controllare l’accesso ai repository da parte di Copilot.