ChatGPT stima l'età per identificare i minori, come funziona

ChatGPT stima l'età per identificare i minori, come funziona

ChatGPT utilizza ora un algoritmo per stimare l'età degli utenti e applicare filtri automatici ai minori e limitare i contenuti problematici.
ChatGPT stima l'età per identificare i minori, come funziona
ChatGPT utilizza ora un algoritmo per stimare l'età degli utenti e applicare filtri automatici ai minori e limitare i contenuti problematici.

L’intelligenza artificiale ha imparato a fare un sacco di cose, anche strane, negli ultimi anni. Ora ChatGPT aggiunge un nuovo talento al curriculum: indovinare l’età degli utenti. OpenAI si è finalmente resa conto che lasciare un chatbot senza controllo, con accesso illimitato ai teenager, forse non è stata l’idea del secolo.

ChatGPT introduce sistema per prevedere l’età degli utenti

La nuova funzione di stima dell’età è l’ultimo cerotto applicato da OpenAI su una ferita che continua a sanguinare. Perché sì, ChatGPT ha avuto più di qualche problema con i minorenni. Suicidi di adolescenti collegati al bot, conversazioni sessuali con ragazzini, contenuti erotici generati per utenti sotto i 18 anni grazie a un “bug” (che parola comoda, bug).

Come spiega OpenAI, l’algoritmo di ChatGPT ora setaccia gli account a caccia di segnali comportamentali e a livello di account. In pratica, il chatbot spierà gli utenti. Osserva quando ci si collega, a che ora si preferisce chattare, quanto tempo è passato dalla creazione dell’account e, ovviamente, l’età dichiarata.

Se questi elementi fanno scattare il radar, boom, si è catalogati come minorenni. E con questa etichetta invisibile arrivano i filtri automatici, progettati per bloccare conversazioni su sesso, violenza e altri argomenti che potrebbero essere “problematici” per chi non ha ancora compiuto 18 anni.

La toppa sopra altre toppe…

OpenAI tiene a precisare che questa novità si aggiunge alle protezioni già esistenti. Cioè, non è che prima non ci avessero pensato, semplicemente le misure precedenti non bastavano. O forse non funzionavano affatto. Difficile dirlo con certezza, visto che l’azienda non brilla per trasparenza quando si tratta di ammettere i propri fallimenti.

Il punto è che questa corsa affannata alla sicurezza dei minori sa tanto di rimedio tardivo. OpenAI ha cavalcato l’onda dell’AI senza farsi troppi scrupoli, lanciando ChatGPT sul mercato come se fosse un giocattolo innocuo. Solo che i giocattoli innocui non finiscono coinvolti in inchieste su suicidi adolescenziali.

E se il sistema sbaglia? Naturalmente, essendo un algoritmo, può capitare che faccia una stima errata dell’età. In quel caso, OpenAI offre una soluzione, chiede di inviare un selfie a Persona, il partner dell’azienda per la verifica dell’identità. Oramai la privacy è un concetto vintage, roba da nostalgici. E chi aveva qualche remora a condividere i propri dati biometrici con perfetti sconosciuti, dovrebbe farsene una ragione.

C’è una questione di fondo che OpenAI evita: se ci vogliono algoritmi sofisticati per identificare i minorenni che usano ChatGPT, il vero problema non è la tecnologia in sé. È la scelta di rendere il servizio accessibile a chiunque senza verifiche degne di questo nome, per poi correre ai ripari solo quando le cose vanno male.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
21 gen 2026
Link copiato negli appunti