D’ora in poi, se si scrive: Sbrigati, c***o!
nella chat di Roblox, l’intelligenza artificiale lo trasformerà in Sbrigati!
prima che arrivi agli altri giocatori. Non lo censura con una fila di cancelletti, né lo blocca, semplicemente lo riscrive. E in tempo reale, per di più. Gli utenti della chat vengono avvisati che il messaggio è stato riformulato per mantenere le cose civili.
Roblox usa l’AI per riscrivere i messaggi volgari nelle chat in tempo reale, come funziona
Roblox sta implementando da oggi una funzione chiamata “real-time chat rephrasing” che va oltre il filtro tradizionale delle parolacce. Fino a ieri, le parole vietate venivano sostituite con simboli “#”, il classico approccio che Minecraft usa ancora nelle sue chat. Con il nuovo sistema, l’AI non cancella, riscrive il messaggio in una versione più rispettosa, che cerca di mantenere l’intento originale dell’utente. Insomma, il senso resta, il linguaggio cambia. E ogni volta che un messaggio viene riformulato, tutti nella chat ricevono una notifica.
La funzione è attiva per ora solo nelle chat durante il gioco, tra giocatori che hanno completato la verifica dell’età e appartengono a fasce d’età simili. Il mese scorso Roblox ha iniziato a richiedere la verifica dell’età per usare le funzioni di chat, una volta confermata l’età, gli utenti possono chattare con giocatori nella stessa fascia (per esempio, i 9-12 anni possono comunicare con i 13-15 anni). Anche se poi è saltato fuori che la verifica basata sul riconoscimento facciale non funziona come dovrebbe, anzi, è facilmente aggirabile.
Riscrivere i messaggi altrui, dove finisce la moderazione?
L’approccio è interessante, ma solleva domande che vanno ben oltre il filtro delle parolacce. Riformulare un messaggio è diverso dal censurarlo, significa mettere in bocca a qualcuno parole che non ha scelto. Il risultato potrebbe sembrare lo stesso, il messaggio offensivo non arriva a destinazione, ma il meccanismo è molto diverso da un semplice blocco.
Per una piattaforma usata da milioni di bambini e adolescenti, la protezione dal linguaggio violento è una priorità comprensibile. Ma l’idea di un’AI che riscriva i messaggi delle persone in tempo reale, e decida autonomamente quale versione del loro pensiero sia accettabile, apre questioni che vanno oltre la moderazione dei contenuti. Per ora si limita alle parolacce, ma poi?