Google clona la voce di un conduttore radio su NotebookLM

Google clona la voce di un conduttore radio su NotebookLM

David Greene, storico conduttore di NPR, accusa Google di aver replicato la sua voce in NotebookLM senza consenso.
Google clona la voce di un conduttore radio su NotebookLM
David Greene, storico conduttore di NPR, accusa Google di aver replicato la sua voce in NotebookLM senza consenso.

David Greene, storico conduttore della radio pubblica americana NPR, ha deciso di trascinare Google in tribunale, con un’accusa ben precisa: ha violato i suoi diritti creando un prodotto che replica la sua voce senza autorizzazione e senza compenso. Un tribunale della contea di Santa Clara, in California, dovrà stabilire se la somiglianza è abbastanza evidente perché il pubblico riconosca la voce di Greene, e se questo costituisca un danno.

Google nega tutto, la voce non è quella di David Greene, ma di un attore professionista

Google, naturalmente, ha negato tutto. Il portavoce José Castañeda ha dichiarato che le accuse sono infondate e che la voce maschile utilizzata negli audio di NotebookLM è quella di un attore professionista regolarmente pagato da Google. Punto. Nessuna clonazione, nessun addestramento sulla voce di Greene.

Il guaio è che la questione non si chiude con una smentita. Come ha sottolineato il Washington Post, le voci artificiali usate nei modelli linguistici vengono addestrate su enormi database di testi e registrazioni vocali di persone reali, spesso senza il loro consenso e senza che ne siano consapevoli. Che Google abbia pagato un attore non esclude che il modello abbia assorbito, nel processo di addestramento, le caratteristiche vocali di centinaia di altre persone, incluso un conduttore radiofonico la cui voce è stata trasmessa per decenni su una delle emittenti più ascoltate d’America.

Il precedente di Scarlett Johansson

La storia sa di déjà vu. A maggio 2024, quando OpenAI presentò GPT-4o con la sua interfaccia vocale sorprendentemente naturale, Scarlett Johansson si dichiarò scioccata e arrabbiata, una delle voci del sistema, chiamata “Sky“, le somigliava in modo inquietante. L’attrice, che tra l’altro aveva interpretato un’intelligenza artificiale nel film “Her”, non aveva dato alcun consenso.

Da allora, il settore avrebbe dovuto imparare la lezione, ma non è andata così. Le aziende di AI continuano a produrre voci sintetiche che finiscono per assomigliare a persone reali, e poi si difendono dicendo che è una coincidenza o che hanno usato attori pagati. Sarà anche vero in alcuni casi, ma quando le coincidenze si accumulano, il confine tra casualità e appropriazione diventa molto sottile.

La battaglia legale che potrebbe cambiare le regole

Il caso Greene potrebbe avere conseguenze che vanno ben oltre una singola causa. Negli Stati Uniti stanno spuntando leggi a livello statale e federale per mettere dei paletti all’uso delle voci nell’intelligenza artificiale. Certo, i personaggi pubblici hanno già diritti su come viene usata la loro immagine, ma per le voci sintetiche create dall’AI è tutto ancora da definire. È un territorio quasi vergine dal punto di vista legale.

La giustizia dovrà rispondere a domande nuove e scomode: quanto deve essere simile una voce sintetica a quella di una persona reale per costituire una violazione? Serve che il pubblico la riconosca, o basta la somiglianza oggettiva? E soprattutto: chi è responsabile quando un modello produce una voce che assomiglia a qualcuno, senza che nessuno l’abbia esplicitamente programmato per farlo?

Le risposte definiranno non solo il futuro delle voci sintetiche, ma i limiti di ciò che l’intelligenza artificiale può assorbire, imitare e riprodurre senza il consenso delle persone che, inconsapevolmente, le hanno fornito il materiale per imparare.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 feb 2026
Link copiato negli appunti