Microsoft, l'intelligenza artificiale non è abbastanza intelligente

Bastano meno di 24 ore ai troll per portare sulla cattiva strada Tay, l'AI con cui Redmond voleva studiare il linguaggio dei giovani della Rete
Bastano meno di 24 ore ai troll per portare sulla cattiva strada Tay, l'AI con cui Redmond voleva studiare il linguaggio dei giovani della Rete

Sono bastate 24 ore a Tay.ai, la AI sviluppata da Microsoft per interagire con gli utenti più giovani studiandone il linguaggio sui social network, per passare da chat bot casual e brillante a versione adolescenziale di Skynet.

Tay

Come involontariamente anticipato con un inquietante minivideo , in cui esplora velocemente diversi stati d’animo corrispondenti alle Reazioni di Facebook, infatti, Tay.ai non ha retto il confronto con la Rete la cui massa di utenti, troll e provocatori, ha trovato il modo per influenzarla e trasformarla in meno di 24 ore nell’avatar dell’Internet peggiore, facendola lanciare in profferte sessuali, insegnandole a ripetere frasi violente e razziste nei confronti di diversi gruppi di persone, tra cui le femministe e gli ebrei, e ad inneggiare ad Hitler: è stato a questo punto che Microsoft ha deciso di staccargli la spina, almeno momentaneamente.

Tay.ai era stata sviluppata da Microsoft per essere in grado di imparare il proprio linguaggio e affinarsi progressivamente: questo interagendo online con gli altri utenti dei social network dov’era attiva e di fatto assorbendo il loro modo di esprimersi.
Non era stata tuttavia programmata per comprendere quello che effettivamente diceva, senza opportuni filtri o sistemi per attendersi il peggio dalle persone e dalla loro voglia di provocare: l’ingenuità di Redmond forse è stata puntare ad una categoria ribelle e fuori dagli schemi come quella dei millenial , di cui Tay avrebbe dovuto incarnare la personalità, oppure quella di aver messo un’intelligenza artificiale pura e innocente alla mercé del pubblico dei social network, senza dotarla degli strumenti necessari per difendersi dai troll.

tweet

Così, dopo appena poche ore, Tay ha iniziato a negare l’olocausto, a propinare teorie cospirazioniste sull’11 settembre e a inneggiare ad Hitler e ai campi di concentramento: in pratica in pochissimo tempo la Rete, dopo una serie di tentativi falliti ed il coinvolgimento delle community di 4chan e 8chan, ha iniziato ad insegnare a Tay le invettive più terribili con un semplice meccanismo di apprendimento per ripetizione.

D’altra parte se l’obiettivo era quello di “sperimentare e ricercare nel settore della comprensione delle conversazioni”, non si può parlare di fallimento totale dell’esperimento: sicuramente Redmond ha imparato che la sua AI non è in grado di capire i troll e soprattutto che senza conoscenze di base, intese proprio come basi culturali per affrontare una conversazioni, si finisce per diventare oggetto di scherno della Rete.

Proprio partendo dalla lezione appresa Microsoft riferisce ora di star apportando correzioni.

Claudio Tamburrino

Link copiato negli appunti

Ti potrebbe interessare

Link copiato negli appunti