L’intelligenza artificiale si è evoluta ben oltre i semplici strumenti che si limitano a rispondere a domande. Si è intrufolata nei processi aziendali per aumentare produttività ed efficienza. Ma il dibattito su dove andrà questa tecnologia sta prendendo una strana piega… come i chatbot erotici.
Microsoft esclude la possibilità di sviluppare chatbot erotici
Mustafa Suleyman, CEO di Microsoft AI, ha deciso di rispondere prima che qualcuno glielo chiedesse. Durante un’intervista con il MIT, ha dichiarato senza mezzi termini: Non svilupperemo mai chatbot sessuali. È triste in un certo senso dover essere così chiari su questo punto, ma semplicemente non è la nostra missione aziendale
.
È una posizione ferma, che arriva in un momento particolare. Perché mentre Microsoft pianta i paletti etici nel terreno, OpenAI ha recentemente annunciato che permetterà contenuti a sfondo sessuale su ChatGPT per utenti adulti verificati a partire da dicembre.
Suleyman ha ammesso che Microsoft si sta deliberatamente muovendo più lentamente dei suoi rivali su questo fronte. Ma penso che sia una caratteristica, non un bug, in quest’era in cui essere attenti ai potenziali effetti collaterali e alle conseguenze a lungo termine è davvero importante
, ha aggiunto. È il tipo di dichiarazione che suona saggia e misurata.
Suleyman ha sottolineato che Microsoft sta cercando di costruire qualcosa di diverso. Attraverso il suo ultimo modello AI, Real Talk, l’azienda ha creato uno strumento che è un po’ impertinente e sfacciato
, rendendo l’esperienza utente più divertente. Ma ha confini chiari. Quando si prova a flirtare con Real Talk, l’AI respinge ogni tentativo, non in modo giudicante, ma con fermezza. Un’intelligenza artificiale con personalità ma senza ambiguità su cosa è disposta a fare.
OpenAI prende un’altra strada
Nel frattempo, OpenAI ha scelto una direzione diversa. È una scommessa interessante. Da un lato, riconosce che gli adulti dovrebbero avere libertà di usare la tecnologia come meglio credono, finché non danneggiano altri. Dall’altro, apre le porte a utilizzi che potrebbero diventare problematici, specialmente considerando gli incidenti che si sono già verificati di persone spinte all’autolesionismo da chatbot come ChatGPT. Negli ultimi mesi c’è stato un aumento di questi casi, e non è chiaro se permettere contenuti più espliciti migliorerà o peggiorerà la situazione.
Copilot si rinnova
Nel frattempo, Microsoft Copilot ha ricevuto un aggiornamento importante che ha integrato nuove funzionalità, incluso un nuovo avatar Mico (sostanzialmente Clippy con una mano di vernice fresca), chat di gruppo, e la capacità di respingere gli umani quando fanno premesse sbagliate su un certo aspetto. Insomma, è un assistente, non un compagno. È lì per aiutare a lavorare meglio, non per sostituire le relazioni umane.
Le relazioni parasociali con l’AI
Al di là dei chatbot erotici, c’è una questione più profonda: cosa succede quando le persone iniziano a sviluppare relazioni parasociali con l’intelligenza artificiale? Abbiamo già visto persone che si affezionano ai chatbot, che confidano segreti, che cercano supporto emotivo. Aggiungere una dimensione sessuale o romantica a queste interazioni amplifica enormemente i rischi.
Non si tratta solo di moralità o pudore. È una questione di cosa succede alla psiche umana quando iniziamo a preferire relazioni con l’AI perché sono più semplici, più prevedibili, meno complicate di quelle con gli esseri umani reali. Microsoft sembra voler evitare di contribuire a questa deriva. OpenAI sembra non condividere completamente questa preoccupazione, o forse crede che gli adulti siano capaci di gestire queste interazioni senza alcun danno. Staremo a vedere.