In che modo l’intelligenza artificiale, in particolare quella generativa, può influenzare il modo in cui comunichiamo? Quali sono le conseguenze della sua adozione su larga scala che ancora non siamo in grado di misurare? Due domande legittime, che è giusto porsi, nell’era in cui l’utilizzo dei chatbot e degli assistenti IA si fa sempre più diffuso, a ogni livello.
L’IA sta parlando una lingua tutta sua
The Guardian ha appena pubblicato un’interessante analisi firmata da Alex Hern. L’articolo non si limita a prendere in considerazione le ripercussioni immediate dell’uso di questa tecnologia, ma guarda più in là, partendo da un esame del problema a monte, dal metodo impiegato per comporre i modelli su cui poggia (ad esempio quelli della famiglia GPT di OpenAI) e per perfezionare i sistemi che li rendono fruibili (strumenti come ChatGPT). Si tratta di dinamiche nelle quali l’elemento umano entra in gioco svolgendo un compito importante, anzi fondamentale.
L’input che dà il via alla riflessione è costituito da un’osservazione dei testi generati dall’IA: se sono in inglese, includono con una frequenza anomala (molto più elevata rispetto a quanto accade nella letteratura o nel linguaggio colloquiale) parole come explore, tapestry, testament, leverage e soprattutto delve. A cosa è dovuto questo fenomeno? Non di certo alla raccolta delle informazioni date in pasto ai modelli stessi, condotta perlopiù attraverso la pratica dello scraping che aggrega enormi volumi di dati disponibili pubblicamente.
Il frequente utilizzo di delve
e l’AI-ese
Delve, il cui significato può essere tradotto in italiano come approfondire o scavare, è un termine molto utilizzato in Nigeria. E il paese africano è proprio uno di quelli in cui sono collocati i lavoratori ai quali è chiesto di fornire feedback sul funzionamento dei sistemi in questione. Il loro compito è interrogare l’intelligenza artificiale con domande e richieste di ogni tipo, valutando poi le risposte restituite, talvolta semplicemente assegnando un voto (pollici alto, pollice verso), in altre occasioni attraverso una valutazione più approfondita, suggerendo in che modo migliorarle. Ed è qui, in questa dinamica, che l’automatismo si appropria della lingua di chi lo sta istruendo.
Hern ha battezzato il risultato di questo processo AI-ese, una sorta di idioma proprio degli strumenti IA, che nel tempo potrebbe diffondersi e avere ripercussioni impreviste, inizialmente in modo quasi impercettibile. Una dimostrazione? Secondo quanto segnalato da Jeremy Nguyen della Swinburne University of Technology di Melbourne, la documentazione relativa a studi medici recenti include un volume molto più elevato di “delve” rispetto a quella pubblicata solo pochi anni fa. Sono dunque stati scritti con ChatGPT o con altri sistemi della stessa categoria? L’ipotesi non è da escludere.
Earlier this week, I asked if medical studies are being written with ChatGPT.
(We all know ChatGPT overuses the word "delve"…)
People in the comments pointed out that the chart should be as a PERCENTAGE of papers published on Pubmed. So here it is:https://t.co/ntOBEPm1MV pic.twitter.com/4W6zlNSkb8
— Jeremy Nguyen ✍🏼 🚢 (@JeremyNguyenPhD) April 4, 2024
Intelligenza artificiale e discriminazione linguistica
Un ulteriore spunto di riflessione è quello che fa riferimento a una conseguenza forse non altrettanto immediata, ma che potrebbe manifestarsi nel tempo. Se il cosiddetto AI-ese ha peculiarità che lo rendono simile all’inglese parlato in alcuni paesi specifici, in questo caso la Nigeria, si arriverà a un momento in cui per molti varrà il contrario, ovvero che la lingua di una persona appartenente a quel territorio potrebbe essere associata a quella di un bot? Il fenomeno della discriminazione linguistica (glottofobia), già reato in alcuni paesi, è cosa nota.