Intelligenza artificiale o intelligenze artificiali?

Intelligenza artificiale o intelligenze artificiali?

Una riflessione (non richiesta, ma forse necessaria), sull'uso e l'abuso del termine intelligenza artificiale, oggi di dominio pubblico.
Intelligenza artificiale o intelligenze artificiali?
Una riflessione (non richiesta, ma forse necessaria), sull'uso e l'abuso del termine intelligenza artificiale, oggi di dominio pubblico.

Quello relativo all’intelligenza artificiale è senza dubbio l’ambito in questo momento più sotto i riflettori, oggetto di una copertura mediatica capillare e costante (addirittura eccessiva?), da parte della stampa specializzata e non solo. Un’attenzione alimentata anche e soprattutto dall’interesse del grande pubblico. L’arrivo di strumenti fruibili da tutti, e non più esclusivamente relegati alla nicchia degli addetti ai lavori, ChatGPT in primis, ha contribuito a sdoganare un concetto che rischia però di essere mal interpretato.

È corretto far riferimento all’intelligenza artificiale, quando l’intento è quello di citare la tecnologia nel suo complesso, veicolando così l’immagine di qualcosa simile a un’unica entità? O, per dovere di chiarezza e di trasparenza, sarebbe meglio descrivere questi sistemi e i servizi a essi collegati come intelligenze artificiali distinte e indipendenti, al plurale, aiutando così a comprenderne le diverse origini e le differenti finalità?

Le parole sono importanti

Una sottigliezza, forse, più teorica che pratica, ma come diceva qualcuno le parole sono importanti. E lo sono, soprattutto, nell’epoca in cui si presta sempre più attenzione alle ripercussioni del loro impiego, in termini di inclusione e non solo, tanto da arrivare a mettere in discussione regole e precetti radicati nel linguaggio comune.

È proprio per il fatto che l’IA o le IA (oppure l’AI o le AI, anche l’utilizzo dell’acronimo corretto potrebbe essere oggetto di confronto) sia ormai argomento di dominio pubblico, che il distinguo assume una certa importanza.

Con buona pace di chi si oppone al cambiamento, o vorrebbe farlo, il raggio d’azione delle intelligenze artificiali ha già raggiunto il mondo del lavoro e quello della scuola (anche per chi siede alla cattedra). Il tempo deciderà se la rapida adozione su larga scala di questi strumenti, a cui abbiamo assistito nell’ultimo anno e mezzo, sia destinata a radicarsi. Oppure se, una volta spento o scemato l’entusiasmo per la novità (qualche primo segnale di cedimento sta già emergendo), rimarranno solo le applicazioni davvero utili, quelle in grado di offrire un valore aggiunto concreto.

Modelli, applicazioni e casi d’uso

Appiccicare l’etichetta “intelligenza artificiale” a tutto ciò che riguarda il contesto è di certo un metodo efficace per catalizzare l’attenzione. Rischia però di alimentare una confusione poco utile a comprendere come sia strutturato l’ambito.

In un articolo di TechCrunch sul tema, l’accento è posto sulla moltiplicazione dei modelli proposti dalle realtà attive nel settore: alcuni da big come Google, Meta e OpenAI, altri da società o startup poco note, ma che hanno intravisto nel trend attuale un’opportunità di business.

Sono una dozzina circa quelli annunciati nell’ultima settimana: LLaMa-3, Mistral 8×22, Stable Diffusion 3 Turbo, Adobe Acrobat AI Assistant, Reka Core, Idefics2, OLMo-1.7-7B, Pile-T5, Cohere Compass, Imagine Flash e Limitless. E siamo certi che l’elenco sia destinato ad allungarsi a breve. Ognuno di questi è stato istruito partendo da un diverso archivio di informazioni ed è destinato ad assolvere un compito specifico. È chiara la differenza tra modello linguistico e uno text-to-image? E la natura di quelli multimodali? E cosa avviene tra l’invio di un prompt (input) e la comparsa del risultato sullo schermo (output)? Ancora, perché non esplicitare cosa distingue un’intelligenza artificiale da un’intelligenza artificiale generativa?

Nemmeno alcune scelte operate esclusivamente nel nome del branding favoriscono la trasparenza. Si considerino ad esempio le recenti iniziative di Google, che possiamo descrivere come in gran parte messe in campo con l’obiettivo di rincorrere e catturare quella popolarità raggiunta in breve tempo da OpenAI con ChatGPT. Prima è toccato a Bard, poi ribattezzato Gemini, utilizzando lo stesso appellativo sia per il servizio proposto agli utenti sia per la tecnologia su cui poggia. Una semplificazione necessaria o eccessiva?

A conti fatti, è davvero un problema?

Questo non è certo un articolo pensato o scritto con la pretesa di offrire una soluzione pronta all’uso, sempre che si tratti di un problema. Vero è che, quando il mercato si appropria di un termine, facendone un impiego che lo spoglia del suo significato originale, per finalità di marketing, la confusione ne è una conseguenza diretta e quasi inevitabile.

Chi ricorda l’abuso di trasformazione digitale a cui abbiamo assistito (e di cui ci siamo resi complici, in verità) solo pochi anni fa? E di Industria 4.0? Perché abbiamo smesso di utilizzarli? L’interesse è scemato o quelle innovazioni sono state fagocitate da una sorta di darwinismo tecnologico?

Non dimentichiamoci di smart working, un altro concetto divenuto di dominio pubblico nel recente passato, seppur per cause di forza maggiore, anch’esso ben presto trasformato in un’etichetta da appiccicare su prodotti e servizi per renderli più appetibili. Si potrebbe andare avanti con gli esempi, fino ad arrivare a intelligenza artificiale. O, forse meglio, intelligenze artificiali?

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
20 apr 2024
Link copiato negli appunti