L'esperimento che smonta la finta umanità delle AI

L'esperimento che smonta la finta umanità delle AI

Quando si chiede all'AI di scegliere numeri casuali, sbaglia come gli esseri umani, poiché non comprende il concetto di casualità.
L'esperimento che smonta la finta umanità delle AI
Quando si chiede all'AI di scegliere numeri casuali, sbaglia come gli esseri umani, poiché non comprende il concetto di casualità.

I modelli di intelligenza artificiale come ChatGPT di OpenAI o Claude di Anthropic, ci stupiscono spesso per le loro capacità, ad esempio nel generare testi in modo coerente. Ma ci sorprendono anche per i loro limiti, per ciò che questi sistemi non sono in grado di fare bene e il perché.

Un comportamento recentemente osservato nei modelli AI che è rivelatore di questi limiti, è la loro difficoltà nello scegliere numeri casuali quando vengono istruiti in tal senso. Per inciso, anche gli esseri umani tendono a fraintendere la casualità.

La percezione errata della casualità

Se si chiede ad una persona di prevedere in anticipo una sequenza di 100 lanci di una moneta, cioè di indovinare se ad ogni lancio uscirà testa o croce, e poi si confrontano le sue previsioni con una sequenza reale di 100 lanci di una moneta, è quasi sempre possibile distinguere le due sequenze. Il motivo è che la sequenza reale di lanci tenderà a sembrare meno “casuale” rispetto a quella predetta dall’uomo.

Nella sequenza reale ci saranno spesso gruppi di 6 o 7 teste o croci consecutive, una cosa che raramente una persona include nelle sue previsioni, ritenendola poco probabile. Invece le sequenze reali, essendo davvero casuali, contengono proprio questo tipo di raggruppamenti che sembrerebbero strani e improbabili alle persone. Quindi è possibile riconoscere la differenza tra una sequenza casule generata dall’uomo e una sequenza realmente casuale.

Lo stesso accade quando si chiede a qualcuno di scegliere un numero compreso tra 0 e 100. Quasi nessuno sceglie 1 o 100, che vengono percepiti come numeri “estremi”. Anche i multipli di 5 (come 10, 15, 20 ecc.) sono rari, così come i numeri con cifre ripetute come 22, 33, 44 ecc., perché sono troppo “particolari” e quindi non abbastanza casuali.

Al contrario, le persone spesso scelgono numeri che terminano con 7, soprattutto quelli centrali come 27, 37, 47. Questi danno l’impressione di essere più casuali. In sostanza, la percezione umana di “casualità” è distorta. Scegliamo in base a preconcetti su cosa sembra più o meno casuale, mentre una vera selezione casuale dovrebbe includere tutti i numeri.

I numeri “preferiti” dei modelli AI

Ci sono innumerevoli esempi di questo tipo di prevedibilità in psicologia. Ma questo non rende meno strano quando i modelli AI si comportano esattamente nello stesso modo. Alcuni ingegneri di Gramener hanno condotto un esperimento informale in cui hanno chiesto a diversi importanti chatbot LLM di scegliere a caso un numero compreso tra 0 e 100.

I risultati hanno evidenziato che anche i modelli AI mostrano una propensione simile a quella umana nella scelta dei numeri. Tutti e tre i modelli testati avevano un numero “preferito” che compariva più spesso, anche a “temperature” più elevate, un’impostazione che aumenta la variabilità dei risultati. Ad esempio, GPT-3.5 Turbo di OpenAI predilige il 47, Claude 3 di Anthropic il 42 e Gemini il 72.

I modelli AI imitano il comportamento umano

La spiegazione di questo fenomeno risiede nel fatto che i modelli AI vengono addestrate sui dati prodotti dagli esseri umani. Senza una reale comprensione dei numeri o del concetto di casualità, i chatbot si limitano a ripetere ciò che è stato scritto più spesso dopo una domanda simile a “scegli un numero casuale”. Questo comportamento mette in luce come gli LLM imitino il comportamento umano, anche se non era questo l’intento.

L’esperimento che smaschera l’illusione di umanità nell’AI

Questo esperimento sui numeri casuali dimostra bene come i modelli di linguaggio di grandi dimensioni imitino semplicemente i comportamenti umani osservati nei loro dataset di addestramento, senza realmente comprendere o pensare come gli esseri umani.

Anche se questi sistemi di intelligenza artificiale sembrano comportarsi in modo intelligente e umano, in realtà stanno solo riproducendo le relazioni statistiche apprese dai testi prodotti dagli esseri umani su cui sono stati addestrati. Quindi, anche quando danno l’impressione di ragionare o avere abilità umane, stanno semplicemente attingendo da modelli linguistici assimilati dai dati. Non hanno una reale comprensione della casualità, dei numeri, ecc.

Nell’interagire con questi sistemi dobbiamo ricordare che replicano semplicemente le abitudini umane per offrire risultati utili e convincenti. Le aziende li addestrano in questo modo anche per scopi commerciali e di profitto.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
29 mag 2024
Link copiato negli appunti