Il CEO di OpenAI ha notato in questi anni un rapido incremento del quoziente intellettivo dell’AI. Secondo Altman, ogni anno l’AI migliora di una deviazione standard in termini di QI.
Ma è davvero corretto usare il quoziente intellettivo, una stima dell’intelligenza umana, come parametro per valutare i progressi dell’AI?
Usare il QI per misurare le capacità dell’intelligenza artificiale è assurdo
Molti esperti ritengono che valutare le prestazioni dell’AI attraverso il QI è fuorviante e riduttivo. Sandra Wachter, ricercatrice di tecnologie regolamentazione a Oxford, sottolinea che il QI è uno strumento per misurare le capacità umane. Si basa su ciò che gli scienziati ritengono sia l’intelligenza umana. Non si può usare la stessa misura per descrivere le capacità dell’AI.
I test del QI hanno origini controverse, addirittura risalenti all’eugenetica. Alcuni esperti li considerano strumenti imperfetti e influenzabili da pregiudizi. C’è anche chi si è spinto oltre, definendoli “macchine ideologiche” che misurano l’intelligenza in modo troppo semplicistico.
L’AI ha un vantaggio sleale nei test del QI
I modelli AI hanno enormi quantità di memoria e conoscenze internalizzate a loro disposizione, il che dà loro un vantaggio ingiusto nei test del QI. Spesso i modelli vengono addestrati su dati web pubblici, e il web è pieno di domande di esempio tratte da test del QI.
Servono test migliori per valutare l’intelligenza dell’AI
I test del QI, con tutti i loro pregiudizi, sono stati progettati per gli esseri umani, come modo per valutare le capacità generali di risoluzione dei problemi. Sono inappropriati per una tecnologia che affronta la risoluzione dei problemi in modo molto diverso dalle persone. Heidy Khlaaf, chief AI scientist presso l’AI Now Institute, sottolinea la necessità di sviluppare test migliori per l’AI.
Continuare a usare il QI come benchmark per l’intelligenza artificiale rischia solo di alimentare false aspettative e fraintendimenti sul reale stato dell’arte di questa tecnologia.