I robot umanoidi fanno kung fu, ma non sanno aprire una porta

I robot umanoidi fanno kung fu, ma non sanno aprire una porta

I robot umanoidi più avanzati fanno acrobazie impossibili ma non riescono ad aprire una porta. Il problema è il senso del tatto.
I robot umanoidi fanno kung fu, ma non sanno aprire una porta
I robot umanoidi più avanzati fanno acrobazie impossibili ma non riescono ad aprire una porta. Il problema è il senso del tatto.

Ballano, fanno salti mortali, corrono, tirano calci volanti che un essere umano medio non riuscirebbe a eseguire nemmeno con dieci anni di allenamento. Poi quando si tratta di aprire una porta, e il sistema va in crisi. Si chiede di sbucciare un’arancia e idem. I robot umanoidi più avanzati del mondo sono in grado di eseguire movimenti spettacolari, ma falliscono con i compiti banali… Come mai?

Kung fu e salti mortali sì, aprire una porta no: cosa blocca i robot umanoidi

La robotica umanoide ha attraversato tre rivoluzioni in un decennio. In primis il deep learning, che ha trasformato il modo in cui i robot imparano a muoversi. Prima, ogni gesto andava programmato a mano. Oggi si piazza il robot in un simulatore, lo si fa fallire milioni di volte, e le reti neurali sviluppano i propri riflessi per gestire gli imprevisti.

La seconda rivoluzione è avvenuta nel 2016, quando i pesanti meccanismi idraulici hanno ceduto il posto ai motori elettrici “propriocettivi” sviluppati da Sangbae Kim al MIT, motori che sentono le forze che ricevono e si adattano in tempo reale, come un muscolo che si tende e si rilassa. I robot sono diventati meno rigidi e più agili.

La terza rivoluzione è avvenuta con l’integrazione dei modelli di linguaggio di grandi dimensioni nella robotica. Nel 2023, Google DeepMind ha introdotto i modelli “visione-linguaggio-azione”, sistemi che ingeriscono un video, un’istruzione in linguaggio naturale e la traducono in comandi di movimento. Se si dice al robot ho sete, capisce che deve probabilmente cercare qualcosa da bere, identificare un bicchiere, afferrarlo e portarlo.

Il tallone d’Achille: il senso del tatto

I robot sanno stare in piedi, riescono muoversi senza che gli si spieghino le leggi della fisica, capiscono le istruzioni e pianificano compiti. Ma non sentono quello che toccano. Ed è lì che tutto si blocca.

Secondo Pulkit Agrawal del laboratorio Improbable AI del MIT, il problema non è la fisica complessa, ma quella di base: forza e inerzia. Un robot che sposta il braccio da un punto A a un punto B sapendo esattamente dov’è il punto B controlla i propri movimenti. I robot attuali lo fanno senza problemi. Ma un robot che sente la resistenza di ciò che tocca, che aggiusta la pressione in base alla fragilità dell’oggetto, al suo peso, alla sua stabilità, quello è un robot che percepisce i propri movimenti. Una cosa completamente diversa.

Alcuni ci riescono, come Figure 03, per esempio, ma a una lentezza esasperante. La lentezza è una compensazione, se il robot non sente la forza esercitata, non può correggere gli errori in tempo reale. A velocità “umana” gli errori si accumulerebbero. Ma se rallenta abbastanza, il software interno ha il tempo di vedere arrivare i problemi e correggerli. Il robot non sente quello che fa, ma lo fa così lentamente da poter controllare visivamente ogni passaggio.

La ricerca sta lavorando su più fronti per dare il tatto ai robot. Se Darwin fosse ancora qui, probabilmente troverebbe la situazione piuttosto comica: ciò che blocca i robot più evoluti del mondo è esattamente ciò che i primi organismi multicellulari hanno sviluppato mezzo miliardo di anni fa. E recuperare 500 milioni di anni di evoluzione non sarà un lavoro da poco.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 mar 2026
Link copiato negli appunti