Ecco il robot che impara col tatto e “prova” le sensazioni guardando gli oggetti


PER L’ESSERE umano riconoscere, o almeno ipotizzare, le proprietà tattili di un oggetto semplicemente guardandolo è naturale. Così come acquisire informazioni più precise, e dunque descriverlo con accuratezza, toccandolo. Per un robot è invece un passaggio epocale. Che grazie al Computer science and artificial intelligence laboratory del Mit di Boston potrebbe essere più vicino. In un paper appena pubblicato, e che sarà svelato più nel dettaglio a un’importante conferenza scientifica in programma a Long Beach, in California, viene infatti descritto un sistema di intelligenza artificiale in grado di generare rappresentazioni visive di oggetti a partire dai segnali tattili acquisiti e, per converso, anche di prevederne le qualità tattili da un certo numero di informazioni visive. Insomma, può imparare a vedere toccando e a “immaginare” guardando.
 
“Guardando alla scena, il nostro modello può immaginare la sensazione che deriva dal tocco di una superficie piatta o di un bordo tagliente” ha spiegato il principale autore dello studio, il PhD Yunzhu Li (nella foto), che ha collaborato con i professori Russ Tedrake e Antonio Torralba e col collega Jun-Yan Zhu. “Toccando alla cieca, il nostro modello di AI può prevedere l’interazione con l’ambiente semplicemente dagli input tattili – ha spiegato l’autore – far collaborare questi due sensi potrà potenziare i robot e ridurre i dati che dobbiamo loro fornire per programmarli sui compiti necessari a manipolare e afferrare oggetti”. Il principio è sempre lo stesso: meno informazioni saremo obbligati a fornire loro in partenza ma anche in itinere, più i sistemi di intelligenza artificiale saranno veloci e “leggeri”, dunque davvero utili perché in grado di imparare e procedere da soli.
 
Il team ha utilizzato una rete antagonista generativa per accoppiare stimoli tattili e informazioni visive. Ovviamente c’è stato bisogno di un addestramento preventivo: il team di ricerca ha usato un braccio robotico Kuka con un sensore tattile GelSight, a sua volta sfornato da un altro laboratorio del Mit, quello guidato da Ted Adelson, per allenare il suo sistema. Sfrutta una camera e una pellicola in gomma per mappare in 3D le superfici che si stanno toccando o gli oggetti che si stanno afferrando.
 
I ricercatori hanno registrato il modo in cui 200 oggetti di ogni tipo, dagli attrezzi ai tessuti fino agli oggetti comuni, venivano toccati per un totale di 12mila videoclip finendo per partorire un database da tre milioni di accoppiamenti visivi e tattili battezzato VisGel. La rete, tramite l’analisi dei frame di quelle clip e le informazioni acquisite dal braccio robotico e dai suoi “polpastrelli” hi-tech, ha appunto imparato, saltando dall’uno all’altro e poi analizzando le immagini, a capire cosa aspettarsi da certi tipi di materiali e, viceversa, così come a descrivere determinati input reali.
 
Ovviamente molti dei dettagli del tocco sono ancora assenti, nel senso che le informazioni che la mano robotica ha estratto dal rapporto con gli oggetti, o il modo in cui ha definito alcune immagini dopo l’addestramento, mancano di alcuni parametri. Ciononostante, secondo il team del Massachusetts, questo nuovo genere di approccio potrebbe aprire la strada per interazioni più spontanee e lineari fra uomo e macchina, specie negli ambiti dell’industria o nei contesti in cui la collaborazione è molto serrata. Basti pensare, per esempio, a situazioni in cui manchino dati visivi chiari, all’industria 4.0, alla sicurezza.
 
“Si tratta del primo metodo che riesce, in modo convincente, a connettere segnali visivi e tattili – ha commentato Andrew Owens, ricercatore all’università della California-Berkeley – metodi come questo possono essere molto utili per la robotica, in situazioni in cui occorra per esempio sapere se un oggetto sia duro o morbido o comprendere come afferrarlo al meglio”. Un problema molto complesso che promette di fornire in qualche maniera una sensibilità più spiccata ai robot, fornendo loro una versione certo infinitamente meno raffinata ma pur sempre promettente di due dei cinque sensi umani.
 
Fra l’altro sempre al prestigioso polo di Boston lo scorso mese è stato inaugurato il più completo archivio di dati basati sul tatto a disposizione dei futuri robot (o, per meglio dire, dei sistemi di intelligenza artificiale che ne orchestreranno compiti, azioni, decisioni e movimenti sempre più “umani”). Come spiegava Nature, si tratta di un enorme database delle sensazioni registrate attraverso guanti equipaggiati con 550 speciali sensori utili non solo a dare il senso del tatto alle macchine ma anche a progettare computer indossabili o per esempio protesi per gli arti con una maggiore sensibilità.
 
Per il momento il robot del Mit può identificare oggetti solo in un contesto controllato. Il prossimo passo sarà quello di costruire un più ampio set di dati che gli consenta di sperimentare le sue abilità di tocco e di elaborazione anche in situazioni diverse e meno guidate. A questo scopo sarà utile il superguanto citato poco sopra, che consentirà di arricchire il dataset di addestramento.
 
 
 
 
 
 

L’approfondimento quotidiano lo trovi su Rep: editoriali, analisi, interviste e reportage.
La selezione dei migliori articoli di Repubblica da leggere e ascoltare.

Rep Saperne di più è una tua scelta

Sostieni il giornalismo!
Abbonati a Repubblica


http://www.repubblica.it/rss/tecnologia/rss2.0.xml

Leave a Reply

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi