Il nuovo sistema avanzato di teleoperazione del robot iCub consente a un operatore umano di visitare da remoto Venezia rimanendo a 300 chilometri di distanza. I ricercatori hanno utilizzato una nuova versione del robot umanoide iCub, l’iCub3

CREDITO: IIT-Istituto Italiano di Tecnologia
Genova (Italia), 16 marzo 2022 – Sentirsi e muoversi in un luogo senza esserci, questo è l’obiettivo principale del nuovo sistema avanzato di teleesistenza del robot iCub, chiamato anche sistema avatar iCub3, sviluppato dai ricercatori dell’IIT-Istituto Italiano di Tecnologia ( Istituto Italiano di Tecnologia) a Genova, Italia. Il nuovo sistema è stato testato in una dimostrazione online che ha coinvolto un operatore umano con sede all’IIT, Genova, e una nuova versione del robot umanoide iCub, l’iCub 3, in visita al Padiglione Italia alla 17. Mostra Internazionale di Architettura – La Biennale di Venezia; i due siti distano 300 km e la comunicazione si basava su una connessione di base in fibra ottica. I ricercatori hanno dimostrato che il sistema trasporta la locomozione, la manipolazione, la voce e le espressioni facciali dell’operatore all’avatar robotico, ricevendo al contempo immagini visive, uditive, feedback tattili e tattili. Questa è la prima volta che un sistema con tutte queste caratteristiche viene testato utilizzando un robot umanoide con gambe per il turismo a distanza in modo che l’operatore umano possa sentire e sperimentare dove si trova l’avatar. Il sistema è un prototipo e può essere ulteriormente sviluppato per essere applicato in diversi scenari, dalla risposta ai disastri all’assistenza sanitaria e anche al metaverso.
Questo risultato è stato ottenuto dal gruppo di ricerca coordinato da Daniele Pucci, Principal Investigator del Laboratorio di Intelligenza Artificiale e Meccanica (AMI) dell’IIT di Genova. Uno dei loro obiettivi di ricerca è ottenere robot umanoidi che svolgano il ruolo di avatar, ovvero un corpo robotico che agisca al posto degli umani senza sostituirli ma permettendo loro di essere dove non possono.

CREDITO: IIT-Istituto Italiano di Tecnologia
“Riteniamo che questa direzione di ricerca abbia un enorme potenziale in molti campi”, spiega Daniele Pucci. “Da un lato, la recente pandemia ci ha insegnato che sistemi avanzati di telepresenza potrebbero diventare necessari molto rapidamente in diversi settori, come l’assistenza sanitaria e la logistica. D’altra parte, gli avatar possono consentire alle persone con gravi disabilità fisiche di lavorare e svolgere compiti nel mondo reale tramite il corpo robotico. Questa potrebbe essere un’evoluzione delle tecnologie riabilitative e protesiche”.
L’integrazione del sistema è stata possibile grazie allo sviluppo di tecnologie che i ricercatori IIT hanno preventivamente progettato. Pertanto, il sistema avatar iCub3 è composto principalmente dal robot iCub3, che è attualmente in fase di sviluppo presso IIT e rappresenta una nuova versione del robot iCub, e dalle tecnologie indossabili – denominate iFeel – nate nel progetto finanziato dall’UE AnDy e ulteriormente sviluppate in collaborazione con l’Istituto Nazionale per l’Assicurazione contro gli Infortuni sul Lavoro (INAIL) per applicazioni in scenario di casi reali.
Un’avanzata architettura software, progettata dai ricercatori IIT, controlla e gestisce l’interconnessione tra il robot iCub3 e il sistema iFeel. Inoltre, questa infrastruttura software consente l’integrazione di tecnologie indossabili commerciali, che completano il sistema avatar iCub3. Ad esempio, l’utente remoto cammina sul posto all’interno di una piattaforma di realtà virtuale che gli consente di muovere liberamente la parte superiore del corpo.
Il robot iCub3 è più alto di 25 cm rispetto alle precedenti versioni di iCub, misurando quindi 1,25 m e rappresentando una piattaforma più adeguata per interagire all’interno di un ambiente umano. Il suo equilibrio e la sua locomozione sono più robusti e in grado di emulare meglio i movimenti umani e l’interazione fisica. Il robot è, quindi, più grande – pesa 52 Kg contro 33 Kg – e ha motori più potenti nelle gambe, acquisendo così una locomozione più veloce. Il robot iCub3, inoltre, si differenzia dalla piattaforma precedente anche per una diversa meccanica di attuazione, non più basata su giunti a fune. Sul lato sensori, ha una telecamera di profondità aggiuntiva e un rilevamento della forza di ultima generazione che resiste al peso del robot più elevato. Infine, iCub3 ha una batteria di maggiore capacità, che si trova all’interno del gruppo del busto invece di essere inclusa in uno zaino rigidamente fissato.
Nella dimostrazione realizzata operando il sistema da Genova a Venezia e viceversa, la suite indossabile iFeel di IIT traccia i movimenti del corpo dell’operatore e il sistema avatar li trasferisce sull’iCub3 a Venezia, che poi si muove come fa l’utente a Genova. All’utente viene inoltre fornito un auricolare che tiene traccia delle espressioni dell’utente, delle palpebre e dei movimenti oculari. Questi tratti della testa vengono proiettati sull’avatar, che li riproduce con un alto livello di fedeltà: avatar e umano condividono espressioni facciali molto simili. L’utente indossa guanti sensoriali che tracciano i movimenti della sua mano e, allo stesso tempo, forniscono un feedback tattile.
Grazie al sistema avatar, l’utente remoto può sorridere, parlare e stringere la mano alla guida a Venezia: il suo avatar sorride, parla e stringe la mano di conseguenza. Analogamente, quando la guida abbraccia l’avatar a Venezia, l’operatore a Genova sente l’abbraccio grazie alla tuta iFeel dell’IIT che fornisce anche la sensazione tattile della parte superiore del corpo. Inoltre, la conversazione tra l’utente remoto a Genova e la guida a Venezia è possibile grazie a sistemi che registrano e trasmettono la voce dell’operatore in modo che l’avatar possa riprodurla a Venezia.
La trasmissione è stata trasmessa in streaming su una connessione Internet in fibra ottica standard, con un ritardo di pochi millisecondi.
“Il nostro sistema di avatar iCub 3 è convalidato su un robot umanoide con gambe che consente l’interazione verbale, non verbale e fisica a distanza, il che rappresenta un punto di partenza perfetto quando si cercano piattaforme per emulare gli esseri umani per tutti gli aspetti dell’interazione”. – commenta Daniele Pucci. “Quello che vedo anche nel nostro prossimo futuro è l’applicazione di questo sistema al cosiddetto metaverso, che in realtà è basato su avatar umani immersivi e remoti”.
Il Direttore Generale della Creatività Contemporanea del Ministero della Cultura e Commissario per il Padiglione Italia, Onofrio Cutaia, ha dichiarato: “Con grande piacere abbiamo ricevuto la proposta di collaborare con l’Istituto Italiano di Tecnologia di Genova a questo progetto. Ci piacerebbe davvero ringraziamo l’Arch. Alessandro Melis, curatore del Padiglione Italia alla 17. Mostra Internazionale di Architettura – La Biennale di Venezia, per aver condiviso il nostro entusiasmo e per aver interagito con iCub 3 in un sorprendente dialogo tra uomo e robot. Un’occasione unica per promuovere la cultura contemporanea patrimonio attraverso nuove forme di comunicazione. Crediamo fermamente che l’interdisciplinarietà e l’interazione tra le lingue siano la vera sfida da affrontare, ed è su questo che la Direzione Generale si concentrerà nei prossimi anni”.
La dimostrazione del sistema avatar iCub 3 a Venezia è stata realizzata con la collaborazione del Padiglione Italia “Comunità resilienti” alla 17. Mostra Internazionale di Architettura – La Biennale di Venezia, promossa dalla Direzione Generale per la Creatività Contemporanea del Ministero della Cultura e a cura dell’Arch. Alessandro Melis.
Il video, girato l’8 novembre 2021, ha coinvolto i ricercatori di IIT AMI Lab, il personale IIT e il personale del Padiglione Italia.
Il nuovo sistema di teleoperazione avanzata del robot iCub consente a un operatore umano di visitare da remoto il Padiglione Italia alla 17. Mostra Internazionale di Architettura – La Biennale di Venezia, rimanendo a 300 chilometri di distanza. I ricercatori hanno utilizzato una nuova versione del robot umanoide iCub, l’iCub3.