"Cambio di paradigma" nella robotica: Il robot Alter3 combinato con il GPT-4: ora può scattare selfie e suonare una chitarra immaginaria ed è programmato dalla voce invece che da comandi complessi
Un team di ricercatori dell'Università di Tokyo è stato in grado di creare un collegamento tra il modello linguistico di grandi dimensioni GPT-4 e il robot Alter3, consentendo loro di eseguire gesti più simili a quelli umani e di programmare il robot in linguaggio naturale, abbandonando i tradizionali sistemi di controllo dipendenti dall'hardware. Gli autori del progetto hanno definito questo progresso un "cambio di paradigma" nella robotica.
Alter3 è l'ultima versione del robot umanoide, messo in funzione per la prima volta nel 2016. È in grado di eseguire movimenti complessi della parte superiore del corpo, comprese espressioni facciali dettagliate, e dispone di 43 assi che imitano il movimento del sistema muscolo-scheletrico umano. Poggia su una base ma non può camminare (anche se può simulare la camminata). Utilizzando il GPT-4, i ricercatori hanno insegnato al robot a eseguire varie simulazioni, come scattare un selfie, lanciare una palla, mangiare popcorn e suonare una chitarra immaginaria. In precedenza, queste attività richiedevano la codifica di istruzioni specifiche per ogni azione, ma con il GPT-4 i robot possono apprendere istruzioni vocali ordinarie.
I ricercatori affermano che "il controllo diretto è ora possibile trasferendo le espressioni linguistiche delle azioni umane al corpo del robot attraverso il codice software. Ciò consente maggiori opportunità di collaborazione tra uomo e robot. Grazie a questa svolta nella robotica, possiamo aspettarci entità robotiche più intelligenti, adattive e personali". Il robot Alter3 è dotato di una telecamera integrata che gli consente di "vedere" le persone e di migliorare il proprio comportamento osservando le loro reazioni.
Grazie all'uso di modelli linguistici nella ricerca robotica, gli scienziati semplificano notevolmente il processo di coordinamento delle numerose articolazioni di un robot fornendo istruzioni verbali, descrivendo le opzioni di movimento e ottenendo il codice software che avvia il motore del robot. Questo elimina il compito banale di programmare ogni singolo movimento per 43 assi e consente ai ricercatori di riconfigurare e perfezionare i movimenti del robot in modo più rapido, fluido e preciso nel tempo.
I ricercatori hanno anche aggiunto un po' di umorismo alle attività di Alter3. In uno scenario, il robot dimostra di mangiare un sacchetto di popcorn, ma poi si scopre che il popcorn appartiene a una persona seduta accanto a lui. Le espressioni facciali e i movimenti delle mani del robot trasmettono sorpresa e vergogna.
Fonte: techxplore.com