L’imitation learning sta ridisegnando l’addestramento della Physical AI per gli ambienti industriali

L’imitation learning sta cambiando il modo in cui vengono addestrati i robot industriali, segnando il passaggio da una programmazione rigida a un apprendimento basato sull’interazione con il mondo reale. Anders Billesø Beck spiega perché qualità dei dati, forza e hardware di livello industriale fanno la differenza.

Per decenni, i robot industriali sono stati programmati. Ogni movimento definito. Ogni caso limite previsto. Questo approccio funziona bene fino a quando ai robot non viene chiesto di fare qualcosa di più che ripetere lo stesso compito, nello stesso modo, ogni volta.

Con il passaggio dell’AI dalla percezione all’esecuzione fisica, ai robot viene sempre più spesso richiesto di gestire contatto, variabilità e incertezza. Si tratta di problemi che non si prestano facilmente a regole o script. Sono competenze che si apprendono con l’esperienza.

È qui che entra in gioco l’imitation learning.

L’imitation learning consente ai robot di apprendere compiti osservando e riproducendo dimostrazioni umane. Invece di programmare ogni singolo passaggio, le persone che si occupano di ingegneria guidano fisicamente un robot attraverso un’attività e raccolgono i dati generati durante l’interazione reale con il mondo. Questi dati diventano la base per addestrare modelli di AI in grado di ragionare, adattarsi e agire in ambienti fisici.

In Universal Robots, l’imitation learning è diventato un pilastro centrale del nostro modo di intendere la Physical AI e una componente critica del nostro approccio allo sviluppo di robotica progettata per lavorare in veri contesti di fabbrica.

La vera sfida è la qualità dei dati

Gran parte del dibattito attuale sull’AI si concentra sui modelli: foundation model, modelli Vision-Language-Action (VLA), reinforcement learning. Ma nella pratica il progresso è spesso limitato da un aspetto ancora più fondamentale: la qualità dei dati utilizzati per addestrare quei modelli.

I compiti industriali generano segnali complessi e interdipendenti. Il solo movimento non basta. Contano anche le forze di contatto, la compliance, l’interazione con l’utensile, il contesto visivo e le sottili variazioni nel modo in cui le attività vengono svolte. Se questi segnali mancano, arrivano in ritardo o vengono dedotti indirettamente, i modelli fanno fatica a generalizzare, indipendentemente da quanto sia avanzata l’architettura.

L’imitation learning è importante perché permette di acquisire dati ad alta fedeltà, basati su una reale interazione fisica. Se applicato correttamente, produce dataset che riflettono il modo in cui i compiti vengono davvero eseguiti, non come si presumeva che venissero eseguiti.

Oltre gli esperimenti confinati al laboratorio

Oggi molti sistemi di imitation learning si basano su controller VR, robot di ricerca fragili o configurazioni di laboratorio personalizzate. Questi approcci possono essere efficaci per la sperimentazione, ma raramente si trasferiscono in modo lineare agli ambienti industriali.

Addestrare su un tipo di hardware e distribuire su un altro introduce attriti, ritardi e modalità di errore impreviste. I segnali di forza si comportano in modo diverso. Le dinamiche cambiano. Ciò che funziona in laboratorio può facilmente non reggere sul piano di fabbrica.

In occasione di NVIDIA GTC 2026, Universal Robots ha presentato un approccio diverso: addestrare sugli stessi robot industriali che in seguito eseguiranno i modelli di AI.

L’obiettivo è semplice ma importante. Per rendere l’imitation learning davvero praticabile su larga scala, i dati devono essere raccolti su hardware di livello produttivo, in condizioni reali, utilizzando gli stessi robot su cui i clienti fanno affidamento ogni giorno.

Nasce UR AI Trainer

Per supportare questa evoluzione, Universal Robots ha sviluppato UR AI Trainer, un sistema dedicato all’imitation learning progettato specificamente per la raccolta di dati in ambito industriale.

UR AI Trainer si basa su una configurazione leader-follower, in cui un operatore umano guida fisicamente un robot “leader” mentre un robot “follower” sincronizzato ne replica i movimenti in tempo reale. Durante ogni dimostrazione, il sistema acquisisce automaticamente dati sincronizzati di movimento, forza, coppia e visione.

Non si tratta di un’integrazione approssimativa o di un prototipo di ricerca. È un sistema pronto per il deployment che combina robot, capacità di calcolo, sensori e software in un’unica piattaforma coerente.

Perchè forza e controllo contano

Al centro di UR AI Trainer c’è un controllo in tempo reale consapevole della coppia. Grazie al Direct Torque Control e al force feedback, gli operatori possono guidare i robot attraverso i compiti con movimenti naturali e conformi.

Il contatto viene trattato come un segnale di primaria importanza, non come qualcosa da ricostruire a posteriori. Le forze vengono misurate direttamente. Le interazioni più sottili, come la pressione applicata o il modo in cui uno strumento entra in contatto con una superficie, vengono acquisite come parte integrante del dataset.

Per molte attività industriali, questo livello di fedeltà fisica rappresenta la differenza tra un modello che appare promettente in simulazione e uno che funziona in modo affidabile in produzione.

Vedere e agire allo stesso tempo

I soli dati di movimento e forza non sono sufficienti. Per addestrare modelli VLA, percezione e azione devono essere strettamente integrate.

UR AI Trainer acquisisce dati visivi sincronizzati da più camere, allineati con precisione allo stato del robot e ai segnali di forza. In questo modo si ottengono dataset in cui contesto visivo, interazione fisica e movimento del robot vengono registrati come una sequenza unica e coerente.

Il risultato è un training data che riflette il modo in cui i robot vedono, ragionano e agiscono davvero nel mondo fisico, e non flussi frammentati ricomposti in un secondo momento.

Progettato per i moderni workflow di AI

La raccolta dati è utile solo se si integra con pipeline reali di sviluppo AI. UR AI Trainer gira su UR AI Accelerator e integra il software di Scale AI per gestire raccolta, strutturazione e preparazione dei dati ai fini dell’addestramento dei modelli.

Questo consente ai team di passare in modo lineare dalla dimostrazione al dataset e dal dataset al fine-tuning del modello, senza dover costruire pipeline o strumenti personalizzati.

Per ridurre i tempi di configurazione, il sistema viene fornito su una piattaforma hardware pronta per la produzione sviluppata con Vention, che offre una base stabile e ripetibile per configurazioni multi-robot leader-follower.

Dai dataset all’AI in produzione

Il valore dell’imitation learning sta in ciò che rende possibile dopo. Dataset di alta qualità possono essere utilizzati per addestrare e ottimizzare modelli VLA, migliorare la robustezza rispetto alla variabilità del mondo reale e ridurre la distanza tra simulazione e deployment.

Attraverso la collaborazione con Scale AI e con partner specializzati nei modelli di AI, Universal Robots sta inoltre esplorando come i dataset di compiti industriali raccolti sui robot UR possano supportare un ecosistema più ampio, accelerando il progresso della Physical AI oltre i singoli progetti.

Perché tutto questo conta oggi

L’imitation learning non è una novità. Ciò che è nuovo è la possibilità di applicarlo su scala industriale, utilizzando robot di livello produttivo e un’infrastruttura AI integrata.

Man mano che i sistemi di AI affrontano compiti fisici sempre più complessi, il successo dipenderà tanto dal modo in cui vengono creati i dati quanto da come vengono progettati i modelli. L’imitation learning è il modo in cui questi dati vengono generati, e sistemi come UR AI Trainer sono ciò che lo rende concretamente praticabile.

Anders Billesø Beck

Anders Billesø Beck

Vice President of Technology, Universal Robots

Anders Billesø Beck leads the development of cobot technologies to keep global businesses agile, productive and innovative. He holds a PhD in robotics from DTU, the Technical University of Denmark, and has also held leading positions at the Danish Technological Institute. Anders combines his scientific background with contributions to the global collaborative automation industry to change the way the world works.