HomeFactory AutomationRoboticaTexas Instruments e NVIDIA accelerano insieme la nuova generazione di robot umanoidi

Texas Instruments e NVIDIA accelerano insieme la nuova generazione di robot umanoidi

Texas Instruments e NVIDIA uniscono le forze per accelerare lo sviluppo sicuro dei robot umanoidi, combinando tecnologie di controllo in tempo reale, sensing avanzato e gestione dell'energia con le piattaforme AI di NVIDIA.

Ti potrebbero interessare ⇢

Alice Alinari

Texas Instruments (TI) ha annunciato una collaborazione strategica con NVIDIA per accelerare la diffusione sicura dei robot umanoidi nel mondo reale.

Combinando le tecnologie TI di controllo motore in tempo reale, sensing, radar e gestione dell'energia con le avanzate piattaforme di calcolo per la robotica di NVIDIA, gli sviluppatori potranno validare percezione, attuazione e sicurezza dei robot umanoidi in modo più rapido e preciso.

TI può collegare le piattaforme di physical AI di NVIDIA ad applicazioni reali grazie a controllo deterministico, sensing, alimentazione e sicurezza a ogni giunto e sottosistema. L'obiettivo dichiarato è aiutare gli sviluppatori a muoversi più velocemente dallo sviluppo virtuale a sistemi pronti per la produzione, scalabili e conformi agli standard di sicurezza.

La prossima generazione di physical AI richiede più che semplice capacità di calcolo avanzata: esige un'integrazione senza soluzione di continuità tra sensing, controllo, alimentazione e sistemi di sicurezza

Giovanni Campanella, General Manager Industrial Automation & Robotics, TI

La soluzione di sensor fusion con radar mmWave

Nell'ambito della collaborazione per il potenziamento di robot umanoidi, TI ha progettato una soluzione di sensor fusion integrando il proprio radar mmWave (IWR6243) con NVIDIA Jetson Thor tramite NVIDIA Holoscan Sensor Bridge. Il risultato è una percezione 3D a bassa latenza e una maggiore consapevolezza della sicurezza per i robot umanoidi.

Fondendo dati provenienti da telecamere e radar, la soluzione migliora il rilevamento, la localizzazione e il tracciamento degli oggetti, riducendo i falsi positivi per un processo decisionale in tempo reale più affidabile. Il sistema funziona in condizioni difficili - scarsa illuminazione, abbagliamento, nebbia e polvere - sia in ambienti interni che esterni.

Un caso d'uso concreto: mentre le telecamere possono non rilevare in modo affidabile porte di vetro o superfici riflettenti, il radar garantisce il rilevamento costante di questi ostacoli trasparenti, consentendo una navigazione fluida in luoghi come uffici, ospedali e ambienti retail.

Il funzionamento sicuro di robot umanoidi in ambienti imprevedibili richiede un salto enorme nella potenza di elaborazione, per sincronizzare modelli AI complessi con dati di sensori in tempo reale e controlli motore

Deepu Talla, VP Robotics & Edge AI, NVIDIA

Texas Instruments all'NVIDIA GTC 2026

Texas Instruments sarà presente all'NVIDIA GTC 2026 (16-19 marzo, San Jose McEnery Convention Center) presso lo stand 169. In collaborazione con D3 Embedded, TI presenterà una demo dal vivo intitolata "Real-time sensor fusion for reliable robotic perception with Holoscan", che mostra come la tecnologia radar mmWave di TI si integri con l'ecosistema NVIDIA Jetson Thor e Holoscan.

Mercoledì 18 marzo, alle 15.00, Giovanni Campanella parteciperà a un lightning talk dal titolo "The Edge of the Edge: Redefining GPU-Enabled AI Sensor Processing", discutendo come la stretta integrazione tra sensing, networking e GPU stia abilitando il physical AI in tempo reale nei sistemi industriali.