HomeFactory AutomationRoboticaSistemi di Visione per Robot

Sistemi di Visione per Robot

Leggi la rivista ⇢

Ti potrebbero interessare ⇢

La Redazione

Non è la prima volta che affrontiamo il tema della Robot Vision, e l’ultima volta è stata nel gennaio 2012. Da allora, quali sono stati gli sviluppi più significativi come tecnologia e applicazioni nell’ambito della visione per sistemi robotizzati?

Gli sviluppi tecnologici nell’ambito dell’image processing avvengono ormai a un ritmo quasi mensile, e sicuramente i più significativi, come afferma Davide Passoni, R&D Department di SIR, riguardano la visione tridimensionale, che sta suscitando sempre maggiore interesse in ambito industriale. I sistemi di visione tradizionali di tipo 2D, sia per guida robot che per ispezione qualitativa e dimensionale, hanno infatti raggiunto un buon grado di sviluppo e le aziende fornitrici di HW/SW propongono ormai prodotti maturi. «Le direttrici di sviluppo in ambito 2D non sono più fondate su soluzioni rivoluzionarie, ma si basano ora sul miglioramento dei software di pattern matching per elevarne le caratteristiche di robustezza e affidabilità e, da un punto di vista hardware, sull’aumento della risoluzione delle camere e sul perfezionamento delle fonti di illuminazione. La visione 3D è invece un mercato non maturo, ove vi è ancora parecchio spazio per la ricerca di nuove soluzioni: questo spiega il continuo sviluppo sia come software che come hardware. Negli ultimi mesi le proposte di sistemi hardware integrati per la visione stereoscopica, con camere e illuminatori a luce strutturata, o per la metodologia sheet of light, sono notevolmente aumentate, affiancando i sensori originariamente proposti da poche case costruttrici, che per prime hanno creduto nelle applicazioni di tipo tridimensionale. Ma è da un punto di vista software che si registrano i contributi più significativi: dai pattern matching basati essenzialmente su ciò che era stato fatto nel campo del 2D, si è passati ad algoritmi di riconoscimento realmente tridimensionali, in grado di “matchare” con accuratezza le superfici della nuvola di punti, determinando occlusioni e fornendo spesso diverse metodologie di presa a seconda del contesto in cui si trova l’elemento da prelevare». In sostanza il software, che deve essere in grado di rilevare oggetti alla rinfusa all’interno di un contenitore, applicazione principe nel campo della visione 3D, tiene ora conto del contesto generale, localizzando non solo l’elemento, ma determinando la sua effettiva afferrabilità in relazione a possibili occlusioni provocate dagli oggetti adiacenti. La stessa presa potrà quindi essere non univoca, ma determinata dal tipo di contesto, proprio come farebbe un essere umano, che istintivamente sa decidere da che lato afferrare un elemento, a seconda di come è posizionato e in base alle superfici dello stesso che risultano libere per un possibile prelievo. I software di visione tridimensionale sono ora in grado di tenere conto delle dimensioni e degli ingombri degli end-effector robotizzati preposti alla presa, divenendo veri e propri generatori di traiettorie, atti a calcolare il metodo di prelievo più sicuro per evitare danneggiamenti alle apparecchiature. Anche per Marco Diani, presidente e co-fondatore di Image S, le tecnologie che hanno avuto il maggior sviluppo sono quelle relative ai software 3D, che consentono sempre più funzioni automatizzate per il pick&place di pezzi alla rinfusa. «Inoltre», aggiunge, «il software di riconoscimento automatico delle feature di un oggetto permette di velocizzare i tempi di risposta, mentre la crescente risoluzione e la miniaturizzazione delle telecamere consentono da un lato di riconoscere oggetti sempre più piccoli in aree sempre maggiori e dall’altro la possibilità di spostarle con più precisione quando sono montate sul braccio di un robot». Secondo Omron la tendenza che si è evidenziata riguarda sia l’hardware che il software. Per il primo, da segnalare il proliferare delle smart camera, sistemi che integrano in un unico oggetto di dimensioni ridotte la telecamera e il controller: ormai quasi tutti i player propongono questo tipo di soluzione, con costi più bassi rispetto ai sistemi di visione veri e propri e con una buona versatilità. Sul lato software, e relativamente alle applicazioni di guida robot, vi è stato un progressivo spostamento da algoritmi basati sul confronto di pattern dell’immagine, derivati evidentemente dalle applicazioni di controllo qualità, verso algoritmi basati sul contorno dell’oggetto, che permettono una velocità di elaborazione più elevata e maggior stabilità anche in condizioni di illuminazione non uniformi. «Per quanto riguarda i sistemi Adept Technology da noi commercializzati», precisa Marco Mina, Technical Manager di ARS Automazione, «vi è un continuo e costante aggiornamento, teso sia a migliorare le performance di visione in senso stretto che, soprattutto, per facilitarne l’utilizzo da parte dell’utente».

Le direttrici di sviluppo in ambito 2D si basano ora sul miglioramento dei software di pattern matching.

Le applicazioni

L’utilizzo della visione, afferma Passoni (SIR), ha oggi raggiunto un livello di maturità notevole in quanto oramai l’80% dei sistemi robotizzati si avvale di tecniche di image processing a supporto della produzione. Nelle applicazioni tradizionali, ora realizzabili a un costo minore come conseguenza dell’evoluzione tecnologia, le condizioni per un uso più esteso si basano sulla semplificazione delle operazioni di apprendimento e configurazione di un sistema al cambio tipo. «Tanto per citare un esempio, la nostra azienda si avvale, nelle ultime versioni del proprio applicativo, di tecniche di autoapprendimento dei modelli master che permettono all’operatore di semi-automatizzare le operazioni di programmazione di un nuovo codice. In questo senso, le applicazioni sono divenute più innovative non tanto nel campo della fattibilità, possibile anche con software dalla gestione più complessa, ma in quello dell’interfaccia uomo macchina. Il vantaggio non riguarda quindi l’attuabilità di applicazioni prima irrealizzabili, ma la semplicità di realizzazione di operazioni che sino a pochi anni fa si caratterizzavano per un elevato grado di complessità». Mina (ARS Automazione) cita come esempio FlexiBowl, sistema flessibile di alimentazione delle parti costituito da una tazza rotante con motore direct-drive e con un dispositivo generatore di impulsi perpendicolare al piano di rotazione. «Il dispositivo permette di separare e variare la giacenza dei pezzi, in modo che possano essere visti e riconosciuti da una telecamera e quindi prelevati da un robot con presa adeguata. La completa integrazione e la semplicità d’uso si accompagnano a un costo che oramai è concorrenziale a un tradizionale sistema di alimentazione a tazza vibrante, con il vantaggio di essere ben più flessibile ed efficiente. Il sistema completo comprende alimentatore, robot e sistema di visione». Secondo Omron l’introduzione degli algoritmi di guida robot nelle smart camera ha reso convenienti applicazioni di pick&place prima realizzabili solo con sistemi di visione più costosi o con semplici fotocellule ma a fronte di una meccanica decisamente più complessa. D’altra parte, l’integrazione della visione in una stessa piattaforma di controllo macchina permette vantaggi in termini di programmazione (è possibile programmare sia il controllo del robot e del nastro trasportatore, sia la visione con lo stesso software), di velocità (con reti ad alta velocità come EtherCAT), e di gestione complessiva dell’applicazione. Diani (Image S) ritiene che vi sia ancora ampio spazio per migliorare le tecnologie di visione per sistemi robotizzati: «Basti pensare che il ridotto time to market dovuto a strumenti software sempre più potenti e le velocità sempre più elevate dei processori consentono soluzioni impensabili fino a un paio di anni fa».

L’introduzione degli algoritmi di guida robot nelle smart camera ha consentito di rendere economicamente convenienti applicazioni di pick&place prima realizzabili solo con sistemi di visione più costosi.

Le proposte perla RobotVision

Le proposte SIR, precisa Passoni, possono essere riassunte in tre filoni applicativi: guida robot 2D, guida robot 3D e ispezione qualitativa e dimensionale. Con la prima voce si intendono tutte le soluzioni atte alla guida di un manipolatore, antropomorfo o meno, al prelievo e manipolazione di elementi in scenari di alimentazione che possono variare da nastri o tavole rotanti (2D) sino a pallet con piani più o meno ordinati (2 ½ D). I sistemi si avvalgono di sensori integrati, dotati di camera e illuminazione IR, che possono essere agganciati/sganciati al robot con moduli di innesto automatico: è così possibile sfruttare il manipolatore per movimentare il sensore nella posizione più congrua per la localizzazione, svincolandosi anche da ingombri aggiuntivi durante la fase di prelievo. Nella guida robot 3D, la proposta è il nuovo applicativo CubicVision, che grazie al connubio di tecnologie monoscopiche, stereoscopiche o basate sulla soluzione sheet of light, permette di adattare il sistema ai diversi oggetti da prelevare o a differenti scenari applicativi, risolvendo l’annoso problema di realizzare una visione tridimensionale realmente multiscopo. Il software prevede algoritmi di pattern matching basati sulle superfici della nuvola di punti, permettendo una localizzazione realmente tridimensionale, e consentendo al manipolatore di effettuare prelievi di elementi posti alla rinfusa in cassoni e contenitori, controllando al contempo la effettiva raggiungibilità del punto finale di afferraggio, l’occlusione e l’assenza di collisioni tra l’end-effector e gli elementi adiacenti o i bordi del contenitore stesso. Mina (ARS Automazione) precisa che Adept offre un pacchetto integrato denominato ACE (Automation Control Environment) giunto alla versione 3.3. «L’integrazione del robot con il sistema di visione è una problematica che raramente viene affrontata. Oramai nessuno più dubita della bontà dei sistemi di visione o dei robot, ma farli dialogare può nascondere sempre delle insidie: ma con ACE l’integrazione è insita nel pacchetto stesso». Omron ci sottolinea che la piattaforma di automazione Sysmac permette di gestire con un solo controllore e di programmare con un solo software tutte le componenti di automazione della macchina: logica, motion, robot e anche la visione. Con la nuova funzionalità robotica, introdotta nel luglio di quest’anno, la serie NJ permette di comandare fino a 8 robot delta con un unico controllore mantenendo il controllo dei movimenti e delle sequenze macchina. Parte integrante della piattaforma è il sensore FQ-M, telecamera intelligente progettata per la guida robot: molto compatto e con velocità di elaborazione di 5000 pezzi/min anche con una rotazione completa a 360 gradi, prevede porte Ethernet e EtherCAT, un encoder incrementale e garantisce rilevamenti stabili, fino a 32 pezzi alla volta, anche in condizioni ambientali variabili. Il rilevamento è supportato da un nuovo algoritmo di ricerca basato sui contorni, con garanzia di massima affidabilità indipendentemente dalle condizioni di illuminazione, riflessione e inclinazione degli oggetti, arrivando a gestire oggetti sovrapposti o parzialmente nascosti. Diani (Image S) cita il software Halcon di MVTec Software, utilizzabile per qualsiasi applicazione di misura tridimensionale. L’ultima versione HALCON 11 si pone al top del software per machine vision, con funzionalità quali l’identificazione basata su singoli campioni, confronto di superfici 3D e processing di oggetti 3D, stereovisione fotometrica migliorata, lettura di codici AZTEC e Micro QR, selezione automatica delle caratteristiche per la classificazione, algoritmi più veloci tramite esteso supporto su GPU, profiler tool incluso nell’IDE, nuova interfaccia HALCON/C++ e supporto per Mac OS X, supporto e driver per l’interfacciamento di telecamere 3D di vari produttori e con varie tecnologie. Altro prodotto è BOA di Teledyne DALSA, prima telecamera intelligente che integra diversi motori di elaborazione, con ottimizzazione degli algoritmi tramite DSP, gestione degli applicativi via CPU e dei sensori via FPGA. BOA è anche la prima telecamera intelligente con software applicativo realmente embedded, che può essere facilmente configurato tramite un normale browser: nessun software da installare e nessun problema di controllo delle versioni.

Sistemi di Visione per Robot - Ultima modifica: 2013-03-29T14:19:39+01:00 da La Redazione