3D: la visione completa del mondo

La continua evoluzione ed il diffondersi dei robot collaborativi richiede che la tradizionale programmazione sequenziale dei movimenti rimanga relegata ad applicazioni ripetitive in ambiente protetto per lasciare invece spazio alla guida dei robot tramite sistemi di visione 3D.

Com’è noto noi fortunati umani godiamo del possesso di due occhi frontali che, meraviglia, sono disassati di 6-7 centimetri. Questo fa in modo che al cervello, arrivino due immagini leggermente diverse della scena inquadrata da ambedue gli occhi; il nostro “software” elabora le due immagini e ne ricava informazioni di distanza e profondità consentendo rilevazioni, e conseguenti movimenti, nello spazio a tre dimensioni.

Provare per credere: chiudetevi un occhio, aspettate 30 secondi e cercate di afferrare al primo colpo un oggetto distante circa un metro da voi; avrete bisogno di almeno due-tre tentativi a diverse distanze dall’oggetto per consentire al cervello di valutare la reale posizione del target.

Proviamo a riportare questo semplice esperimento ad una tipica situazione industriale: si abbia un robot che prelevi dei pezzi da un nastro trasportatore abbastanza largo sul quale, prodotti di forma diversa, arrivino alla rinfusa in posizione non univoca; è abbastanza intuitivo che se il robot è installato al di sopra del nastro trasportatore, sulla verticale di una limitata zona di prelievo, il riconoscimento della posizione dei pezzi si riduce a un problema bidimensionale sul piano definito dal nastro. Ma se, come spesso succede, il robot opera lateralmente al nastro trasportatore allora la valutazione della posizione del pezzo torna ad essere tridimensionale essendo non più fissa la distanza fra l’oggetto ed il robot.

Un sistema di visione industriale 3D

Se dunque la visione diventa importante per i più innovativi aspetti dell’Industry 4.0, a maggior ragione lo è la visione 3D per sistemi di manipolazione che debbano orientarsi autonomamente nello spazio. Ma come funziona un sistema di visione tridimensionale?

La visione 3D si basa sull’elaborazione a cura di software algoritmico di elevata complessità ed in grado di ricostruire l’informazione 3D (cioè forma spaziale e posizione nello spazio di un oggetto), di informazioni di tipo 2D fornite da telecamere particolari. A prescindere da dove venga effettuata l’elaborazione delle immagini (che potrebbe avvenire sia nel sistema della telecamera, sia nel sistema di comando del robot) i principali sistemi sono:

  • telecamere 2D che forniscono informazioni aggiuntive spaziali non ottiche: un esempio sono le apparecchiature cosiddette “TOF – Time Of Flight” che basano il loro funzionamento sull’uso di una sorgente luminosa complementare (normalmente un laser) che illumina il target da riprendere. In pratica il sistema telecamera-sorgente luminosa misura il tempo di volo della radiazione luminosa, ovvero il tempo che la luce impiega per raggiungere l’oggetto presente nella scena e per tornare indietro, riflessa, verso l’obiettivo della telecamera. Il tempo misurato è proporzionale alla distanza percorsa dalla luce, quindi più lontano è il bersaglio più lungo sarà il tempo misurato. La sorgente luminosa e l’acquisizione dell’immagine sono sincronizzate, in modo tale da poter estrarre e calcolare le distanze a partire dai dati dell’immagine
  • doppie telecamere 2D che ricreano artificialmente, il già descritto fenomeno della visione umana: due riprese della stessa scena realizzate da due telecamere complanari poste a distanza fissa fra loro forniscono due immagini leggermente diverse che il software provvede a integrare per ricavare immagini 3D; questo tipo di telecamere hanno il vantaggio di funzionare correttamente con qualsiasi condizione di luce anche se molto intensa.

Purtroppo la loro capacità di ricostruire le informazioni 3D è fortemente influenzata dalla distanza tra i due obiettivi: ad esempio con una distanza di dieci centimetri un sistema di questo tipo può agevolmente realizzare misure di profondità a corto raggio, con distanze di misurazione fino a 0,5 metri mentre con differenza di venti-trenta centimetri si possono rilevare distanze fino cinque – dieci metri.

  • sistemi telecamera-laser a triangolazione: in base a questa metodologia il calcolo della distanza tra l’obiettivo e l’oggetto osservato viene effettuato utilizzando una telecamera ed un illuminatore complanari in cui è nota la distanza fra obiettivo e sorgente luminosa; un sistema di questo tipo valuta gli angoli di partenza del raggio luminoso e di incidenza sull’obiettivo del raggio riflesso consentendo, tramite calcoli trigonometrici, di risalire alla distanza dell’oggetto.

Le caratteristiche tecniche

I sistemi descritti si basano sull’uso di telecamere mono o stereoscopiche; il grande vantaggio di questi sistemi è quello di essere molto aperti e suscettibili di essere personalizzati (ad esempio con la focale dell’obiettivo) in funzione del tipo di applicazione; il punto fermo per tutti è però la risoluzione che, nel caso di sistemi 3D è un po’ più complessa da definire rispetto a normali sistemi 2D.

Per esempio, nel caso di sistemi a scansione, la risoluzione deve tenere conto non solo del numero di pixel con cui una singola immagine è definita, ma anche del numero di profili di immagine che definiscono la terza dimensione dell’oggetto tridimensionale.

Oltre la risoluzione, un altro punto critico è la rapidità di elaborazione del sistema che genera le immagini 3D: è evidente la necessità di GPU (Graphic Process Unit) iperveloci in grado di lavorare su un flusso dati continuo sincrono con il laser di scansione e di CPU in grado di convertire rapidamente in ordini di movimento le informazioni tridimensionali; le caratteristiche di velocità sono più o meno importanti a seconda del tipo di applicazione: in un sistema di pallettizzazione robotizzato la funzionalità principale è quella di riconoscere posizione, forma ed orientamento di un oggetto nello spazio al fine di afferrarlo e posizionarlo correttamente mentre in un sistema di controllo qualità devono probabilmente essere rilevate forma, misure, colore, aspetto superficiale, ecc… In questo secondo caso la maggiore velocità di elaborazione richiesta è dovuta alla probabile maggiore risoluzione necessaria per l’analisi.

Anche il frame-rate, che nelle applicazioni di guida robotica assume importanza per la manipolazione di oggetti in rapido movimento, è una caratteristica qualificante di un sistema di ripresa 3D: è intuitivo che per oggetti non statici è necessario un frame-rate tanto più elevato quanto maggiore è la velocità di movimento dei soggetti da riprendere.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here