Industriele automatisering
6 februari 2020

Industriële 3D-camera

Op basis van Intel's RealSense-technologie

De Duitse firma FRAMOS, specialist voor vision-technologieën, heeft een industriële versie van de RealSense-camera’s van Intel ontwikkeld. Deze biedt Gigabit Ethernet-connectiviteit en is gebouwd in een stof- en waterdichte behuizing volgens de IP66-standaard. De industriële 3D-camera D435e met GigE Vision-aansluiting staat voor eenvoudig te integreren 3D-waarneming in ruwe omgevingen. De plug & play-oplossing maakt real-time positionering, oriëntatie en tracking mogelijk voor robots, autonome transportsystemen (AGV’s) en slimme machines.

Vision op basis van normale 2D camera’s wordt vandaag de dag voor heel veel uiteenlopende applicaties gebruikt. Door het inzetten van camera’s heeft de besturingscomputer immers ogen en is het mogelijk om op basis van de opgenomen beelden de meest uiteenlopende beslissingen te nemen. Toch is het lang niet altijd mogelijk om standaard vision-systemen in te zetten. Een 2D-plaatje geeft immers geen diepte-informatie waardoor de beeldinformatie in sommige gevallen verwarrend kan zijn. U moet hierbij denken aan de grappige foto’s die vanuit een speciale hoek gemaakt zijn zodat het lijkt of iemand de toren van Pisa probeert recht te zetten of het puntje van de Eifeltoren aanraakt. Dergelijke foto’s zijn leuk voor in het vakantiealbum, maar in industriële automatiseringsapplicaties niet echt handig. Dan is het prettig als de foto ook nog diepte-informatie weergeeft.

3D-foto’s
Het maken van een 3D-foto is niet ingewikkeld. Daarvoor heb je twee camera’s nodig die iets uit elkaar geplaatst zijn en onder een net iets andere hoek naar het object kijken. Net als onze ogen levert dat twee plaatjes op die in grote lijnen hetzelfde zijn, maar anders in positionering. In afbeelding 1 is te zien wat we bedoelen. Als u de lijnen in deze figuur bestudeert, zult u zien dat ver weg gelegen punten op ongeveer dezelfde plaats op de opnemer terecht komen terwijl punten die dicht bij de camera gelegen zijn, veel verder van elkaar op de twee sensoren terecht komen. Dit gegeven maakt de 3D opname.
Bij onszelf zijn het onze hersenen die de twee plaatjes combineren en de verschillen vertalen in afstanden. Dit is ook wat de beeldverwerker uit de 3D-camera moet doen. Deze moet de afstand gaan bepalen tussen de pixels van dezelfde objecten in de beide beelden. Uit deze verschillen is de afstand te berekenen tussen de camera en het object.
Onze hersenen gebruiken een intelligent algoritme om de beeldinformatie uit beide ogen samen te voegen tot een plaatje waarin we diepte ervaren. Ditzelfde moet de beeldverwerker ook gaan doen, maar dan op een manier waarbij er vervolgens uit de gegenereerde data gemakkelijk informatie valt te halen voor verdere verwerking. Dit kan bijvoorbeeld door de mate van verschil om te zetten in een kleur. Door pixels met een groot verschil tussen linker en rechter sensor rood te kleuren en pixels met een klein verschil blauw (en alle kleuren daar tussen in) kan de computer die de beelddata verwerkt op basis van de kleurwaarde reageren op de beeldinformatie. Afbeelding 2 toont een voorbeeld van een aldus opgesteld 3D-plaatje. Voor de duidelijkheid is hier in wit een draadfiguur getekend om zo gemakkelijker de diepte te zien. Niet moeilijk is het nu om te snappen dat de kleurwaarde gebruikt kan worden door bijvoorbeeld een robotarm om beter te kunnen positioneren om zo bijvoorbeeld het hier rood weergegeven blok op te kunnen pakken.

>>Lees hier het complete artikel.   

Voor meer informatie over de D435e van FRAMOS klik hier .

Voor meer informatie over de intel-3D-camera’s klik hier .

Meer nieuws over Industriele automatisering