Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 7 Jahren

12-2016

  • Text
  • Industrie
  • Anwendungen
  • Gewinn
  • Umsatz
  • Einsatz
  • Mitarbeiter
  • Unternehmen
  • Software
  • Serie
  • Embedded

Bildverarbeitung

Bildverarbeitung triangulation gesetzt werden. Eine Vermessung von hoch reflektierenden Blechteilen im sub-Millimeter Bereich wäre beispielsweise eine typische Anwendung für die Lasertriangulation. Als weiteres Beispiel ließe sich das Sortieren von Glasflaschen nennen, bei denen wenig Kontrast vorhanden ist. Time-of-Flight- oder Lichtlaufzeit-Verfahren Das Lichtlaufzeitverfahren ist eine sehr effiziente Technologie, um Tiefendaten zu gewinnen und Entfernungen zu messen. Eine Lichtlaufzeitkamera liefert zwei Arten von Informationen für jedes Pixel: den Intensitätswert, ausgegeben als Grauwert, und den Abstand des Objektes von der Kamera, nämlich den Tiefenwert. Beim Lichtlaufzeitverfahren gibt es zwei verschiedene Methoden, das Continuous-Wave- und das gepulste Time-of-Flight-Verfahren. Continuous-Wave-Verfahren Das Continuous-Wave-Verfahren basiert auf der Messung der Phasenlage einer helligkeitsmodulierten Lichtquelle. Diese Methode ist ausgereift und funktioniert mit Standardelektronik. Die Sensoren, die bei diesem Verfahren genutzt werden, sind relativ groß und verfügen über eine geringe Auflösung. Time-of-Flight-Verfahren Das gepulste Time-of-Flight-Verfahren ermittelt die Entfernung aus der Laufzeit vieler einzelner Lichtpulse. Das erfordert sehr schnelle und präzise Elektronik um auf eine Genauigkeit im ±1-cm-Bereich zu gelangen. Durch den technischen Fortschritt ist die Erzeugung präziser Lichtpulse, sowie deren exakte Vermessung mit hoher Auflösung inzwischen zu vertretbaren Kosten möglich. Das gepulste Time-of-Flight- Verfahren wird sich daher rasant weiter entwickeln, da auch hier der Trend zu hohen Auflösungen nicht zu vernachlässigen ist. Eine Time-of-Flight-Kamera ist ein kompaktes System ohne bewegliche Teile und besteht aus den folgenden Komponenten: • einer integrierten Lichtquelle • einem integrierten Objektiv und • einem Time-of-Flight-Sensor Die Lichtquelle sendet Lichtpulse oder auch kontinuierliches Licht aus. Dieses Licht trifft auf ein Objekt und wird zurück zur Kamera reflektiert. Das integrierte Objektiv sorgt dafür, dass das zurückgeworfene Licht in den Sensor gelangt. Vereinfacht dargestellt, wird auf Basis der Laufzeit, die das Licht unterwegs war, bis es wieder auf den Sensor getroffen ist, die Entfernung und somit der Tiefenwert für jeden einzelnen Pixel berechnet. Dieses Verfahren macht eine einfache und echtzeitfähige Darstellung von Punktwolken/Tiefenkarten möglich und liefert zudem ein Intensitätsbild und ein Konfidenzbild, beides zum gleichen Zeitpunkt aufgenommen. Typische Einsatzgebiete von Time-of-Flight Time-of-Flight-Kameras eignen sich für Anwendungen, in denen ein hoher Arbeitsabstand, hohe Geschwindigkeit und geringe Komplexität gefragt sind. Wenn diese Eigenschaften gefordert sind und ein geringes Budget wichtiger ist als Genauigkeit bis auf Millimeter, ist das gepulste Time-of-Flight-Verfahren die richtige Wahl. Prädestiniert für Time-of-Flight (ToF)-Kameras sind Volumenmessungen in der Logistik, Palettier- und De-Palettieraufgaben sowie autonom fahrende Fahrzeuge im Logistikumfeld. Des Weiteren ergeben sich neue spannende Aufgaben für ToF-Kameras im medizinischen Umfeld für die Positionierung und die Überwachung von Patienten. Im industriellen Bereich eignen sich Systeme mit ToF-Kameras aufgrund ihrer relativ geringen Tiefengenauig- keit eher für gröbere Aufgaben wie z.B. Pick- und Place-Applikationen von größeren Objekten. Außerdem sind sie für Robotersteuerungen einsetzbar oder für das Vermessen und der Lageerkennung von großen Objekten, z.B. in der Automobilfertigung. Vergleich der aufgeführten 3D-Technologien Wie bereits aus Punkt „Überblick über die beliebtesten 3D-Technologien“ zu erkennen ist, gibt es nicht „die eine“ perfekte 3D-Technologie zum Lösen aller Vision-Anwendungen, die die dritte Dimension benötigen. Es muss immer eine Abwägung der Anforderungen erfolgen, um die optimale Technologien auswählen zu können. Die unten stehende Tabelle zeigt noch einmal die Performance der einzelnen Technologien in Bezug auf wichtige Kriterien einer Applikation. Time-of-Flight Kameras in einem smarten Gabelstapler zur Lagerautomatisierung 38 PC & Industrie 12/2016

Bildverarbeitung 1 wird sich aber dank der neuen Sensorengeneration in den nächsten Jahren steigern Welches ist die richtige 3D-Technologie für meine Anwendung? Es gibt nicht die eine, perfekte Lösung für jede Anwendung. Deshalb muss jede Anwendung neu hinsichtlich ihrer Anforderungen und der dazu passenden Technologie evaluiert werden. Zunächst muss entschieden werden, ob 2D oder 3D bei der Lösung verwendet werden soll. Wenn die Wahl auf eine Lösung fällt, die die dritte Dimension benötigt, muss anschließend anhand der Anforderungen der Anwendung und der Vor-und Nachteile der jeweiligen 3D-Technologie die passende Technologie gewählt werden. Es ist wichtig, noch einmal die Kriterien und Rahmenbedingungen für die Anwendung zu skizzieren. Durch eine Auflistung der Rahmenbedingungen und Anforderungen wird klarer, welche Technologien überhaupt in Frage kommen. Folgende Punkte sollten geklärt werden: • Welche Anforderungen an die Genauigkeit hat meine Anwendung? (sub-mm, mm oder cm) • Wie ist die Oberflächenbeschaffenheit der Objekte? (kooperativ / unkooperativ) • Was für einen Arbeitsabstand muss das System erfüllen? • Welche Systemgeschwindigkeit wird gefordert? • Muss das System echtzeitfähig sein? • Welche Anforderungen an die Installation und das Setup habe ich? Darf das Setup komplex sein oder muss er sehr einfach umzusetzen und zu integrieren sein? • Welches Gesamtbudget ist für die Applikation vorgesehen? (Gesamtbetriebskosten) • Wie hoch dürfen die Kosten für die 3D-Lösung als Einzelkomponente sein? • Wird die Anwendung im Innenoder Außenbereich mit direktem Sonnenlichteinfall verwendet? Nach der Auflistung der wichtigsten Anforderungen müssen diese priorisiert werden, um die Wichtigsten herauszufinden. Dieses gelingt am Besten, wenn man sich folgende Frage stellt: Auf was kann ich verzichten und für welche anderen Vorteile würde ich das tun? Fazit Es gibt bei der Wahl der Technologien für die Bildverarbeitung keine 100%ige Sicherheit, die einzig richtige Technologie zu finden. Selbst bei der Wahl zwischen einer 2Doder 3D-Technologie gibt es nicht immer eine definitive Lösung. Die Bildverarbeitung und die Applikationen dahinter sind oftmals so komplex, dass je nach Anwendung individuell entschieden werden muss. Jede Anwendung ist anders – was bei der einen Anwendung eher eine B-Priorität aufweist und zu Gunsten anderer Faktoren etwas niedriger spezifiziert werden kann, ist bei einer anderen Anwendung die Top-Priorität, die dann auch für einen höheren Preis oder Nachteilen bei anderen Faktoren zwingend erfüllt sein muss. Die erste Entscheidung zur Wahl der richtigen Technologie muss zwischen 2D oder 3D getroffen werden. Erst nach dieser Entscheidung kann beschlossen werden, welche 2D-Kamera – beispielsweise Flächenoder Zeilenkamera – oder welche 3D-Technologie die geeignetste ist. Wichtig ist hierbei, dass stets die Gesamtheit der Kosten einer solchen Investition, die über ihren kompletten Lebenszyklus hinweg anfallen, betrachtet wird und nicht nur die Kosten der Einzelkomponenten. Es können hohe Kosten in der Installation des Systems und der Softwarelösung anfallen, über die eine vermeintlich günstige Einzelkomponente hinwegtäuscht. In der Umsetzung von Lösungen zur Bildverarbeitung wird 3D mehr und mehr an Nachfrage gewinnen. Insbesondere die Industrie 4.0 und die stetig zunehmende Automatisierung in allen Bereichen der Industrie und auch unseres täglichen Lebens führen zu diesem Anstieg. Zudem können auch existierende 2D-Lösungen von der dritten Dimension profitieren und das System effizienter machen. • Basler AG sales.europe@baslerweb.com www.baslerweb.com PC & Industrie 12/2016 39

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel