Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 5 Jahren

2-2018

  • Text
  • Medizinelektronik
  • Medizintechnik
Fachzeitschrift für Medizintechnik-Produktion, Entwicklung, Distribution und Qualitätsmanagement

Bildverarbeitung

Bildverarbeitung Embedded GenICam rückt näher Standardisierung eingebetteter Bildverarbeitungsgeräte Bild 1: Aus Processing Modulen bestehende eingebettete Kamera, Quelle: Silicon Software GmbH Kurz gefasst: Das Standardisierungs-Gremium IVSM entwickelt den GenICam- Standard kontinuierlich weiter. Ziel ist der einheitliche Datenaustausch mit eingebetteten Bildverarbeitungssystemen. Der Artikel beschreibt den jetzigen Stand, Einsatzmöglichkeiten und das weitere Vorgehen. Auf dem Weg zu einem globalen embedded GenICam Standard (GENeric Interface for CAMeras) für einen einheitlichen Datenaustausch mit eingebetteten Bildverarbeitungsgeräten wurde auf dem letzten Treffen des Standardisierungs-Gremiums IVSM (International Vision Standards Meeting) in Hiroshima genauer festgelegt, wie der vorhandene GenICam-Standard für embedded Vision weiterentwickelt wird. Verschiedene Teilbereiche von GenICam werden an die neuen Anforderungen der embed ded-Technologien angepasst. Die GenICam arbeitet unter anderem daran, dass die per API auf die Geräte zugreifende Software immer die gleiche ist, unabhängig von der Kameraschnittstelle des jeweiligen Gerätes. Ziel des geplanten embedded GenICam Standards ist es daher, einen standardisierten software seitigen Zugriff auf eingebettete Bildverarbeitungsgeräte wie Kameras und Vision Sensoren – durch Identifikation und Interpretation des gesamten Aufbaus – sowie deren Parametrierung zu gewährleisten und außerdem deren komplexen Daten output wie Streams und Datenformate zusammen mit den gesamten Verarbeitungsergebnissen konsistent zu beschreiben. Derzeit ist die Situation aufgrund der Komplexität eingebetteter Bildverarbeitungsgeräte jedoch sehr heterogen: Anzahl, Positionierung und Beschaffenheit der Processing Module (Verarbeitungseinheiten), die auf FPGAs, SoCs und anderen Prozessoren basieren, sind vielfältig. Sie können beispielsweise im Kamerakopf oder auch im Gerät verbaut sein. Zum anderen sind die Datenformate von Kamerasensor und Ausgabe-Stream oft verschieden und möglicherweise liegt ein fusioniertes Datenformat von mehreren Kamerasensoren vor. Die von den Processing Modulen übertragenen Daten sind komplex und bestehen neben Bilddaten meist zusätzlich aus Events, Signal- und Metadaten wie beispielsweise Objektlisten von Konturen, Histogramm- Ergebnissen, Segmentierungsdaten oder klassifizierten Objektdaten. Eine weitere Besonderheit und große Herausforderung stellen die verschiedenen XMLs der 60 meditronic-journal 2/2018

Bildverarbeitung Processing Module unterschiedlicher Hersteller dar. Die einzelnen Arbeitsgruppen innerhalb des IVSM-Gremiums arbeiten daran, die Vielfalt an Processing Modulen, Datenformaten und XMLs zu überwinden. Beschreibung der In- und Outputdaten Um die Processing Module beispielsweise für die einzelnen Schritte der Bildvorverarbeitung oder die Funktionen eines FPGAs zu erkennen, anzusprechen und zu konfigurieren ist eine einheitliche Beschreibung der Ein- und Ausgänge notwendig, z. B. Kapazitäten sowie Input- und Outputformate für den Datentransport. Mit dem Konzept der Custom Processing Module sind diese individuell konfigurierbar, zum Beispiel für ein Inputbild im RGB-Farbraum und ein Outputbild als Binärbild. Dies wird durch die Verbindung und Synchronisation der Processing Module durch eine GenI- Cam konforme Beschreibung der Input- und Output daten für alle Kameraschnittstellen umgesetzt. GenICam SFNC (Standard Feature Naming Convention) enthält bereits Angaben darüber, wie der Input mehrerer Bilder bzw. Regions of Interest (ROI) von einem oder mehreren Sensoren gehandhabt wird. Wie wird nun mit den multiplen Outputdaten verfahren? Bild 2: Abhängigkeiten zwischen Processing-Modulen, Quelle: Silicon Software GmbH Für die Outputdaten, die aus Rohdaten, Vorverarbeitungs daten bis hin zu Ergebnisdaten mitsamt Metadaten bestehen können, sind kombinierbare Datenstrukturen notwendig, die innerhalb gewisser Grenzen dynamisch änderbar sind. Ein Implementierungsvorschlag für Metadaten sind abstrakte Datenformate als Chunk- Daten, zum Beispiel Zusatzinformationen zu den Bilddaten wie Bounding Boxes, die über Positionskoordinaten, Breite und Höhe beschrieben werden, welche zu dynamischen Datenstrukturen als Objektlisten gebündelt werden. Über XML müssen die Chunk- Daten bzw. Objektlisten so beschrieben sein, dass sie durch GenAPI interpretiert werden können. Für die Übertragung der Metadaten ist das Chunk-Konzept vorhanden. Die Vorverarbeitungsund Ergebnisdaten werden ähnlich wie die Metadaten als Chunk- Daten in XML beschrieben. Daten von Processing Modulen, die in SFNC beschrieben sind, können korrekt interpretiert werden. Die XML-Beschreibungen der Outputdaten sollen in GenDC (ehemals GenSP) integriert werden. Darüber lässt sich das Processing der Eingangsbilddaten einund ausschalten. Zusammenfassen der XML-Beschreibungen Eine weitere Herausforderung besteht im Zusammenfassen der XML-Beschreibungen von Bildformaten, verschiedener Processing Module oder Bildverarbeitungsgeräte zu einem einzeln ansprechbaren Processing Modul. So sollen die Vorverarbeitung der embedded Kamera oder die FPGA- Funktionen als eine Einheit interpretierbar sein. Wird beispielsweise die Auflösung geändert, so muss dies den weiteren Processing Modulen mitgeteilt werden. Um solche Abhängigkeiten und daraus resultierende mögliche Konflikte umzusetzen, werden die XMLs vereint. Die XML-Parameter werden mittels XSLT (XSL- Transformationen) nur einmal im XML gesetzt. Das resultierende vereinte XML wird in das GenI- Cam Repository als Tool eingepflegt und zur Verfügung gestellt. Bis zum nächsten IVSM Meeting soll dies implementiert sein. Dynamische Datenstrukturen mit konsistenten Beschreibungen Mit dem Chunk-Daten ähnlichen Konzept lassen sich dynamische Datenstrukturen umsetzen. Die Konzepte für Processing Module und vereintes XML sind nunmehr verfügbar und müssen als nächstes verabschiedet und implementiert werden. Dadurch wird insgesamt eine flexible Verarbeitung von Systembeschreibungsparametern durch GenAPI gewährleistet sein. Mit wenigen Adaptierungen kann so der GenI- Cam Standard auf embedded Vision angepasst werden. Ein für embedded Vision-Geräte erweiterter GenICam Standard erleichtert Herstellern und Anwendern eine schnellere Inbetriebnahme und gegebenenfalls Parametrierung ihrer Geräte, für die sie eine bestimmte Leistungsfähigkeit garantieren können. Da die Geräte nach dem Standard beschrieben sein werden, ist eine bessere Abgrenzung zum Wettbewerb möglich. Neue Kameraschnittstellen wie NBASE-T und 10 GigE sind dann direkt kompatibel. Der standardisierte Zugriff auf Bildverarbeitungsgeräte aufgrund konsistenter Beschreibungen eröffnet der Bildverarbeitung einen leichteren Zugang zu Märkten wie beispielsweise der Automation, Robotik, Transport und Medizintechnik. ◄ Autor: Martin Cassel, Redakteur bei der Silicon Software GmbH https://silicon.software meditronic-journal 2/2018 61

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel