Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 5 Jahren

1-2-2019

  • Text
  • Software
  • Elektromechanik
  • Positioniersysteme
  • Antriebe
  • Stromversorgung
  • Feldbusse
  • Kommunikation
  • Robotik
  • Qualitaetssicherung
  • Bildverarbeitung
  • Automatisierungstechnik
  • Sensorik
  • Messtechnik
  • Visualisieren
  • Regeln
  • Msr
  • Boards
  • Systeme
  • Sbc
  • Ipc
Fachzeitschrift für Industrielle Automation, Mess-, Steuer- und Regeltechnik

Bildverarbeitung Bild 3:

Bildverarbeitung Bild 3: “An analysis of Deep Neural Network Models for Practical Applications” von Alfredo Canziani, Adam Paszke, Eugenio Culurciello (2017) Industrie 4.0 sowie Drohnen und autonomes Fahren deutlich. Die höhere Rechengenauigkeit von GPUs und damit auch höhere Vorhersagegenauigkeit wird durch deutlich kürzere Verfügbarkeiten, höhere Leistungsaufnahme, aber auch durch einen geringeren Datendurchsatz erkauft. Ein exemplarischer Vergleich der Leistung der Datenbearbeitung liegt bei einer FPGAbasierten Lösung um Faktor 7,3 höher als bei einer vergleichbaren Systemlösung mit GPUs (Bild 4). FPGA-Ressourcen optimieren Für Deep Learning gibt es unterschiedliche Methoden, Ressourcen einzusparen ohne die Qualität der Klassifizierung zu beeinträchtigen. Eine wichtige Methode ist die Skalierung der Bilder, die den internen Datendurchfluss reduziert. Oder die Rechentiefe: Erfahrungswerte haben gezeigt, dass die Rechentiefe sich nur marginal auf die spätere Vorhersagegenauigkeit durchschlägt. Die Reduktion von 32 bit auf 8 bit und von Floating Point auf Fixed Point / Integer ermöglicht dem FPGA, die gestiegenen Ressourcen für größere Netzarchitekturen oder einen höheren Datendurchsatz zu nutzen. Dadurch ist es möglich, die Produktionsgeschwindigkeit etwa bei der Schweißnaht-Inspektion oder Robotik zu steigern. Eine datenreduzierende Bildvorverarbeitung ermöglicht es darüber hinaus, kleinere Netze oder FPGAs einzusetzen. Diese reichen oftmals für Klassifizierungsaufgaben mit wenigen Merkmalen für die Fehlerdetektion aus. Die höhere Rechengenauigkeit einer 32 bit Floating Point GPU ist für die Deep Learning-Inference von geringer Bedeutung, erreichen doch 8 bit Fixed Point FPGAs eine ausreichend präzise Vorhersagegenauigkeit für die meisten Deep Learning-Anwendungen bei zu vernachlässigender Fehlertoleranz. Bei Anforderungen nach besonders präziser Rechengenauigkeit lässt sich auf einem größeren FPGA als Ressourcenkompromiss auch 16 bit Fixed Point implementieren. Für die in der Produktion erforderlichen Verarbeitungsgeschwindigkeiten existieren bereits Lösungen mit Hochleistungs-Framegrabbern oder eingebetteten Vision-Geräten wie Kameras und Sensoren mit größeren FPGAs. Mit umfangreicheren FPGA-Ressourcen lassen sich komplexere Architekturen und damit auch Anwendungen verarbeiten. Die höhere Datenbandbreite ermöglicht eine Verarbeitung eines Gesamtbildes oder zusätzliche Bildvor- und -nachverarbeitung auf dem FPGA. Sie ist ausreichend hoch, um beispielsweise den kompletten Datenausgang einer GigE Vision Kamera über Deep Learning zu analysieren. Fazit Im Vergleich zur klassischen Bildverarbeitung wird ein relativ hoher Trainingsaufwand bei Deep Learning durch Zuverlässigkeit und Schnellig keit mehr als aufgewogen. Die FPGA-Technologie auf Framegrabbern und (eingebetteten) Vision-Geräten ermöglicht den Einsatz von neuronalen Netzen für Anwendungen mit industriellen Anforderungen an Echtzeitfähigkeit bzw. geringen Latenzen (wichtig für Inline-Inspektion), Datendurchsatz, Bandbreite und geringe Wärmeleistung (wichtig für embedded Vision), auch für hoch aufgelöste Bilder. Die lange Verfügbarkeit von FPGAs und Framegrabbern gewährleistet eine hohe Investitionssicherheit. Anwender profitieren von langfristigen Einsparungen durch schnelle Anpassbarkeit und geringere Gesamt systemkosten. ◄ Bild 4: Die FPGA-Leistung ist 7,3-mal höher als diejenige der GPU [Quelle: Silicon Software GmbH] 64 PC & Industrie 1-2/2019

Bildverarbeitung ALPR/ANPR-Software-Suite mit Deep Learning Die Carrida-Software-Engine für die automatische Nummernschilderkennung (ALPR/ANPR) wurde jetzt um die neue Funktion Fahrzeugtypenerkennung erweitert, die mit Deep-Learning-Algorithmen umgesetzt wird. Aktuell erkennt Carrida Make & Model Hunderte europäische und US-amerikanische Fabrikate und Typen. Das Tool kann alleinstehend verwendet werden oder zusammen mit der Nummernschilderkennung, um die Erkennungsgenauigkeit zu erhöhen. Vision Components hat seit 2014 ein leistungsstarkes, praxiserprobtes Lösungsangebot für OEMs im Bereich Zufahrtskontrolle, Straßenverkehrsüberwachung und Smart City auf die Beine gestellt. Dieses wird seit Kurzem federführend von der Tochterfirma Carrida Technologies GmbH vermarktet und weiterentwickelt. • Vision Components GmbH www.vision-components.com www.carrida-technologies.com Langlebiges Zoomobjektiv für automatisierte Inspektion Qioptiq, ein Unternehmen von Excelitas Technologies, liefert ab sofort die zweite Generation des Zoomobjektivs Fetura+, die sich durch höchste optomechanische Präzision auszeichnet. Das Objektiv deckt einen Zoombereich von 1:12,5 ab und ist objekt- und bildseitig nach unendlich korrigiert. Dadurch ist es voll kompatibel mit der modularen Mikroskopie- Plattform Optem Fusion. Diese ermöglicht die schnelle, flexible und kostengünstige Einrichtung von Objektivsystemen für labor technische und industrielle Anwendungen. Qioptiq hat die optische Leistung bei den Zoomobjektiven der neuen Generation noch weiter verbessert. Die neuen Modelle bieten insbesondere in den Ecken des Bildfeldes einen höheren Kontrast. Vergrößerungen und Zoomgeschwindigkeiten können frei programmiert und automatisch gesteuert werden. Eine neue Firmware ermöglicht kontinuierliches optisches Zoomen bei konstanter Fokuslage – in Videoaufnahmen bleibt das Bild also auch beim Zoomvorgang immer scharf. Durch Optimierungen an der Mechanik und der integrierten Elektronik bleiben die hohe Stabilität und Wiederholgenauigkeit der Fokuslage über eine extrem lange Lebensdauer von über 1 Million Zyklen erhalten. Dies sorgt für höchste Zuverlässigkeit und erhöhte Verfügbarkeit anspruchsvoller industrieller Applikationen. Beispielanwendungen sind die berührungslose Dimensionsmessungen. • Excelitas Technologies Corp. www.excelitas.com Neue Embedded-Kameras mit Sony-Pregius- Bildsensoren Vision Components erreicht mit leistungsstarken CMOS- Sensoren in seinen Embedded- Vision-Systemen herausragende Bildraten. Der Hersteller integriert nun einen weiteren Sony-Pregius- Bildsensor in seine VC-Z-Kameras. Der Sony Pregius IMX392 hat eine Auflösung von 1920 px x 1200 px bei einer Größe von 1/2,3“. Bei Vollauflösung erreicht Vision Components damit eine Aufnahmefrequenz von bis zu 118 fps. Der neue Bildsensor ist in OEM-Platinenkameras mit integriertem Sensor sowie mit einem oder zwei abgesetzten Sensorköpfen mit Flexprint- Kabel erhältlich. Außerdem gibt es zwei Gehäusekameras, die kompakte VCnanoZ und die besonders robuste VCproZ mit Schutzart IP67. Für alle Varianten stehen zahlreiche Schnittstellen zur Verfügung. Der 2,3-Megapixel-Sensor ist bereits der dritte Sony-Pregius- Sensor, den Vision Components integriert. Die genannten Kameramodelle sind wahlweise auch mit dem IMX273 mit 1,6 MP Auflösung und maximaler Bildrate von 170 fps sowie mit dem IMX252 (3,2 MP, 88 fps) verfügbar. Eine noch schnellere Bildverarbeitung ist jeweils bei geringeren Auflösungen möglich. Damit haben OEMs eine praxisgerechte Auswahl an schnellen intelligenten Kameras. • Vision Components GmbH www.vision-components.com Kamera-Ringbeleuchtung jetzt in sechs Farben Für seine Kameraschutzgehäuse der Orca-Baureihe bietet autoVimation die Meganova-Ringbeleuchtung jetzt in sechs Farben mit integriertem Blitzcontroller an. Die montagefreundlichen Einsätze leuchten das Blickfeld der Kamera mit acht Hochleistungs-LEDs in vier optionalen Abstrahlwinkeln zwischen 14° und 76° aus. Als Farben stehen neben zwei Weißtönen auch Rot, Grün, Blau und Infrarot zur Wahl. Um eine Rückspiegelung der Beleuchtung in die Kameraoptik zu unterbinden, wird das Modul mittels der großflächigen Klemmbefestigung direkt hinter der Frontscheibe montiert. Der große offene Innenradius erlaubt auch die Installation von Weitwinkel-Objektiven bis 36 mm Durchmesser unmittelbar an der Gehäusefront. Im Überstrombetrieb lässt sich die Beleuchtungsstärke auf das Vierfache der Nennstrom-Helligkeit steigern, wobei die maximale Belichtungszeit und Bildfrequenz zum Schutz der Leuchten in Abhängigkeit der Stromverstärkung begrenzt wird. Aufgrund der guten Wärmeableitung über das Kameragehäuse ist bei Raumtemperatur auch im Dauerbetrieb eine auf 200 % erhöhte Nennstrom- Helligkeit bei 16 W Leistungsaufnahme möglich. Vor Überhitzung schützt eine permanente Temperaturüberwachung mit automatischer Notabschaltung. • autoVimation GmbH sales@autovimation.com www.autovimation.com PC & Industrie 1-2/2019 65

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel