Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 4 Jahren

7-2019

  • Text
  • Bauelemente
  • Elektromechanik
  • Positioniersysteme
  • Antriebe
  • Stromversorgung
  • Hmi
  • Kommunikation
  • Robotik
  • Qualitaetssicherung
  • Bildverarbeitung
  • Automatisierungstechnik
  • Sensorik
  • Messtechnik
  • Visualisieren
  • Regeln
  • Msr
  • Boards
  • Systeme
  • Sbc
  • Software
Fachzeitschrift für Industrielle Automation, Mess-, Steuer- und Regeltechnik

IPCs/Embedded Systeme

IPCs/Embedded Systeme Robuste lüfterlose Xeon Serverlösung mit bis zu 16 Cores Der lüfterlose Xeon Server von MPL AG ermöglicht die Verwendung eines leistungsstarken Servers in robusten Anwendungen. Das Konzept bietet mehr Rechenleistung, mehr Speicherkapazität und mehr Flexibilität (M-COTS) als bisherige lüfterlose Lösungen Gewicht, Leistung und Kühlung) ausgerichtet und benötigt weniger als 60 W im Vollbetrieb. Die Geräte kommen mit mehreren internen Schnittstellen für Erweiterungen (M-COTS). Der MXCS kommt mit Funktionen wie: • 4x mSATA oder M.2 für Massenspeicher • 4x mPCIe Slots mit Retentionsmöglichkeiten • 4x PCIe x1 oder 1x PCIe x8 und 1x PCIe x1 • Erweiterungsmöglichkeiten für GPGPU auf MXM, PCIe (z. B. RAID, High-End-Grafik oder XMC Modules. • Bis zu 128 GB registered ECC DDR4 Speicher • BMC für Fern-Management (IPMI) • Redundanter Boot-Flash • Optionales TPM-Modul, mit Intel- Chip oder FPGA © MPL AG Switzerland MPL AG www.mpl.ch Der MXCS (MPL Xeon Class Server) wurde mit der gleichen Designphilosophie entworfen wie in den vergangenen 34 Jahre alle robusten lüfterlosen MPL-Produkte. Das Konzept „Rugged by Design“ wurde angewendet, und führt zu einer Server- Lösung mit Highlights wie: • lüfterlosem Design • Verwendung von Komponenten im erweitertem Temperaturbereich • Verwendung von Komponenten mit Langzeitverfügbarkeit • Entworfen, um die meisten robusten Anforderungen zu erfüllen. Passive Kühlung Die Xeon Serverlösung ist so konzipiert, dass das System passiv gekühlt wird. Diese ermöglicht den Betrieb des Systems auch im erweiterten Temperaturbereich von -40 bis + 60 °C. Das leitfähige Kühlkonzept kann an die Applikation und den Installationsort angepasst werden. Modularer Aufbau Das MXCS ist modular und daher äußerst flexibel und kann in jeder robusten Anwendung eingesetzt werden. Der Server kann mit einem Gehäuse (wie gezeigt) für die Wandoder Tischmontage, oder als 19-Zoll- Rack verwendet werden, abhängig von den internen Erweiterungen und dem ausgewählten Kühlmechanismus. Die MXCS ist, wie alle anderen MPL Produkte, SWaP-C (Größe, Anwendungsbereiche Der MXCS ist die perfekte Lösung für ein unbegrenztes Anwendungsspektrum wie C4ISR, EW, Bildverarbeitung, Überwachung, virtuelle Maschinen, Rechenzentrumsverarbeitung oder jede Anwendung, die grosse Rechenleistung auf kleinstem Raum benötigt wird, ohne Lüfter und mit höchste Zuverlässigkeit. Der MXCS wird zu 100 % von der MPL AG in der Schweiz entwickelt und produziert. Die Lösung erfüllt Normen wie CE, UL, MIL- STD-810G, MIL-STD-461F, MIL- STD-704F, MIL-STD-1275D, CE, EN 50155 oder IEC 60945. Der MXCS entspricht den gleichen Standards, wie alle anderen bewährten Embedded Computer und Networking Produkte der MPL AG. Weitere Informationen stehen unter www.mpl.ch/t5000.html zur Verfügung. ◄ 18 PC & Industrie 7/2019

Deep-Learning-Inferenz an der Edge SBC/Boards/Module Für die Realisierung von Deep- Learning-Inferenz (DL) an der Edge ist eine flexibel skalierbare Lösung von Nöten, die stromsparend ist und eine geringe Latenzzeit aufweist. Denn an der Edge werden vorwiegend kompakte und passive gekühlte Systeme eingesetzt, die schnelle Entscheidungen ohne Upload in die Cloud treffen. Die neue KI-Beschleunigerkarte Mustang-V100 von ICP Deutschland unterstützt Entwickler bei der erfolgreichen Integration von KI-Trainingsmodellen an der Edge. Auf der PCIe basierten Erweiterungskarte sind acht Intel Movidius Myriad X MA2485 Vision Processing Units (VPUs) integriert. Aufgrund ihres geringen Stromverbrauchs von 2,5 W pro VPU eignet sie sich für besonders anspruchsvolle Low- Power KI-Anwendungen an der Edge. Dabei lässt sich jeder einzelnen VPU eine andere DL-Topologie zuweisen. Grund hierfür ist die Multi-Channel Fähigkeit der VPUs, die die simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Die Kompatibilität mit dem OpenVINO Toolkit von Intel sorgt für eine Performance Optimierung des eingespielten Trainingsmodels und nimmt eine passende Skalierung auf das Zielsystem an der Edge vor. Softwareentwickler profitieren so in zweifacher Hinsicht – durch eine schnelle sowie optimierte Integration ohne langwieriges Trail und Error. Die Mustang-V100 ist mit einer Vielzahl von gängigen Betriebssystemen wie Ubuntu 16.04, CentosOS 7.4 und Windows 10 IoT kompatibel und unterstützt zahlreiche Architekturen und Topologien neuronaler Netzwerke. • ICP Deutschland GmbH info@icp-deutschland.de www.icp-deutschland.de Edge AI-Lösungen basierend auf Intel-Technologien VINO Toolkit und Edge-Management mit einer benutzerfreundlichen UI kombinieren, um die AI-Inferenz im Edge-Bereich zu beschleunigen. VEGA-330 Advantech stellt die branchenweit ersten hardware- und softwareintegrierten Edge AI- Lösungen basierend auf dem Intel Vision Accelerator Design mit der Intel Movidius Myriad X VPU und dem Intel Distribution of OpenVINO Toolkit vor. Laut ABI Research wird der Absatz von Geräten mit Edge AI-Funktionalität bis 2023 um das Fünfzehnfache auf 1,2 Mrd. Einheiten steigen. Edge AI ermöglicht Echtzeit-Entscheidungen ohne Beschränkungen im Hinblick auf Latenz, Kosten, Bandbreite, Stromverbrauch und andere Aspekte. Advantech bietet die branchenweit ersten integrierten Lösungen für Edge AI-Anwendungen. Das reicht von den AI- Beschleunigungsmodulen der VEGA-300-Serie über Inferenz-Systeme bis zu domänenorientierten Lösungspaketen der ESRP-Serie. Alle unsere Lösungen werden mit der Advantech Edge AI Suite ausgeliefert, die das Intel Open- Enge Zusammenarbeit „Advantech arbeitet eng mit Intel zusammen, um das Edge-Computing mit künstlicher Intelligenz zu bereichern”, erklärt Miller Chang, President of Embedded IoT, Advantech. „In Kombination mit der Intel Movidius Myriad X VPU und der Intel Distribution of OpenVINO Toolkit helfen unsere Edge AI-Lösungen den Kunden bei der zügigen Entwicklung und Bereitstellung von visionsbasierten AI-Anwendungen, wie z. B. Robotik, Verkehrsüberwachung und Analyse von medizinischen Bilddaten”, so Chang weiter. Edge AI Suite Die Advantech Edge AI Suite ist ein Software Development Kit für die Beschleunigung der AI-Inferenz. Mit dem integrierten Intel Distribution of OpenVINO Toolkit bietet die Edge AI Suite einen Optimierungsmechanismus für das Deep-Learning-Modell, eine Inferenz- Engine, vortrainierte Modelle und Fernüberwachung mit einer benutzerfreundlichen GUI. Kunden können mit der Python-basierten API schnell und einfach ihre vorhandenen vortrainierten Caffe-, TensorFlow-, Apache MXNetund ONNX-Modelle importieren und auf Edge- Geräten bereitstellen. Die Edge AI Suite umfasst außerdem eine Echtzeit-Statusüberwachung für VPU/CPU/Speicher sowie Funktionen für die Modellaktualisierung zum Management verteilter Edge-Geräte. Edge AI-Module: VEGA-300-Serie Die Advantech Edge AI-Module werden als kompakte, stromsparende Plugin-Module in zwei Formfaktoren angeboten: m.2-Module der VEGA-320-Serie mit einer integrierten Intel Movidius Myriad X VPU und miniPCIe-Module der VEGA-330-Serie mit zwei integrierten Intel Movidius Myriad X VPUs. Gemeinsam unterstützen diese Module die Beschleunigung der Computer-Vision und des Deep-Learning auf Ihren Edge-Systemen für eine große Bandbreite an AI-basierten vertikalen Anwendungen. VEGA-320 und VEGA-330 sind ab Q3 verfügbar. • Advantech Europe B.V. www.advantech.eu VEGA-320 PC & Industrie 7/2019 19

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel