Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 2 Jahren

12-2022

  • Text
  • Kuenstliche intelligenz
  • Elektromechanik
  • Antriebe
  • Stromversorgung
  • Hmi
  • Industrielle kommunikation
  • Robotik
  • Qualitaetssicherung
  • Bildverarbeitung
  • Automatisierung
  • Sensorik
  • Messtechnik
  • Bedienen und visualisieren
  • Messen steuern regeln
  • Bauelemente
  • Iot
  • Embedded systeme
  • Sbc boards module
  • Software
  • Industrie pc
Fachzeitschrift für Industrielle Automation, Mess-, Steuer- und Regeltechnik

Big Data

Big Data Weiterverarbeiten der Daten von hoher Qualität Datengetriebene Verarbeitungsprozesse setzen Daten in geordneter Quantität und hoher Qualität voraus. Man spricht vom Reifegrad der Daten. Je höher der ist, umso größer ist auch der potenzielle Mehrwert. Eine Erhöhung des Daten-Reifegrads erfolgt typischerweise in den folgenden Stufen: • Datenauswahl • Datenbereinigung und -verbesserung • Daten-Labeling • Datenaufbereitung für die Entwicklung der geplanten Anwendung Man spricht von einer Datenstrategie. Eine gute Datenstrategie bildet die Basis für das Erreichen eines hohen Reifegrades und damit auch für den Erfolg von Projekten. Bei der Datenauswahl sortiert man alle Daten heraus, die auf den ersten Blick Nutzen versprechen. Datenbereinigung und -verbesserung sind der zweite Schritt durch eine eingehendere Einzelprüfung und eine eventuelle Optimierung der Daten. Daten-Labeling braucht man z.B. für maschinelles Lernen. Hier müssen Systeme u.a. verstehen, was auf einem Foto gezeigt, in einer Sprachaufnahme gesagt oder in einem Text geschrieben wird. Die Datenaufbereitung für die Entwicklung der geplanten Anwendung schließlich könnte ein Umformatieren der Daten notwendig machen zwecks optimaler Nutzung der Daten. In der Praxis steigern Unternehmen die Datenreife kostengünstig z.B. durch folgende Schritte: • systematisches Erfassen der Daten (Vorgaben, Filter, Auswahlkriterien) • Nutzung von vortrainierten Modellen und/oder gelabelten Datensätzen • Aufbau eigener Ressourcen Man erkennt reife Daten u.a. daran, dass man damit KI-Modelle ohne weitere manuelle Tätigkeiten trainieren kann. Anwenden der verarbeiteten Daten Über den Erfolg von KI-Projekten entscheiden immer mehr die Daten statt der Algorithmen. Haben die Daten einen hohen Reifegrad, so sind zahlreiche KI-Methoden nutzbar, die von der einfachen Datenstrukturanalysen über die Erstellung von Prognosen bis hin zur vollständigen Automatisierung komplexer Prozesse reichen. Inzwischen steht in der KI die datengetriebene Verarbeitung im Vordergrund. Das Schlagwort für die datengetriebenen Verarbeitung könnte lauten: „Aus Daten lernen“. Neuronale Netze bilden da eine gute Basis. Die Lern-Spielarten sind: • Deep Learning Learning auf Basis künstlicher neuronaler Netze und mit großen Datenmengen • Unsupervised Learning Learning mit relativ unreifen Daten „Benötigt man anfangs noch einen erfahrenen Data-Science-Generalisten, um die Vielfältigkeit der Anforderung abzudecken, werden mit zunehmenden Reifegrad Spezialisten (Data- und/oder Machine Learning Engineers) notwendig, um Lösungen erfolgreich zu erarbeiten.“ Peter Küssner, Ginkgo Analytic • Supervised Learning Learning mit gelabelten Daten • Reinforcement Learning Learning mit einem realistischen Bewertungssystem und einer angereicherten Datenbasis Damit lassen sich algorithmische Herausforderungen und Limitierungen am besten bewältigen. Als Schlüssel zum Erfolg lassen sich folgende Schritte festmachen: • Datenquellen und Integrationspunkte hierarchisch nutzen Für den Bereich Data Science/Data Analytics wurden im Jahr 2020 bereits mehr als doppelt so viele Stellenausschreibungen in den Geschäftsbereichen veröffentlich als in den IT-Abteilungen. Quelle: Gartner • möglichst alle betroffenen Mitarbeiter mit einbeziehen • Messen/Beurteilen der Teilergebnisse • nach Möglichkeit gemeinsam mit anderen Unternehmen agieren • Teilung von Daten z.B. mit Zulieferern oder Kunden • Datenschutzbedenken prüfen und eliminieren Die Datenanalyse zur Prozessoptimierung und -automatisierung kennt man mittlerweile schon gut, besonders im Bereich Industrie 4.0. Hier scheinen datengetriebene und KIgestützte Anwendungen zur vorausschauenden Wartung und Instandhaltung (Predictive Maintenance) die Nase vorn zu haben. Dabei werden beispielsweise Produktionsanlagen per Sensortechnologie überwacht, die auf Basis von KI-Algorithmen die Verschleißzustände der Maschinen analysieren kann. Wartungs- und Reparaturprozesse werden so im Voraus planbar. Anlagenstillstandzeiten und Wartungs- und Servicekosten nehmen ab. „Die Unternehmen, die Daten am besten verwenden, werden am Ende die Gewinner sein. Denn je mehr Daten Unternehmen effektiv auswerten, desto mehr lernen sie über ihr eigenes Geschäft.“ Dr. Jürgen Ehneß „Fertigungsdaten ändern sich ständig. Es ist deshalb geschäftskritisch, diese Informationen in Echtzeit – über Silos hinweg – abrufbar zu halten. Das Ziel ist, alle Produktionsdaten durchgängig transparent zur Verfügung zu stellen – auch auf mobilen Endgeräten, wie im Lager, Außendienst oder bei Produktionsverantwortlichen, die remote Abläufe kontrollieren.“ Henrik Jorgensen, Tableau Germany GmbH Auf diese Weise revolutioniert beispielsweise das Förderprojekt Pay-per-Stress das Leasing-Modell für Maschinen: Nutzer der Maschinen zahlen dank der KI-gestützten Auswertung der Maschinendaten nur den tatsächlichen Verschleiß. Beispiel SDW-Projekt EVAREST Dabei werden Daten über die gesamte Wertschöpfungskette gesammelt – vom Rohstoffanbau über Zulieferung und Produktion bis hin zum Verkauf im Einzelhandel. All diese Daten laufen auf einer zentralen Plattform zusammen und werden durch weitere Informationen „Viele schwungvoll und mit hohen Erwartungen verbundene Data- Science- oder KI-Projekte scheitern, weil sie nie in die Umsetzung kommen bzw. nicht in den produktiven Betrieb des gesamten Unternehmens implementiert werden. Es gilt die Voraussetzungen hierfür bereits zu Beginn des PoC mit in die Planung aufzunehmen und als Erfolgsfaktor zu definieren.“ Peter Küssner, Ginkgo Analytics ergänzt, wie Wetterdaten oder Angaben zu den verwendeten Düngemitteln. Die entsprechende Datenfülle erlaubt enorm tiefe Einblicke in die verschiedensten Stationen der Wertschöpfungskette. Die Analyseergebnisse sollen im Rahmen von EVAREST über einen digitalen Marktplatz angeboten werden und dazu beitragen, dass sowohl das Produkt selbst als auch die Herstellungsprozesse umfänglich optimiert werden können – so schließt sich der Kreis, der sich von der Prozessoptimierung über das Data-Sharing bis hin zur Datenveredlung erstreckt. Fazit Für Unternehmen ist es wichtig, sich jetzt mit den Potenzialen ihrer Daten auseinanderzusetzen. Denn sie lediglich zu sammeln, wird in Zukunft nicht ausreichen, um mit der zunehmend digitalisierten Konkurrenz Schritt halten zu können. FS 14 PC & Industrie 12/2022

Titelstory Get the right Timing Schwingquarz oder Oszillator? Autor: Hendrik Nielsen, Technical Sales Specialist FCP WDI AG www.wdi.de Sowohl der Auswahl- als auch der Beschaffungsprozess des richtigen Taktgebers wird oft unterschätzt, was dazu führt, dass in letzter Minute und unter Zeitdruck ein halbwegs passendes Bauteil ausgewählt wird. Diese Methode ist nur selten von Erfolg gekrönt. Wenn dann beispielsweise die benötigte Frequenz nicht in der gewünschten Bauform erhältlich ist oder die Bauform selbst vielleicht schon kurz vor der Abkündigung steht, können umständliche und kostenintensive Anpassungen der Schaltung notwendig werden. Letztendlich gilt: Ein zuverlässig funktionierender Taktgeber will so rechtzeitig wie möglich und vor allem vollständig spezifiziert sein, damit am Ende das optimale frequenzgebende Bauteil mit einer sicheren Langzeitverfügbarkeit ausgewählt und verwendet werden kann. Auswahl der Taktquelle Bei der Wahl der richtigen Taktquelle für ein elektronisches System gilt es, verschiedenste Rahmenbedingungen wie beispielsweise die Größe der Leiterplatte oder die benötigte Frequenzstabilität zu beachten sowie zusätzlich noch dem steigenden Kostendruck gerecht zu werden. In der aktuellen Situation kommt mit der Langzeitverfügbarkeit ein weiterer wichtiger Faktor dazu, der immer mehr an Bedeutung gewinnt. So kann man momentan deutlich erkennen, dass die fortschreitende Miniaturisierung und der globale Digitalisierungstrend zu Abkündigungen bei den vor ein paar Jahren noch stark nachgefragten, aber mittlerweile in die Jahre gekommenen älteren und großen Bauformen führt. Bevor also, wie oft üblich, ein bewährtes Design aus der Schublade geholt wird, sollte unbedingt geprüft werden, ob die Komponenten überhaupt noch up-to-date sind. Schlimmstenfalls sind die Bauformen, die vor wenigen Jahren noch absolute PC & Industrie 12/2022 15

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel