Herzlich Willkommen beim beam-Verlag in Marburg, dem Fachverlag für anspruchsvolle Elektronik-Literatur.


Wir freuen uns, Sie auf unserem ePaper-Kiosk begrüßen zu können.

Aufrufe
vor 1 Jahr

3-2023

  • Text
  • Kuenstliche intelligenz
  • Elektromechanik
  • Antriebe
  • Stromversorgung
  • Hmi
  • Industrielle kommunikation
  • Robotik
  • Qualitaetssicherung
  • Bildverarbeitung
  • Automatisierung
  • Sensorik
  • Bedienen und visualisieren
  • Messen steuern regeln
  • Bauelemente
  • Iot
  • Embedded systeme
  • Sbc boards module
  • Software
  • Industrie pc
  • Embedded

Software/Tools/Kits Bild

Software/Tools/Kits Bild 4: Zeilenweise Bewertung mit der Hyper-Coverage Code-Varianten. Mit einer erweiterten Analyse der Quelldateien lassen sich wertvolle Informationen gewinnen, um nach kleineren Code-Änderungen insgesamt weniger Tests erneut durchführen zu müssen. Auch die Erkennung von identischen Code-Anteilen in Varianten ermöglicht ein Zusammenfassen von Coverage-Ergebnissen aus verschiedenen Tests und damit eine schnellere Erreichung der gewünschten Code-Abdeckung. Die mehrfache Nutzung von Tests in Varianten mit jeweils erweiterten oder angepassten Testdaten verringert ebenfalls den Aufwand für die Testerstellung. werden, damit die Zeile als erfolgreich bewertet gilt. Regressionstests Die Ergebnisse aus einer erweiterten Analyse der Quelldateien können neben der Nutzung der Coverage-Ergebnisse auch zur Optimierung des Regressionstests benutzt werden. Ein optimierter Regressionstest von Software spart Zeit und Ressourcen und ermöglicht kontinuierliches Testen im Entwicklungsprozess. Wichtig ist die korrekte Erfassung von Abhängigkeiten, so dass nur die relevanten, aber vor allem auch die unbedingt notwendigen Tests wiederholt werden. Code-Änderungen nur aufgrund von dateibasierten Prüfungen der Quell- und Header-Dateien zu erkennen, ist in der Regel zu grob, weil z. B. die Änderungen eines globalen Headers dazu führen würden, dass alle Tests wiederholt werden müssten. Ein Beispiel Aufgrund der oben geschilderten Source-Code-Analyse stehen deutlich genauere Informationen zur Erkennung von Änderungen zur Verfügung. Jede einzelne Funktion oder Methode kann sowohl textuell in der präprozessierten Datei auf Änderungen geprüft als auch zusätzlich auf Änderungen im Funktions- Interface geprüft werden. Ein Beispiel ist in Bild 5 dargestellt, dort ändert sich der Wert des Präprozessor-Makros „PI“ von einer Version der Software zur nächsten Version. Dadurch ändert sich der präprozessierte Code der Funktion, obwohl sich der Original-Code der Funktion nicht geändert hat. Die Tests für diese Funktion müssen also eindeutig erneut durchgeführt werden. Wiederholen von Tests Für die Ermittlung, welche Funktionen beim Regressionstest einer neuen Software-Version erneut getestet werden müssen, sind folgende Prüfungen notwendig: • Im einfachsten Fall, wenn sich die Funktion im Original-Source-Code geändert hat, müssen die betreffenden Tests wiederholt werden. • Wenn sich die Funktion im präprozessierten Code geändert hat, ist ebenfalls ein erneuter Test notwendig. • Etwas komplizierter wird der Fall, wenn sich im präprozessierten Code einer Funktion nichts geändert hat, aber das Interface der Funktion durch Änderungen an verwendeten Elementen modifiziert wurde (z. B. Typänderung einer gelesenen Variable). Auch in diesem Fall ist ein erneuter Test notwendig. Eine solchermaßen eingeschränkte Liste von erneut durchzuführenden Tests ist in einem Continuous-Integration-Prozess sinnvoll, um die Gesamtlaufzeit der Tests bei häufigen Testläufen möglichst klein zu halten (z. B. zur Verifikation von Code-Änderungen vor dem Commit). Für ein neues Release einer Software wäre trotzdem eine Durchführung aller verfügbaren Tests anzuraten, da man niemals ausschließen kann, dass im Analyse- Prozess ggf. notwendige Regressionstests übersehen wurden. Fazit Eine Zertifizierung sicherheitskritischer Software erfordert umfangreiche und normgerechte Tests aller Funktionalitäten. Die Vollständigkeit der Tests wird unter anderem über die Code-Coverage nachgewiesen. Bei Softwarevarianten auch für alle Vollständige Sicht Die Ermittlung einer Hyper- Coverage aus den verfügbaren Coverage-Ergebnissen erlaubt eine vollständige Sicht der Testabdeckung auf Quelldateiebene, ohne die spezifischen Coverage-Anforderungen der Standards und Normen für die Entwicklung sicherheitskritischer Software zu verwässern. Im Gegenteil: Mit der Hyper- Coverage lassen sich zuverlässig nicht getestete Stellen in den originalen C/C++-Quelldateien erkennen. Wer schreibt Michael Wittner ist Geschäftsführer der Razorcat Development GmbH. Der Diplom-Informatiker ist seit mehr als 25 Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement- Tools ITE und der Testspezifikationssprache CCDL. ◄ Bild 5: Geänderter Wert eines Präprozessor-Makros 44 PC & Industrie 3/2023

Ganz neue Tiefenschärfe im Monitoring Software/Tools/Kits tigkeit, Rauch und Leckagen bis hin zu unerlaubten Zutritten oder Vandalismus. Messwerte: Aus dem gesamten Rechenzentrum Auf ein Rechenzentrum muss Verlass sein. Es muss rund um die Uhr leistungsfähig, verfügbar und sicher sein – aber auch energieeffizient. Voraussetzung dafür ist, einen Überblick über den Zustand der gesamten Infrastruktur aus IT und OT zu haben. Der Weg dahin: Eine Verbindung von IT- und OT-Monitoring. Autor: Steffen Maltzan Rittal GmbH & Co. KG info@rittal.de www.rittal.com Paessler AG www.paessler.com Ein Kabelbrand oder ein Wasserrohrbruch im Serverraum sind Albträume für jeden Betreiber von Rechenzentren. Denn diese sind das Rückgrat der digitalen Transformation und unserer modernen Gesellschaft. Sie müssen zuverlässig laufen, und zwar mit der angemessenen Sicherheit und Verfügbarkeit von 24 Stunden am Tag. Doch wie kann man solchen Risiken vorbeugen und Vorfälle sofort erkennen? Und zwar so, dass die RZ- Verantwortlichen immer alles über den Zustand der Infrastruktur im Rechenzentrum erfahren und wissen? Am besten durch eine Live- Übersicht über den kompletten Status im Rechenzentrum – angefangen von der Soft- und Hardware über Server-Schränke und Kühlsysteme bis zu Strom- und Wasserleitungen, Abluft- oder Brandschutzanlagen sowie Tür- und Schließsystemen, also von der IT bis zur OT. Auf beide Bereiche muss nämlich gleichermaßen Verlass sein, damit ein Rechenzentrum jederzeit leistungsfähig und verfügbar ist. Ist das eigentlich möglich? IT-Administration und Haustechnik kontrollieren in der Regel nur das System, für das sie im Rechenzentrum verantwortlich sind, und zwar getrennt voneinander. Alle Systeme haben sie gar nicht im Blick. Die Lösung ist eine Verbindung der Monitoring-Informationen von IT und OT – wie im Beispiel Rittal und Paessler. Nutzer können jetzt einfach gleichzeitig sehen, was bei ihrer IT und OT läuft – und zwar so, wie sie es für ihre Arbeit benötigen. Möglich macht das ein zentrales Dashboard für die IT und OT im Rechenzentrum. Das webbasierte Tool kann von seinem Nutzer individuell konfiguriert und jederzeit unabhängig vom Standort genutzt werden. Überblick: Ausfälle früh erkennen Besonders beim Monitoring der IT-Sicherheit ist der gesamte Überblick gefragt. Genau das leisten Softwarelösungen zum IT-Monitoring, beispielsweise von Netzwerken. Eine solche Software integriert und überwacht IT-Systeme und kann deren Ausfälle früh erkennen. Eine wichtige Funktion für Rechenzentren gerade in Zeiten wachsender IT-Umgebungen. Durch die Integration von Monitoring-Informationen der OT erkennen Nutzer jetzt auch sofort, ob ein Kabel im Serverraum brennt, ein Wasserrohr gebrochen oder eine Sicherheitstür nicht geschlossen ist. In diesen Fällen erhält der Nutzer augenblicklich eine Alarmmeldung und kann direkt reagieren. Denn das Überwachungssystem kontrolliert und misst über Sensoren alle relevanten Sicherheitsaspekte in der OT eines Rechenzentrums: Das reicht von Temperatur über Feuch- Die Software PRTG ist eine der meistgenutzten IT-Monitoring- Lösungen weltweit. Praxisnahe Funktionen und zahlreiche Schnittstellen ermöglichen einen umfassenden Überblick über die IT. Die offenen Schnittstellen haben Paessler und Rittal optimiert. Mit wenigen Klicks in der Software von Paessler lassen sich IT und OT verbinden und ins zentrale Monitoring auf dem Dashboard integrieren. So sind die Messwerte der Sensoren aus der gesamten Umgebung des Rechenzentrums eingebunden. Ebenso können auf dem Dashboard Gebäudegrundrisse oder Serverschränke grafisch abgebildet sowie Geräte und ihre Messwerte übersichtlich dargestellt werden. Ein weiterer Pluspunkt: QR-Codes erleichtern die Zuordnung der Messwerte vor Ort. Sobald ein Techniker direkt am Gerät den QR-Code einscannt, sieht er sofort auf seinem Laptop oder Smartphone die zugehörigen Werte und deren Verlauf. Energieverbrauch: Gemessen und optimiert Das Plus an Sicherheit für Rechenzentren von Hyperscalern wie auch für Nutzer von Data Center Containern hat sogar noch einen nachhaltigen Effekt: Sie kann RZ-Betreiber dabei unterstützen, dass ihre Rechenzentren mit möglichst wenig Energie funktionieren. Denn über das zentrale Dashboard können die Verbräuche der integrierten Geräte und Systeme exakt gemessen werden. Unternehmen erhalten ein detailliertes Bild über Energieverbräuche in ihrem Rechenzentrum und können damit das Gesamtsystem energetisch optimieren. Die Datenübersicht hilft dem Betreiber eines Rechenzentrums, Geld und Energie einzusparen, indem er die Verbräuche seiner Systeme und Geräte optimiert und sie gegebenenfalls gegen energieeffizientere austauscht. So hat er neben der Sicherheit auch die Nachhaltigkeit immer im Blick. Exakt und live. ◄ PC & Industrie 3/2023 45

hf-praxis

PC & Industrie

© beam-Verlag Dipl.-Ing. Reinhard Birchel