Bedienen und Visualisieren Bediensysteme für den interoperablen OP Bei der dynamischen Gerätevernetzung im „interoperablen OP“ kommen neue Generationen von Bediensystemen zum Einsatz Bild 1: User Interfaces von Medizingeräten werden immer komplexer (Bildnachweis: steute Technologies GmbH & Co. KG) Autoren: Guido Becker, Produktmanager Meditec; Julia Mönks, Produktmanager MMI, beide: steute Technologies GmbH & Co. KG www.steute.de In Ausgabe 5/2018 des meditronic-journals berichteten Autoren der RWTH und der Uniklinik Aachen von typischen Situationen im OP, bei denen die vorhandenen Bediensysteme von Medizingeräten Verzögerung im Operationsablauf verursachen. Konkret musste der Operateur einen OP-Tisch verstellen, konnte aber aus dem sterilen nicht in den unsterilen Bereich der Tischverstellung eingreifen, und die Kollegen im unsterilen Bereich waren anderweitig beschäftigt. Der Stand der Dinge: Verbesserungsfähig Das ist nur eines von vielen Beispielen, die den Nutzen von inter operablen Bediensystemen vor Augen führen. Diesem Bedienkonzept gehört nach Meinung vieler Experten auch deshalb die Zukunft, weil es im OP immer mehr Geräte gibt, die zu bedienen sind. Dann muss der Operateur acht oder zehn verschiedene Bediensysteme handhaben, die häufig als Fußschalter unterhalb des OP-Tisches angeordnet sind. Das erfordert ein hohes Maß an Konzentration, weil sich der Operateur immer wieder auf das Bedienen jeweils verschiedener User Interfaces einstellen muss. Besser wäre, er könnte sich auf den Patienten konzentrieren. Außerdem erschwert diese Vielfalt ein intuitives Bedienen der Geräte, das auch im Sinne der Bediensicherheit und Usability wünschenswert ist. Forschungsprojekte treiben Interoperabilität voran Auf der Grundlage dieser Erkenntnisse formulieren die Autoren des Beitrags in Heft 5/18 Wünsche aus Sicht von Anwendern und Klinikern. Im Zentrum dieser Wünsche steht „die direkte Zugriffsmöglichkeit auf alle relevanten Geräte und Funktionalitäten sowie eine Integration und Workflow-Unterstützung.“ Genau das ist Ziel des Leuchtturmprojektes OR.NET, das nach Abschluss der Förderung durch das BMBF nun als Verein weitergeführt wird, sowie der Projekte ZiMT (Zertifizierbare integrierte Medizintechnik) und MoVE (Modular Validation Environment for Medical Device Networks). An diesen drei Projekten ist die RWTH Aachen beteiligt und auch die steute Technologies GmbH & Co. KG. Deren Geschäftsbereich Meditec entwickelt und fertigt User Interfaces für Medizingeräte unterschiedlicher Disziplinen (Elektrochirurgie, Ophthalmologie, bildgebende Verfahren…., Bild 1) 58 meditronic-journal 1/2019
Bedienen und Visualisieren Bild 2: Demonstrator für ein Bediensystem im interoperablen OP. Der Operateur legt per Touchscreen oder Sprachsteuerung fest, welches Medizingerät über das User Interface bedient wird (Bildnachweis: steute Technologies GmbH & Co. KG) Ein User Interface für mehrere Medizingeräte Im Rahmen von OR.NET hat steute Meditec – in Kooperation mit Herstellern von Medizingeräten – bereits vor vier Jahren ein erstes Multifunktions-User Interface entwickelt, mit dem mehrere Medizingeräte bedient werden können (Bild 2). Auf einem Touchscreen wählt der Operateur die gewünschte Funktion des entsprechenden Gerätes, das er über einen Fußschalter aus dem Standardprogramm von steute Meditec steuert. Wenn er z. B. vom Röntgen- zum Ultraschallgerät oder von der Navigation zur Tischverstellung wechseln möchte (oder vom Mikroskop zum HF-Gerät), reicht dafür die intuitive Bedienung des Touchscreens, und der zentrale Fußschalter übernimmt andere Funktionen. Die aktuelle Pedalbelegung wird dem Operateur jeweils angezeigt. Mit einem solchen User Interface werden die Bediensysteme interoperabel. Darüber hinaus lassen sie sich – das ist ein weiteres Ziel der genannten Projekte – in übergeordnete Kommunikationssysteme einbinden. OR.NET e.V. koordinierte im Anschluss an das Forschungsprojekt die Weiterführung der und Entwicklung der Normenfamilie IEEE 11073 SDC (Serice-oriented Device Connectivity). Sie bietet einen offenen Kommunikationsstandard, um Medizingeräte möglichst vieler Hersteller in die dynamische Vernetzung einbinden zu können. Suche nach neuen Bedienkonzepten Neben der dynamischen Vernetzung gibt es aus Sicht eines führenden Herstellers von User Interfaces weitere Forschungsfelder mit Zukunftsperspektiven für die OP- Praxis. Dazu gehört zum Beispiel die Evaluierung von neuen Arten der Interaktion per Sprache oder Geste, die sich aktuell in der Konsumgüter- und Unterhaltungselektronik (Spielekonsolen, Apple Siri, Amazon Echo….) und auch im Automobil (vom VW Golf bis zur 7er-Serie von BMW) durchsetzen. Die Frage ist: Lassen sich Technologien wie Sprach- und Gestensteuerung auch in neuartigen Mensch-Maschine-Schnittstellen im OP sinnvoll einsetzen? Diese Frage hat steute Meditec im Rahmen eines Forschungsprojektes des Spitzenclusters „Intelligente Technische Systeme – it´s OWL.“ untersucht. Bei dem Projekt mit der Bezeichnung „OPtimal – Nutzerschnittstellen für den OP multimodal und adaptiv gestalten“ arbeitete steute mit dem CITEC der Universität Bielefeld zusammen, das Spitzenforschung in der Robotik und der Mensch-Maschine-Kommunikation betreibt. Sprach-, Blick- oder Gestensteuerung im OP? Im Fokus des Projektes stand die Untersuchung der multimodalen Bedienung. Bereits im ersten Projektstadium schieden Gestenund Blicksteuerung aus, weil sie die Tätigkeit (Gestensteuerung) bzw. die Konzentration (Blicksteuerung) des Operateurs zu stark belasten. Die Spracherkennung hingegen erwies sich als realistisch und wurde in drei Szenarien an einem Prototypen erprobt. Hier gab es drei Bedienkonzepte: Die (virtuellen) Medizingeräte wurden über Universalfußschalter, über Sprache und multimodal als Kombination von Fußschalter und Sprache gesteuert (Bild 3). Evaluation: Sprachsteuerung von Medizingeräten Sechzig Probanden testeten diese Konzepte im Kontext einer (simulierten) Wirbelsäulen-OP. Die umfassende Auswertung, bei der neben der Performanz auch die kognitive Belastung der Bediener erfasst wurde, ergab: Die besten Ergebnisse und die Bild 3: Der Operateur legt per Touchscreen oder Sprachsteuerung fest, welches Medizingerät über das User Interface bedient wird (Bildnachweis: CiTEC, Bielefeld) meditronic-journal 1/2019 59
November Februar/März November-Dez
Inhalt/Impressum 3 Editorial 4 Inha
Aktuelles Die MedtecLIVE stellt sic
Laden...
Laden...