Suchen

Bedienen & Beobachten

HMI 5.0 – Ist Touchbedienung noch State of the Art?

| Autor/ Redakteur: Rudolf Sosnowsky* / Dipl. -Ing. Ines Stotz

HMI 5.0 - wurde da nicht eine Versionsnummer übersprungen? Nicht, wenn man die Innovationen und damit die Zukunft des Human Machine Interface betrachtet.

Firmen zum Thema

Eine wichtige Rolle wird in Zukunft die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer spielen – HMI 5.0.
Eine wichtige Rolle wird in Zukunft die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer spielen – HMI 5.0.
(Bild: gemeinfrei / Unsplash)

Vor zwölf Jahren machte das iPhone von Apple mit einem neuen Bedienkonzept Furore. Die Tastatur wurde durch einen Touchscreen ersetzt, die gesamte Vorderseite des Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, das auch mehrere Touchereignisse gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer völlig neuen Art der Benutzerführung über Software. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen.

Der Touchscreen revolutioniert das HMI

Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. „Drag and Drop“ oder „Pinch“ funktionieren aus dem Handgelenk, ohne umständlich über Menüs Objekte auszuwählen und eine Aktion zuzuordnen. Diese Umstellung verlangt eine völlig neue darunter liegende Software und damit ein neues Bedienkonzept.

Müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Ja, gleich mehrere Technologien nutzen diese Vorstellung. Für Gesten, die keine besondere Anforderung an die Genauigkeit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elektrischen Feld bestimmen. Für eine qualitative Bestimmung „Lauter/Leiser“, „Höher/Tiefer“, „Zoom in/Zoom out“ reicht die Auflösung dieser Systeme.

Alternativen zum Touchscreen

Soll die Position genauer ausgewertet werden, kommen Kameras zum Einsatz, die zum Beispiel den Händen des Bedieners folgen. Die Perfektion in Auflösung der Position bieten die Steuergeräte für AR/VR Brillen, die im System eine feinfühlige Steuerung erlauben.

Industrial Usability Day Maschinen müssen einfach zu verstehen und bedienen sein – aber wie werden sie benutzerfreundlicher? Und was bringt die Usability? Auf dem Industrial Usability Day erfahren Anwender, wie sie die optimale Mensch-Maschine-Interaktion gestalten.
Mehr Infos: Industrial Usability Day

Einen anderen Ansatz verfolgt das „Eye Tracking“. Nach einer kurzen Lernphase ist das System in der Lage, die Pupillen des Bedieners mit Hilfe von Kameras zu verfolgen. Der „Mausklick“ erfolgt durch Blinzeln. Nach einer Eingewöhnung kann der Bediener ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen.

Ein Trend ist auch die Sprachsteuerung. Apple, Google und Amazon machen es vor: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt.

Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Sie finden wir im Navigationssystem unseres PKW, „Bitte geben Sie die Adresse ein in der Form Stadt, Straße und Hausnummer“. Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank kann ein lokaler Controller durchführen, und die gewünschte Aktion, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders, ausführen.

Visualisierung mit durchgängigem Konzept

Auf der anderen Seite der Interaktion steht die Ausgabe, die meistens ein Display erledigt. Auch dort schreitet die Technik voran. Wiederum getrieben durch die Stückzahlen des Massenmarktes erscheinen OLED mit brillanter Darstellung und einer durch den enormen Kontrast hervorragenden Bildqualität. In bestimmten Anwendungen scheinen sie der LCD-Technologie den Rang abzulaufen, auch wenn sie prinzipbedingt einem Alterungsprozess unterliegen, der durch Nachlassen der Helligkeit sichtbar wird. TFT kontert mit Quantum Dots, die unter Namen wie „QLED“ in den Markt drängt und einen hohen Farbumfang mit leuchtenden Farbtönen verspricht.

Noch im Laborstadium befinden sich Schirme mit Mikro-LEDs, die der LED-Technologie zu einer Renaissance verhelfen und sie von der reinen Lichtquelle für TFTs zur Bildquelle an die Front rücken lässt. Die Fertigung großer Bildschirme mit hoher Auflösung ist fertigungstechnisch für die Serie noch nicht gelöst, Prototypen zeigen jedoch das große Potential, das diese Technologie aufweist.

Zurück zum HMI: Der Anwender von heute darf ein durchgängiges Konzept erwarten. Nicht eine Technologie alleine führt zum Erfolg, sondern die Kombination. Bild 1 macht die Beteiligung der Sinne deutlich. Ein Human-Machine-Interface muss eine schlüssige Eingabefunktion anbieten, die viele Sinnesorgane anspricht. Zu den beschriebenen Touchsystemen kommt die haptische Rückmeldung, die dem Bediener über den Tastsinn auf direktem Wege die erfolgreiche Eingabe signalisiert. Sie könnte auch akustisch über einen Piepser erfolgen, was jedoch in lauter Umgebung unter Umständen im Lärmpegel untergeht. Das Display stellt mit hoher Auflösung die gewünschten Informationen ergonomisch dar. Einen entscheidenden Anteil hat jedoch die Benutzerführung, die die Software vornimmt (GUI = Graphical User Interface). Sie legt fest, wie Informationen präsentiert werden, durch Farben, Formen, Anordnung auf dem Bildschirm und Darstellung in Relation zueinander.

HMI 5.0 ist die nächste Revolution

Was bedeutet jetzt HMI 5.0? Der Begriff beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne. Neue Methoden kommen auf den Markt, zum Beispiel für die Eingabe die Erkennung von 3D-Gesten, die Spracherkennung, das Eye Tracking. Für die Ausgabe steigen die Bedeutung der haptischen Rückmeldung, die das Manko gängiger Touchscreens kompensiert und die dreidimensionale Visualisierung mit Hologrammen oder Brillen. Durch leistungsfähigere Grafikkarten sind Brillen für AR und VR bezahlbar geworden. Zunächst getrieben durch Computerspiele, haben VR-Brillen ihre Berechtigung bereits im Simulator-Training gefunden, wo sie den Bediener optisch und akustisch in eine realistische Szene versetzen.

Der Kommunikationskanal zwischen Mensch und Maschine ist breiter geworden: Sehen und gesehen werden – mit Bildausgabe und Eye-Tracking; hören und gehört werden – mit Tonausgabe und Spracheingabe; tasten und fühlen – mit Touchscreen und haptischem Feedback. Nur Riechen und Schmecken fehlen noch in diesem Reigen.

Fazit: Ist Touchbedienung noch State of the Art? Diese Frage kann man ganz klar mit „Ja“ beantworten. Trotz vieler neuer Technologien wird der Touchscreen noch längere Zeit den Ton angeben. Eine wichtige Rolle darüber hinaus wird die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer spielen, die wir HMI 5.0 nennen, und die sich nicht nur auf Tastatur/Touchscreen und Bildschirm beschränkt. Auch wenn einigen Technologien noch nicht der Durchbruch in die Breite gelungen ist, stehen sie als Werkzeug bereit, dem Anwender eine neue User Experience zu ermöglichen. Mit ihrer Unterstützung ist er bestens präpariert, wenn es um die Interaktion mit Künstlicher Intelligenz (KI) oder Machine Learning (ML) geht.

Dieser Beitrag ist ursprünglich auf unserem Partnerportal elektrotechnik erschienen.

* Rudolf Sosnowsky, Leiter Technik, Hy-Line Computer Components, Unterhaching

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46099678)