Suchen

Brain-Computer-Interfaces

Embedded Brain Reading: Die Kraft der Gedanken

| Redakteur: Jürgen Schreier

Wie lassen sich unsere Gedanken für die Interaktion mit Robotern nutzen? Mit adaptivem embedded Brain Reading sind Roboter auf Basis der Gehirnaktivitäten des Menschen nicht nur intuitiv steuerbar. Die Systeme können auch menschliche Gedanken interpretieren und daraus lernen.

Firmen zum Thema

Am Kopf angelegte Elektroden messen Potentialänderungen im Gehirn.
Am Kopf angelegte Elektroden messen Potentialänderungen im Gehirn.
( Bild: DFKI )

Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern des DFKI und der Universität Bremen entwickelte ganzheitliche Ansatz „embedded Brain Reading“ (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen.

In der gestengesteuerten Interaktion kann der Roboter anhand eines Negativ-Feedbacks im EEG des Menschen aus dem eigenen Fehlverhalten lernen.
In der gestengesteuerten Interaktion kann der Roboter anhand eines Negativ-Feedbacks im EEG des Menschen aus dem eigenen Fehlverhalten lernen.
( Bild: DFKI )

Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher beispielsweise bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.

ERP verbessern Interaktion zwischen Mensch und Roboter

Beim embedded Brain Reading dienen ereigniskorrelierte Potentiale (engl.: event related potentials, ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern.

In ihrem Aufsatz „Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection – Relevance for Neuroscience and Clinical Applications“, der am 27. März 2018 in dem Fachjournal Frontiers in Neuroscience erschien, untersuchen die Wissenschaftlerinnen Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Dabei zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter „dual-task“-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer sondern mehreren Aktivitäten nachgeht. Die Detektionsleistung ist umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern z.B. auch über den Aufmerksamkeitszustand eines Patienten geben.

Roboter lernen über menschliches Negativ-Feedback aus eigenem Fehlverhalten

Zu den ereigniskorrelierten Potenzialen gehört das sogenannte fehlerkorrelierte Potential (engl.: error-related potential). Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, ist Gegenstand des am 14. Dezember 2017 in dem Fachjournal Scientific Reports - Nature erschienenen Papers „Intrinsic interactive reinforcement learning – Using error-related potentials for real world human-robot interaction“.

Darin beschreiben die Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center und der Universität Bremen Dr. Su Kyoung Kim, Dr. Elsa Andrea Kirchner, Arne Stefes und Prof. Dr. Dr. h.c. Frank Kirchner ein am DFKI entwickeltes Verfahren des Maschinellen Lernens, bei dem ein Roboter aus dem eigenen Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen lernen kann. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen.

Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, weil er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential z.B. nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.

Mit FPGAs physiologische Daten in Echtzeit mobil verarbeiten

Die Verwendung physiologischer Daten zur Verbesserung der Funktionalität und Benutzerfreundlichkeit in technischen Rehabilitationssystemen ist jedoch an die Möglichkeit ihrer Verarbeitung gebunden. Diese muss in Echtzeit erfolgen, soll eine möglichst natürliche Unterstützung der Bewegungen realisiert werden. Zudem braucht es mobile und miniaturisierte Verarbeitungssysteme, die in die Rehabilitationseinrichtung eingebettet werden können.

In dem Paper „A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction“, das am 3. Juli 2017 in dem Fachjournal Sensors publiziert wurde, stellen Wissenschaftlerinnen und Wissenschaftler des DFKI und der Universität Bremen – Dr. Hendrik Wöhrle, Marc Tabie, Dr. Su Kyoung Kim, Prof. Dr. Dr. h.c. Frank Kirchner und Dr. Elsa Andrea Kirchner – ein kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage vor. Sie setzen auf sogenannte Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise, die parallele Verarbeitungsoperationen ermöglichen und daher große Datenmengen in kürzester Zeit verarbeiten können.

Um diese FPGAs für die Robotik nutzbar zu machen, entwickelten die Forscher zudem das Software-Framework reSPACE. Dieses definiert die verschiedenen anwendungsspezifischen Rechenoperationen, die nach dem Baukastenprinzip zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Durch die Echtzeit-Auswertung von EEG-Daten kann das entwickelte System z.B. die Regelung eines Exoskeletts unterstützen. Die FPGAs bewältigen die dabei anfallende riesige Datenmenge innerhalb weniger Nanosekunden. Nur so kann das Exoskelett genau im richtigen Moment die Armbewegung unterstützen.

DFKI stellt auf der CEBIT 2018 das Projekt Recupera REHA vor

Auf der CEBIT 2018 (12. bis 15. Juni in Hannover)‎ stellt das DFKI in Halle 27, Stand F62, das Projekt Recupera REHA vor. Darin gelang dem Robotics Innovation Center ein Durchbruch auf dem Gebiet der Rehabilitationsrobotik: Gemeinsam mit der rehaworks GmbH entwickelte es ein mobiles Exoskelett für die Oberkörperassistenz speziell zur robotergestützten Therapie nach einem Schlaganfall, dass sich u.a. auf Basis von EEG-Daten steuern lässt. Im Projekt fanden die Erkenntnisse und Technologien zum embedded Brain Reading Anwendung.

Weitere Informationen:

Projekt Recupera REHA

Software-Framework reSPACE

DFKI auf der CEBIT

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45346533)

Pixabay; DFKI; Avnet Integrated; gemeinfrei; fischertechnik; Axians; Medisana/Oliver Eltinger; Vogel Communications Group