Gelsenkirchen. An der Westfälischen Hochschule Gelsenkirchen wird eine Robotersteuerung entwickelt, die Menschen mit Handicap als Alltagshilfe dienen kann.

„AMiCUS“ hat das Zeug zu einem Freund und Helfer. Ein leichtes Kopfnicken nur, und schon setzt sich der Roboter folgsam in Bewegung – lautlos, präzise, flüssig und überraschenderweise sehr anmutig. Dass das High-Tec-Gerät den lateinischen Namen für Freund trägt, ist kein Zufall. Denn wie ein nahestehender Mensch im wahren Leben versteht er die Körpersprache seines Gegenübers ohne Worte, geht einem zur Hand und packt mit seinem Greifer mit an.

AMiCUS, dahinter verbirgt sich die Bezeichnung „Adaptive Head Motion Control for User-friendly Support“. Vereinfacht gesagt ist das ein Assistenzsystem, das Menschen, die ihre Arme und Beine nicht mehr benutzen können, „zu mehr Eigenständigkeit verhilft“, wie Nina Rudigkeit erklärt. Die 29-Jährige ist in der Endphase ihrer Doktorarbeit und wird dabei von Prof. Dr. Marion Gebhard (Fachbereich Elektrotechnik und angewandte Naturwissenschaften) an der Westfälischen Hochschule betreut. Das Ziel: Bewegungseingeschränkten Menschen, Tetraplegiker genannt, die Steuerung eines Roboterarms per Kopfbewegungen zu ermöglichen, um ihnen so zu mehr Autonomie im Alltag zu verhelfen. „Etwa, wenn der Roboterarm für sie ein Buch greifen, es aufschlagen und die Seiten umblättern kann.“

Bewegen, greifen, stapeln, ablegen

Der Weg bis dahin scheint nicht mehr allzu weit zu sein. Als einer von 36 Probanden – jüngeren wie älteren sowie mit und ohne Einschränkungen – hat sich der Chronist für die laufende Studie zur Verfügung gestellt. Die Aufgabe für alle sieht so aus: Drei Stoffwürfel mit Zahlen und Symbolen liegen auf einem Parcours aus Legosteinen in unterschiedlichen Abständen und Höhen auf Plattformen. „Die Würfel müssen in der richtigen Reihenfolge an einem vorgegebenen Platz gestapelt werden“ erklärt Anja Jackowski, ebenfalls in der Gruppe der klugen Köpfe, die an der Umsetzung der Robotersteuerung arbeitet. Auch die 25-Jährige ist eine Doktorandin.

Elektroden an der Halswirbelsäule erfassen die muskuläre Belastung.
Elektroden an der Halswirbelsäule erfassen die muskuläre Belastung. © Funke Foto Services

AMiCUS, der stumme Helfer, erfasst meine Kopfbewegungen mit Sensoren, die auf einem Headset befestigt sind. Die Steuersignale der Sensoren gehen an den rund 30 .000 Euro teuren Roboterarm, der sich daraufhin wie von Geisterhand im Raum dreht und bewegt, seinen Greifer öffnet und schließt. Verblüffend einfach geht das, eine grafische Benutzeroberfläche, einer App sehr ähnlich, erleichtert mir dabei die Funktionsauswahl. Und eine Kamera oberhalb der beiden Metallfinger hilft mir, die Position meiner künstlichen Hand immer im Auge zu behalten.

Steuersensoren in Haarreif untergebracht

Den Roboter so zum Leben zu erwecken, ist nicht anstrengend. Es erfordert allerdings ein wenig Konzentration, wenngleich auch nur in der kurzen Eingewöhnungsphase. Denn bereits bei der zweiten, komplexeren Aufgabe zeichnet sich ab, dass einem die Kopfbewegungen schnell in Fleisch und Blut übergehen. Ähnlich wie beim Autofahren Bremsen, Kuppeln und Schalten.

Auf einem Bildschirm wird eine grafische Benutzeroberfläche angezeigt. In der Mitte zeigt eine Kamera die Position des Greifers. Mit einem Cursor werden die verschiedenen Funktionen angewählt – alles per Kopfbewegung.
Auf einem Bildschirm wird eine grafische Benutzeroberfläche angezeigt. In der Mitte zeigt eine Kamera die Position des Greifers. Mit einem Cursor werden die verschiedenen Funktionen angewählt – alles per Kopfbewegung. © Funke Foto Services

Am Ende der Testreihen hat AMiCUS die Würfel an die gewünschte Position gesetzt. Der Roboter hat Pause. Nicht so aber das Hochschul-Team, das muss sich noch mit der Auswertung beschäftigen. Es geht unter anderem im Gespräch den Fragen nach, welcher Belastung sich die Probanden ausgesetzt sahen oder wie einfach sie die Handhabung der Technik empfanden – alles mit dem Ziel, dem Anwender es so leicht wie möglich zu machen.

Noch sind die Sensoren, die den Roboter steuern, in einem Haarreif untergebracht. In Zukunft wird es wohl ein Headset sein. „So etwas ist gesellschaftlich akzeptiert“, sagt Doktorandin Nina Rudigkeit. An der Westfälischen Hochschule denken sie aber schon viel weiter. Diese Technik könnte es Menschen mit Handicap ermöglichen, mehr Platz im Berufsleben zu finden. Das wäre dann ein ganz großer Schritt in Richtung echter Inklusion.

Synergien von Mensch und Roboter finden 

Die Entwicklung der Robotersteuerung wird vom Bundesministerium für Bildung und Forschung gefördert. Hintergrund: Derzeit werden Roboter meist über Handbediengeräte gesteuert, wodurch eine gleichzeitig durchzuführende Handtätigkeit nicht praktikabel ist. Menschen mit körperlichen Einschränkungen, wie der Lähmung der oberen Gliedmaßen, ist die Benutzung einer solchen Schnittstelle nicht möglich. Gerade ihnen soll aber die gesellschaftliche Teilhabe möglich sein, im Alltag wie im Beruf (Inklusion).

Stoffwürfel in der richtigen Reihenfolge und am richtigen Ort zu stapeln, das war die Aufgabe. Sie lagen auf einem Legoparcours in unterschiedlichen Abständen und Höhen.
Stoffwürfel in der richtigen Reihenfolge und am richtigen Ort zu stapeln, das war die Aufgabe. Sie lagen auf einem Legoparcours in unterschiedlichen Abständen und Höhen. © Funke Foto Services

An der Westfälischen Hochschule in Gelsenkirchen beschäftigt sich das „SAM“-Team mit der Erforschung von Synergien bei Mensch und Roboter. SAM steht für Sensortechnik und Aktorik in der Medizintechnik. Zum Team gehören die beiden Doktorandinnen Nina Rudigkeit und Anja Jackowski, die die Robotersteuerung per Kopf vorantreiben sowie der wissenschaftliche Mitarbeiter Julius-Valentin Heinke – er hat den Roboter programmiert. Mit im Boot sitzt auch Jochen Nelles vom Institut für Arbeitswissenschaft der RWTH Aachen.

Die Studie untersucht die Bearbeitungszeit der gestellten Aufgabe, die Bearbeitungsgenauigkeit sowie auch die mentale und die muskuläre Beanspruchung. Letzteres wird mit Elektroden auf der Hautoberfläche erfasst, die im Halswirbelbereich der Probanden befestigt werden. Am Beispiel eines Bibliothekenszenarios soll gezeigt werden, dass Nutzer des Assistenzsystems selbstständig Bücher greifen, exakt positionieren und katalogisieren können.

Die Studie umfasst insgesamt 36 Versuchsteilnehmer: zwölf Probanden der Altersgruppe 18 bis 39 Jahre, zwölf im Alter von 40 bis 67 Jahre sowie zwölf Tetraplegiker.