Wie können Roboter ihre Reaktionen auf Menschen so ausdrücken, dass wir Sie verstehen? Und lassen sich diese Gesten standardisieren und in allgemein nutzbare Programmcodes überführen? Mit diesen Kernfragen beschäftigen sich die Forscherinnen und Forscher im Projekt NIKA. Ziel ist es, die Einsatzmöglichkeiten und den Nutzen von Robotern im Umgang vor allem mit älteren Menschen deutlich zu erhöhen. Im Interview erklärt Christopher Ruff vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO in Stuttgart die Hintergründe des Projekts und beschreibt die Vorteile für die Roboterentwicklung der Zukunft.

Hallo Herr Ruff, haben Sie heute schon mit Robotern gesprochen?

Nein, zumindest nicht bewusst. Ziel unseres Forschungsprojekts NIKA ist auch nicht das Miteinander-Sprechen, sondern die Interaktion zwischen Menschen und Roboter im Allgemeinen. Wir wollen die Grundlage dafür schaffen, die Verständigung zwischen Menschen und Robotern zu vereinfachen und zu verbessern.

Deshalb arbeiten Sie unter anderem daran, generische Aktionsmuster für eine bessere Interaktion zu identifizieren.

Das ist unsere Hauptaufgabe. Die Aktionsmuster sollen eine Art Leitfaden für Entwickler bilden, wie sich Roboter in bestimmten Situationen verhalten sollen, um einen Zustand mitzuteilen. Was also muss der Roboter machen, um eine konkrete Reaktion, wie beispielsweise »ich habe verstanden« auszudrücken? Oder wie signalisiert er, dass er auf eine Eingabe des Nutzers wartet? Oder, dass er gerade überlegt, weil der Rechen-Vorgang noch nicht abgeschlossen ist?

Entsprechende Emojis dafür gibt es längst. Es wäre also ein einfacher Weg, sie nachzubilden.

Nein, Emojis müssen Sie einblenden. Das geht nur, wenn Sie beispielsweise mit Bildschirmen arbeiten, deren Pixel ein Gesicht darstellen können. Wir aber wollen ein Prinzip zur Programmierung von Robotern generieren. Unser Ziel ist eine Programmbibliothek, in der Routinen für die verschiedensten, menschentypischen Reaktionen für Roboter hinterlegt sind. Aus ihnen können sich die Entwickler bedienen – selbst wenn sie an so unterschiedlichen Modellen wie humanoiden Robotern, tierähnlichen Maschinen oder Saugrobotern arbeiten. Aber wir orientieren uns bei der Forschung an erfolgreich erprobten Reaktionsmustern, wie beispielsweise denen bisheriger humanoider Roboter. Denken Sie an den mittlerweile zur Standardgeste gewordenen kurzen Blick nach links oben mit der stützenden Hand unter dem Kinn als Zeichen für das Nachdenken.

Sie und die Projektpartner das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) an der Universität Stuttgart, das internationale Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen, C&S Computer und Software GmbH in Augsburg sowie das Wohlfahrtswerk für Baden-Württemberg in Stuttgart arbeiten sowohl am Ausdruck beziehungsweise den diesen Ausdruck bestimmenden Reaktionsmustern verschiedener Roboter, als auch an den programmiertechnischen Grundlagen.

Richtig. Hinterlegt werden unsere Erkenntnisse in der schon erwähnten Datenbank. Hier kann ich dann textuelle Spezifikationen nachschlagen, um zu erfahren wie die Aktionspattern aussehen sollen. Also, wie mein Roboter eine bestimmte Reaktion darstellen soll, um das gewünschte Verständnis beim menschlichen Gegenüber zu erreichen. Und das entsprechend den jeweiligen Modalitäten des Roboters. Unser Team vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO in Stuttgart ist dabei vor allem mit der Entwicklung, Validierung, Evaluation und den Tests der Interaktions-Pattern verantwortlich. Gleichzeitig wird diese Bibliothek aber auch Skripte enthalten, wie die jeweilige Geste an diesem Robotertyp zu programmieren ist. Entsprechend der jeweiligen Voraussetzungen muss das eine jeweils spezifische Implementierung sein. Denn während ein Roboter mit Armen natürlich eher dafür prädestiniert ist, Freude auszudrücken, kann das bei einem Saugroboter nur wesentlich rudimentärer erfolgen. Beispielsweise durch eine Drehung.

Der Variantenreichtum, den Sie abdecken wollen, dürfte immens sein.

Wir können auf zwei gemeinsame Nenner zurückgreifen. Zum einen ist der Fundus an grundsätzlichen und für menschliche Wesen verständlichen Gesten überschaubar. Und zum anderen baut die Programmierung von Robotern auf dem Robot Operating System (ROS) auf. Befehle haben damit eine einheitliche Basis. Zudem konzentrieren wir uns derzeit nur auf die drei genannten Robotertypen humanoid, tierähnlich und Saugroboter.

Vor allem aber haben Sie die Zielgruppe eingegrenzt. Im Fokus stehen Senioren.

Wir gehen zwar nicht davon aus, dass es fundamentale Unterschiede im Verstehen von Gesten zwischen dieser Gruppe und anderen gibt. Aber Beziehungen zwischen älteren Menschen und Robotern und deren Verstehen von maschinellen Gesten werden in Zukunft immer bedeutender werden. Deshalb wollen wir mit dem Projekt primär die Altenpflege unterstützen. Unter anderem, um mitzuhelfen, Senioren zu aktivieren, also agil zu halten. Dafür können Roboter ideale Anleiter, Trainer und Motivatoren sein. Sei es für Gymnastikübungen oder auch für das Gedächtnistraining.

Wie sieht das konkret aus?

Wir testen derzeit beispielsweise einen Modus, in dem der Roboter einen Mitspieler auf angenehme Weise provoziert – im Sinne eines »das war wohl nichts, nochmal versuchen?« Hier testen wir, wie das Verhalten des Roboters konkret aussehen kann und wie weit wir gehen können. Beispielsweise bei einem Quiz mit Text-, Bilder- und Musikfragen. Im Bereich der physischen Aktivierung lädt ein humanoider Roboter zum Scharade-Spiel ein: Der Mensch soll Bewegungen wie Boxen, Rudern oder Gitarre spielen darstellen und der Roboter muss erraten, was er tut. Damit das technisch funktioniert, nutzen wir eine Kamera auf dem Kopf der Maschine, Computer Vision, um Sehvermögen zu simulieren und künstliche Intelligenz zur Auswertung der Bilder.

Das geht vermutlich auch mit vertauschten Rollen?

Natürlich können auch Roboter das Vorspielen übernehmen und die Senioren raten. Aber wir können bei diesem wie anderen Spielen logischerweise noch nicht aus dem Vollen schöpfen. Allein wegen des hohen Aufwands beim Trainieren der KI haben wir uns auf zunächst fünf Scharade-Aktionen beschränkt.

Wie nah dran am Markt sind Sie mit Ihren Forschungen? Meines Wissens ist die Anzahl von Robotern, die im Seniorenbereich eingesetzt werden, noch sehr gering.


Dass der Markt mit vielleicht einer Handvoll passender Roboter in Seniorenheimen in Deutschland noch so überschaubar ist, hat zumindest den Vorteil, dass es unsere Forschungen auf einzelnen Modelle fokussiert. Wir gehen aber davon aus, dass in vielleicht zehn Jahren Roboter in jedem Altersheim genutzt werden. Darauf soll unsere Forschung vorbereiten.

(aku)

Weitere Informationen

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Sechs + = 11
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Christopher Ruff
  • Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Weitere Artikel
Alle anzeigen
Wer baggert da am Gefahrgutloch?
Wall-E’s Kollegen kommen
Roboter für den Störfall - Teil 2
Stellenangebote
Alle anzeigen