Empathische Roboter für den Alltag

10. Juli 2017

Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster begrüßte die Augsburger Informatikerin Prof. Dr. Elisabeth André zu seiner Vorlesungsreihe "Künstliche Intelligenz für den Menschen: Digitalisierung mit Verstand" an der Johannes Gutenberg-Universität Mainz (JGU). Sie stellte die Frage: "Können Computer Emotionen verstehen und ausdrücken?" Eine Antwort darauf sollte Reeti, der Roboter, geben.
 

Der kleine weiße Roboter steht bewegungslos auf dem Tisch. Seine großen Glupschaugen scheinen ein wenig traurig ins Publikum zu blicken. Könnte es sein, dass der winzig kleine Mund ein Schmollen andeutet – oder ist es doch eher ein Staunen? Tatsächlich ruht Reeti noch, der Roboter ist ausgeschaltet. Er wird später in Aktion treten, jetzt sind erst einmal die Menschen an der Reihe.

"Sie ist Saarländerin wie ich – ganz wichtig", stellt Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster seinen Gast vor:  Prof. Dr. Elisabeth André arbeitete lange mit dem Gutenberg-Stiftungsprofessor zusammen, die beiden kennen sich gut. "Sie war eine meiner ersten Mitarbeiterinnen am Deutschen Forschungszentrum für Künstliche Intelligenz." Schon damals beschäftigte sich die Informatikerin mit Multimedia-Konzepten, der Kommunikation zwischen Computer und Mensch. "Mittlerweile hat sie dazu an der Universität Augsburg ein großes und weltweit bekanntes Labor aufgebaut. Sie ist Pionierin auf dem Gebiet der virtuellen Agenten."

Kommunikation und Emotion

Damit ist André die ideale Wahl für das anstehende Thema in Wahlsters Vorlesungsreihe "Künstliche Intelligenz für den Menschen: Digitalisierung mit Verstand": Sie soll klären, ob Computer Emotionen verstehen und ausdrücken können.

"Computer und Emotion, das ist doch mit Sicherheit ein Widerspruch?", fragt André – und gibt gleich eine entschiedene Antwort: "Ich glaube nicht." Wenn Menschen kommunizieren, sind immer Emotionen im Spiel. Das müssen nicht gleich die großen Gefühle sein, manchmal reichen schon Höflichkeitsfloskeln wie "Bitte" und „"Danke". "Für die Interaktion sind sie nicht notwendig", sagt André. Aber sie fungieren gewissermaßen als Schmiermittel, das den Dialog laufen lässt.

Auch in der Mensch-Technik-Interaktion spielen Gefühle eine Rolle. Menschen bleiben nicht kalt im Umgang mit der Maschine. "Es ist klar, dass Nutzer Emotionen haben, auch wenn sie die Funktionalität eines Gerätes in den Vordergrund stellen." Sie empfinden die Kommunikation mit einem Gegenüber, das keine Gefühle zeigt, als asymmetrisch. Ihnen fehlt etwas. Wenn Computer hingegen höflich sind, wenn sie sich etwa für eine verspätete Reaktionen ihrerseits entschuldigen, reagieren Menschen positiv. André hält es deswegen für sinnvoll, Emotionen in die Mensch-Technik-Interaktion einzubauen. Dafür allerdings müssen die Maschinen erst einmal die Gefühle der Menschen lesen.

Sprache und Mimik

"Wir haben uns sehr im Detail mit der Erkennung von Emotionen aus Sprachsignalen beschäftigt", erzählt André. Bei einem glücklichen Menschen etwa variiert die Tonhöhe stärker. Ein trauriger Mensch spricht eher monoton. Diese Unterschiede kann ein Computer erkennen.

Auch Gesichtsausdrücke verraten viel über Emotionen. In den 1970er-Jahren entwickelte Paul Ekman das Facial Action Coding System (FACS). Es definiert, welche Gruppen von Gesichtsmuskeln bei welcher Emotion wie aktiv sind. Ekman hat 40 solcher Gruppen, so genannte Action Units, ausgemacht.

Der Computer kann das FACS nutzen. Eine Reihe von Orientierungspunkten im Gesicht seines Gegenübers erlauben ihm, Emotionen zu lesen. Allerdings erkennt der Computer nur sieben der von Ekman konstatierten 40 Action Units. Das schränkt die Erkennung stark ein. Es reicht gerade mal, um starke Gefühle wie Wut oder Angst zu erkennen – und nicht mal das perfekt. "Die Genauigkeit sinkt mit der Natürlichkeit der Emotionen", räumt André ein. Übertrieben Gespieltes erkennt der Computer, beiläufig geäußerte Gefühle machen ihm große Probleme.

André und Co. haben versucht, weitere Kontexte hinzuzufügen, um das Ergebnis zu verbessern: Die Berücksichtigung von Körpersprache etwa oder die Analyse von Gefühlen über einen längeren Zeitraum halfen. Aber perfekt ist der Computer noch lange nicht. "Das Problem ist definitiv noch nicht gelöst."

Psychologen mit im Boot

Immerhin reicht es als Grundlage. Nun muss der Computer – in Form eines Roboters oder als virtueller Agent auf dem Computerbildschirm – Emotionen zeigen. Einfache Roboter schaffen das schon durch ihre Körperhaltung: Unterwürfigkeit drückt sich anders aus als Selbstbewusstsein. In einem weiteren Schritt wird ein Gesicht kreiert: Der Roboter erhält durch eine synthetische Haut und darunter liegende Motoren eine Mimik. Eine entsprechende Programmierung macht ihn dann zum empathischen Partner, der auf menschliche Gefühle mit Gefühlsäußerungen reagiert.

André erprobt solche Roboter in Seniorenheimen. Daneben setzt sie virtuelle Agenten mit empathischen Fähigkeiten für das Dialogtraining ein: Mit ihnen lassen sich zum Beispiel Bewerbungsgespräche am Computer simulieren. Beides ist sehr erfolgreich, das Echo rundum positiv.

"Systeme mit sinnhaftem emotionalen Verhalten verbessern die Akzeptanz von Robotern im Alltagsbereich", sagt die Informatikerin. "Wenn man einen Industrieroboter mit gewissen Fähigkeiten in die Wohnung einer Seniorin stellt, kann das nicht funktionieren. Ich würde mir wünschen, dass Leute, die Roboter entwickeln, sich über die Gefühle von Leuten Gedanken machen." Dafür sei es unerlässlich, interdisziplinär zu arbeiten: "Ohne Psychologen geht es überhaupt nicht."

Reeti zeigt Gefühle

Dann endlich kommt Reeti zu Zuge. Zwei Lampen unter den künstlichen Wangen lassen ihn erröten, der kleine Mund verzieht sich zu einem Lächeln. Reeti kann die Augen rollen, staunend dreinblicken oder müde die Lider senken.

Wahlster und André haben dem kleinen Roboter eher eine Nebenrolle zugedacht, doch damit ist das Publikum im größten Hörsaal der JGU nicht zufrieden. Es will mehr sehen. "Sie können im Anschluss noch nach vorn kommen und sich den Roboter anschauen", schlägt der Stiftungsprofessor vor – und löst einen wahren Sturm aus. Dutzende drängen sich um den Roboter: Er soll Gefühle zeigen.