(c) Engineered Arts Ltd

»Der menschliche Aspekt macht die Faszination dieser Maschine aus«

Der humanoide Roboter Robo Thespian im phaeno Wolfsburg kann singen, schauspielern und mit seinem Gegenüber interagieren. Schon seit etwa sieben Jahren begeistert seine charmante Art Besucher jeden Alters. Nun hat er nach fünf Jahren Betrieb gerade ein großes Update mit vielen neuen Funktionen bekommen. Davy Champion, wissenschaftlicher Mitarbeiter im phaeno, erklärt im Interview, was Robo schon wirklich selbstständig kann und wo noch Lernbedarf besteht. Weitere Informationen zum Roboter und den Veranstaltungen des phaeno finden sich online unter www.phaeno.de.

Hallo Herr Champion, wie lange haben Sie im phaeno schon den Robo Thespian?
Der humanoide Roboter, den wir im Moment hier stehen haben, ist ganz neu. Es ist schon unser dritter. Den ersten hatten wir etwa vor sieben Jahren bekommen.

Wer hat den Roboter entwickelt und hergestellt?
Der Roboter wurde von dem kleinen Unternehmen „Engineered Arts“ aus Cornwall in Südengland hergestellt. Sie verkaufen ihn weltweit schon sehr erfolgreich. Sein Entwickler oder Vater heißt Will Jackson, er arbeitet seit mehr als zehn Jahren an diesem Roboter.

Was bedeutet sein Nachname?
„Thespian“ kommt aus dem Griechischen und bezeichnet einen, der schauspielert.

Warum mussten Sie ihn jetzt auswechseln?
Bei uns ist er im Dauereinsatz und sehr beliebt. Nach ein paar Jahren hat man einfach einen gewissen Verschleiß, auch bei den elektronischen Komponenten, die irgendwann nicht mehr so funktionieren, wie sie sollen. Es ist sehr schwer für uns, den Roboter die ganze Zeit so zu warten, dass er immer in einem Topzustand ist. Außerdem entwickelt die Firma die Roboter auch weiter, das heißt, man hat mit einem Neuen noch mal einen technologischen Sprung. Das ist auch jetzt der Fall: Wir wollten erstmals eine „Klangdusche“ damit verbinden, also gerichtete Lautsprecher, die über dem Roboter hängen, damit der Sound besser bei den Besuchern ankommt. Wenn es in der Umgebung etwas lauter ist, muss der Roboter auch sehr laut eingestellt sein, damit man ihn gut hört.

(c) Engineered Arts Ltd

(c) Engineered Arts Ltd

Welche Updates hat der neue Robo noch bekommen?
Es gibt ein paar neue Funktionen, die ich sehr spannend finde. Es ist etwa die Gesichtserkennungssoftware „Shore“ im Einsatz, eigentlich eine Entwicklung der Fraunhofer-Gesellschaft. Er filmt praktisch permanent das Geschehen direkt vor sich und analysiert die Informationen mithilfe der Software. Wenn er eine Person erkennt, verfolgt er sie erst mal mit seinem Kopf, scannt das Gesicht und macht eigenständig einen kleinen synthetischen Text. Er erzeugt ein paar Sätze mit Einschätzungen nach Geschlecht, Alter und Gemütslage und sagt zum Beispiel: „Du bist ein Mädchen, bist so und so viele Jahre alt und bist fröhlich.“ Manchmal liegt er noch ziemlich daneben. (lacht) Es kommt sehr auf die Frisur an und die Anzahl der Falten im Gesicht. Eine weitere neue Funktion, die es schon gab, aber die sie stark weiterentwickelt haben, ist die „Telepräsenz“, also Fernsteuerung. Die ist nicht die ganze Zeit aktiv für Besucher, sondern wird nur bei besonderen Veranstaltungen angewendet. Damit kann ich im Büro mit einem Headset an meinem Platz sitzen und den Roboter aus der Ferne steuern. Ich sehe und höre durch meinen Computer die Besucher, die vor ihm stehen, und kann mit ihnen interagieren: Wenn ich rede, hören sie Robo mit meiner Stimme sprechen. Eine andere neue Funktion ist, dass wir selbst ein Storyboard für ihn erstellen können, ihm also einen Text, den er vorträgt, und die Bewegungen, die er dazu macht, als Timeline vorgeben können.

Welche Texte kann er eigenständig aufsagen?
Es gibt sehr viele Texte auf Englisch, die direkt von der Firma in Cornwall mit der Stimme von einem englischen Schauspieler einprogrammiert wurden. Er kann zum Beispiel aus Filmen zitieren, wie den Terminator nachmachen. Als wir ihn bekommen haben, haben wir zusätzlich eigene Inhalte entwickelt. Darum habe ich mich gekümmert, in der Auswahl merkt man auch meinen Einfluss. Es ging in erster Linie darum, Texte zu finden, bei denen er gut schauspielern kann. Dafür habe ich unter anderem nach passenden Monologen aus dem Theater gesucht, darunter einiges aus der französischen Literatur wie den berühmten Monolog aus „Der Geizige“ von Molière oder von Cyrano de Bergerac die Nasen-Tirade. Diese Texte haben wir ziemlich aufwändig mit einem Schauspieler aus Kassel eingesprochen. Er ist dafür extra zu uns gekommen und wir haben seine Stimme und seine Gestik, die Bewegungen, die er dabei macht, aufgenommen und nach England geschickt, wo sie ihm eingegeben wurden. Jetzt haben wir ja die neue Funktion, mit der wir das relativ einfach selbst machen können. Wir können dem Roboter jetzt selbst Bewegungsabläufe mit neuen Inhalten einprogrammieren. Kürzlich haben wir ihm etwa eine Szene beigebracht, in der er über die besondere Architektur des phaeno erzählt.

Auf welche Eigenschaften kam es Ihnen bei der Auswahl der Stimme an?
Ich finde beim Thema „Künstliche Intelligenz“ auch die Fragen sehr spannend, was macht einen Roboter aus und ab wann wirkt er auf uns vielleicht schon ein bisschen beängstigend. Die Funktion von unserem Roboter ist ja in erster Linie das Kommunizieren und Unterhalten, darum haben wir uns dafür entschieden, ihm eine menschliche Stimme zu geben und nicht etwa diese Text-to-Speech-Sprachsynthese. Die könnte man auch nutzen, dabei erstellt ein Programm automatisch eine Stimme, aber diese klingt dann eher neutral. Für uns sollte der Roboter eine klare Stimme haben, die sehr unterschiedliche Emotionen übertragen kann. Es ist wirklich interessant, was Robo bei seinen Betrachtern hervorruft. Durch die menschliche Stimme und Sprechweise hat er per se etwas Menschliches. Es ist ein wesentlicher Teil der Faszination dieser Maschine, dass sie einen menschlichen Aspekt hat. Auf den Schauspieler, der auch ein Puppenspieler ist, sind wir gekommen, weil wir viel mit der Wolfsburger Figurentheater Compagnie zusammengearbeitet haben. Dort wurde er uns empfohlen und wir fanden gleich, dass er eine sehr gut passende Stimme hat.

Entwickler Will Jackson (c) Engineered Arts Ltd

Entwickler Will Jackson (c) Engineered Arts Ltd

Auf einige Fragen kann Robo aber auch selbständig antworten?
Im Moment ist er eher ein Werkzeug zur Kommunikation und nicht eine weit entwickelte Künstliche Intelligenz. Die eigenständige Interaktion ist noch sehr beschränkt. Es gibt ein paar Befehle, die man ihm geben kann, wie: „Sing mal ein Lied!“ Dann singt er ein Lied aus seinem Repertoire. Oder man fragt: „Wie heißt du?“, und er beantwortet das. Man muss die Befehle aber schon kennen, damit er reagiert. Wenn wir die freie Interaktion für die Besucher aktivieren würden und die Menschen ihn einfach irgendwas fragen, würde er sehr oft antworten: „Ich verstehe dich nicht.“ Es geht dem Entwickler bei diesem Roboter auch nicht darum, eine fortschrittliche Künstliche Intelligenz zu erschaffen. Wenn man sieht, dass ein Riesenkonzern wie Amazon mit der Entwicklung von „Alexa“ noch nicht so fortgeschritten ist, ist es klar, dass dieses kleine Start-up-Unternehmen nicht weiter ist. Google, Amazon und Apple werden da sicher eher Erfolge vorweisen. Wenn es einmal so weit sein wird und man es mal als Tool nutzen kann, werden wir das sicherlich auch in unseren Roboter implementieren. Ich glaube aber nicht, dass das so schnell passiert.

Wie ist es mit Fragen des Datenschutzes, wenn bei ihm permanent die Kamera mitläuft?
Die Bilder werden nicht aufgezeichnet. Man kann sie nur live bei der Telepräsenz mitverfolgen.

Welche Sensorik hat Robo außer Kamera und Mikrophon?
Es gibt Sensoren in den Steuerungselementen, mit denen er Informationen über seinen eigenen Zustand kriegt: Wenn er etwa den Arm dreht, weiß er, wie weit das ist und wie weit es möglich ist.

Was soll der Roboter in Zukunft außer der selbstständigen Interaktion noch lernen?
Einige Firmen arbeiten daran, dass Roboter laufen können. Momentan steht Robo noch fest auf einer Platte befestigt. Es wäre super, wenn er sich frei bewegen würde. Es ist nur eine riesen Herausforderung. Es gibt zum Beispiel den Roboter „Asimo“ von Honda, der jetzt auch schon ein paar Jahre alt ist. Er kann laufen und Treppen hochgehen, aber auch das noch sehr holprig. Es wird noch ein langer Weg sein, bis sich so ein zweibeiniger Roboter komplett frei bewegen kann, ohne dass es gefährlich wird. Die Roboter sind ja auch noch ziemlich schwer. Wenn unserer zum Beispiel durch die Ausstellung laufen würde und ein Besucher würde ihn schubsen, darf er auf keinen Fall umfallen. Denn wenn ein Kind daneben steht, kann das sehr gefährlich sein. Diese Standsicherheit, dass der Roboter lernt, allein das Gleichgewicht zu halten, wird noch viele Jahre brauchen.

Robo ist schon in seiner dritten Generation. Welche Überraschungen oder Hürden gab es bisher?
Ich finde es spannend, dass die Entwicklung zwar schon wirklich große Fortschritte gemacht hat, aber es nur sehr langsam geht. Als ich den Roboter am Anfang kennengelernt habe, habe ich erwartet, dass sie ihn in fünf Jahren zum Laufen bringen. Oder dass er eigenständig interagieren können wird. Das ist bei der Robotik allgemein so, dass es nur langsam vorangeht. Man braucht in den Feldern der Künstlichen Intelligenz oder Mobilität immer noch sehr stark den Menschen im Hintergrund, um dem Roboter etwas beizubringen oder ihn zu steuern. Da gibt es einfach große Einschränkungen. Wo sie dagegen riesen Fortschritte gemacht haben, ist in der Steuerungselektronik oder der Mechanik. Allein wie fließend die Bewegungen inzwischen geworden sind. Außerdem hatte der erste Roboter schon nach einigen Monaten Teile, die kaputt waren oder nicht mehr so gut funktionierten und ersetzt werden mussten, und hat insgesamt nur etwa zwei Jahre gehalten. Den zweiten hatten wir schon deutlich länger, fünf Jahre. Er war eigentlich sogar noch funktionsfähig, aber wir wollten die technisch neuere Version und sie nehmen die alten Roboter immer in Anzahlung für den neuen.

Werden im phaeno noch andere Roboter genutzt?
Ja, momentan entwickeln wir für Schulungen und das offene Labor ein Robotersystem mit kleinen Fahrrobotern, die man selbst programmieren kann. Die haben eine Programmieroberfläche, die „Scratch“ sehr ähnlich ist. Also eine Art Baukastensystem, bei dem man keinen Code programmieren muss, sondern es für die einzelnen Befehle verschiedene Kästen gibt.

Evelyn Waldt (SUBWAY Magazin – oeding magazin GmbH) / Fotocredit: Engineered Arts Ltd

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.