CoTeSys Bild der Wissenschaft

Page 1

bild der wissenschaft 10/2012, Cover10_12, S. 3, 28.08.2012, 14:28, HPOLL

24 SEITEN Roboterforschung in Münche n

10 2012 wissenschaft.de

D: EUR 7,90 | A: EUR 7,90 ÜBRIGE EUROLÄNDER: EUR 8,50 CH: CHF 14,00 E 2164 E

Intelligent, hartnäckig, visionär: Die Genies Albert Einstein und Steve Jobs


bild der wissenschaft 10/2012, S. 88, 28.08.2012, 15:09, HPOLL

C

oT

eS ys

T E C H N I K & K O M M U N I K A T I O N

SCHWERPUNKT_ROBOTER

88

bild der wissenschaft 10 | 2012


bild der wissenschaft 10/2012, S. 89, 28.08.2012, 15:10, HPOLL

K. Fuchs für bdw

C

oT

eS ys

Willkommene Helfer oder bedrohliche Konkurrenten? Fest steht: Intelligenten und autonom agierenden Maschinen gehört die Zukunft.

Er arbeitet zwar recht behäbig, aber er lässt nichts anbrennen: „TUMJames“, ein Roboter, dessen Fähigkeiten CoTeSysForscher aus München entwickelt haben, kann Popcorn zubereiten und servieren. Dazu bewegt er sich zielstrebig durch die Küche und sucht sich selbst Rezepte, Infos und Kochutensilien.


bild der wissenschaft 10/2012, S. 90, 28.08.2012, 15:10, HPOLL

eS ys

SCHWERPUNKT_ROBOTER

oT

Der Kellner kommt in rotem Kunststoff: In einem Restaurant in der nordostchinesischen Stadt Harbin sind 18 verschiedene Roboter eines örtlichen Herstellers tätig. Sie bereiten Speisen zu, putzen die Tische, führen die Gäste zum Tisch und servieren.

das Pflegepersonal alarmiert, wenn sich jemand dort aufhält. Was für manche eine Horrorvision ist, sehen andere als gute Lösung des Pflegenotstands an. Auch Birgit Graf, Gruppenleiterin für Haushalts- und Assistenzrobotik am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart, sieht das so. Sie hat CareO-bot 3 mitentwickelt und den Pilotversuch im Parkheim Berg initiiert. Seit 1998 Care-O-bot 1 seine ersten Fahrversuche unternahm, hat sich das Ziel nicht geändert: Maschinen wie CareO-bot sollen älteren Menschen zu mehr Selbstständigkeit verhelfen und ihnen im Idealfall länger ein unabhängiges Leben in den eigenen vier Wänden ermöglichen. Auch im stationären Umfeld könnten Roboter das Pflegepersonal bei Routinetätigkeiten entlasten und den Mangel an Pflegekräften ausgleichen. „Niemand wird arbeitslos“, verspricht

ddp images/AP

C

„HALLO, FRAU DIENER. Sie möchten doch bestimmt etwas trinken?“ „Ha jo, do hosch recht“, antwortet Frau Diener im breitesten Schwäbisch. Mit einem „Proscht Nachbar“ kippt Frau Diener die zugeteilte Wasserportion hinunter. Überreicht wurde ihr das Getränk – von einem Roboter. In einem Feldversuch sorgt dieser im Auftrag der Pflegekräfte dafür, dass die älteren Herrschaften im Parkheim Berg in Stuttgart genug trinken. Care-O-bot 3 – so der Name der freundlichen Maschine – erkennt die Gesichter der Menschen, registriert die getrunkene Menge und holt mit seinem gelenkigen Arm an einem Wasserspender Nachschub. Und wenn gerade nichts zu tun ist, unterhält er die Bewohner, zum Beispiel mit Memory-Spielen oder gemeinsamem Gesang. Unterstützt wird Care-O-bot durch Casero, der Wäsche zur Reinigung bringt, nachts durch die Flure patrouilliert und

90

bild der wissenschaft 10 | 2012

von Bernd Müller Graf, „die Pflegekräfte sollen durch den Einsatz technischer Hilfsmittel nur Zeit für die eigentlichen Pflegetätigkeiten haben, insbesondere für die Interaktion mit den Menschen.“ NEUGIER UND SPASS BEI SENIOREN Das klingt vernünftig – aber wie sehen das die Betroffenen? Während der Pilotversuche sei die Reaktion der Senioren sehr positiv gewesen, Neugier und Spaß hätten dominiert, sagt Birgit Graf. Besonders gut kamen Demenzkranke mit den Robotern zurecht, ihnen kommen die klaren Anweisungen der Computerstimme entgegen. Auch die Pflegekräfte des Parkheims Berg beurteilen die Maschinen durchweg positiv. Dennoch: Es wäre nicht das erste Mal, dass die Faszination technischer Möglichkeiten Ingenieuren den Blick für den Bedarf der Menschen vernebelt. Wer deren Sicht verstehen will, fragt am


bild der wissenschaft 10/2012, S. 91, 29.08.2012, 11:53, HPOLL

oT

höher. Gleichzeitig dürfen die Kosten nicht zu hoch sein, sonst können Patienten oder Krankenkassen sie nicht tragen.

C

MAUE CHANCEN IN DER PFLEGE Marktprognosen zur Roboterindustrie sind mit Vorsicht zu genießen. Die International Federation of Robotics (IFR) rechnet bis 2014 mit etwa 1,3 Millionen Industrierobotern, derzeit sind es gut 1,1 Millionen. Zwischen 2011 und 2014 werden laut einer Prognose der IFR aber nur etwa 87 500 professionelle Serviceroboter verkauft, hauptsächlich als Melkroboter und für militärische Zwecke. Einen regelrechten Boom mit rund 14,4

Kompakt

· · ·

Roboter haben eine große Zukunft, weil sie Menschen unterstützen können. Ersetzen sollen sie ihre Erbauer jedoch nicht. Trotz bedeutender technischer Fortschritte verläuft die Einführung autonomer Systeme nur langsam, weil es neben vielen wissenschaftlich-technischen auch wirtschaftliche, juristische und ethische Probleme gibt. Die Akzeptanz von Robotern ist kulturell bedingt in Asien höher als in Europa.

Millionen Einheiten erleben Roboter für die häusliche Nutzung, wobei der Löwenanteil auf Unterhaltungsroboter entfällt. Speziell mit der Wirtschaftlichkeit der Serviceroboter beschäftigt sich Effirob, eine Studie der Fraunhofer-Institute IPA und ISI im Auftrag des Bundesministeriums für Bildung und Forschung. Verschiedene Einsatzfelder wurden betrachtet, darunter auch die Pflegebranche. Demnach haben komplizierte Roboter mit Armen in den kommenden zehn Jahren kaum Chancen auf weite Verbreitung. Die hohen Kosten seien schuld, dass die Roboter für Kliniken und Heime trotz des teils bereits gravierenden Pflegekräftemangels wirtschaftlich noch nicht interessant sind. Die Effirob-Autoren empfehlen, vorerst Roboter zu entwickeln, die einfach und auf spezielle Aufgaben zugeschnitten sind. Zudem sollten die Maschinen möglichst verschiedene Aufgaben meistern können, sodass sie 24 Stunden im Einsatz sein können – wie Casero im Parkheim Berg, der Wäschesammler und Nachtwächter zugleich ist. bild der wissenschaft 10

K. Fuchs (12)

K. Fuchs

besten Soziologen. Zum Beispiel Barbara Klein, Professorin an der Fachhochschule Frankfurt am Main. Sie hat mit ihren Studenten die in Japan entwickelte Kuschelrobbe Paro in deutschen Seniorenheimen getestet – mit sehr gutem Erfolg. Die Senioren können mit dem flauschigen Roboter-Seehund kuscheln, der je nach Laune zufrieden oder aufgeregt fiepst. Besonders davon profitiert hat eine ältere Dame, die lange nicht mehr sprach und dann mit Paro und später auch wieder mit anderen Menschen kommunizierte. Eine Konkurrenz zwischen Roboter und Pflegepersonal sieht Klein nicht: „Paro ersetzt nicht Menschen oder Tiere, sondern ist ein eigenes Medium für die Therapie.“ Der Bedarf für Roboter-Unterstützung in der Pflegebranche ist da, weil menschliches Pflegepersonal fehlt. Und: Auch den Patienten scheint die Assistenz der Maschinen zu nützen. Die Robotik-Branche müsste also boomen. Das tut sie seit Jahrzehnten bei den Industrierobotern. Aber in der Servicerobotik, wo es um Dienst am und mit dem Menschen geht, entwickelt sich der Markt nur schleppend. Hier sind die Ansprüche an autonomes Handeln und damit die technischen Herausforderungen ungleich

eS ys

Dr. Rob am OP-Tisch: Die unfallchirurgische Abteilung der Uniklinik Erlangen ist die weltweit erste medizinische Einrichtung, wo Roboter die Ärzte bei Kniegelenkersatz-Operationen unterstützen.


bild der wissenschaft 10/2012, S. 92, 28.08.2012, 15:10, HPOLL

SCHWERPUNKT_ROBOTER

Allerdings: Die Effirob-Studie ist umstritten. „Denn die Berechnungen basieren derzeit nur auf Roboter-Komponenten, die bereits am Markt erhältlich sind“, sagt Uwe L. Haass, Geschäftsführer des Münchner Exzellenz-Forschungsclusters CoTeSys (Cluster of Excellence Cognition for Technical Systems). „Das Potenzial neuartiger Materialien und zum Beispiel muskelähnlicher Antriebe wird nicht berücksichtigt.“ Eine Folge der Effirob-Studie ist die Ausschreibung von 12 bis 14 Millionen Euro des Bundesforschungsministeriums zur Servicerobotik. Auch die Europäische Union hat ihre Förderung für Robotik in den letzten Jahren hochgefahren und bemüht sich vor allem darum, das Thema in die Öffentlichkeit zu bringen. Weil auch die USA Milliarden in die Robotik stecken – allerdings vor allem in die Entwicklung militärischer Systeme –, ist eine Art weltweites Wettrüsten in der Robotik-Forschung entbrannt. Mittlerweile gibt es bereits umkämpfte Märkte, etwa bei Staubsauger-Robotern. Sie sind zu einem Massenprodukt geworden, auch wenn die Saugergebnisse noch mäßig sind. Putzen und aufräumen sind laut einer Studie des VDE die bevorzugten Aufgaben für einen

Evolution nicht wiederholen

BLECHKAMERAD AM TELEFON Märkte werden wohl zuerst dort entstehen, wo es einen ökonomischen Vorteil gibt. Wenn man weiß, was ein Platz in einem Pflegeheim kostet, kommt man schnell zum Ergebnis, dass sich ein Pflegeroboter wie ALIAS durchaus rentieren kann, selbst wenn er ein paar Zehntausend Euro kostet. ALIAS (Adaptable Ambient Living ASsistant) wurde im Zuge von CoTeSys an der TU München entwickelt und soll Senioren ein längeres selbstbestimmtes Leben daheim ermöglichen. Der Blechgeselle telefoniert, hält Kontakt mit sozialen Netzwerken und beherrscht Online-Spiele. Gesteuert wird er über einen großen Touchscreen oder einfach per Sprachzuruf. Besorgte Angehörige würden viel Geld ausgeben für einen ferngesteuerten Roboter, mit dem sie nach ihren Eltern und Großeltern schauen könnten, glauben die Forscher.

92

bild der wissenschaft 10 | 2012

ddp images/AP (3)

C

oT

Wann ist ein Roboter intelligent? Im Sinne des Mathematikers Alan Turing ist eine Maschine intelligent, wenn sie sich nicht von einem Menschen unterscheiden lässt. Mit dieser Definition bin ich aber nicht glücklich, weil sie von der Sichtweise des Menschen abhängt. Es gibt nicht die eine Intelligenz, auch eine Zecke ist intelligent – weil sie Blut findet. Nach Leibniz ist der Mensch sowieso nur ein Automat, wenn auch von einem göttlichen Ingenieur. Intelligenz bei Maschinen ist möglich, aber anders als beim menschlichen Gehirn. Bewusstsein und Gefühl müssen Roboter also nicht haben? Nein. Es reicht, wenn Roboter kognitive Fähigkeiten haben und lernfähig, anpassungsfähig und sensibel sind. Es kommt darauf an, was ein Roboter tut. Computer spielen sehr gut Schach, dazu brauchen sie kein Gefühl. Werden Roboter jemals ein perfektes Abbild des Menschen sein? Im Prinzip lässt sich das für die Zukunft nicht ausschließen. Aber humanoide Roboter sollten Menschen nicht total ersetzen. Es bringt nichts, die Evolution zu wiederholen. Technologie ist eine Serviceeinrichtung. Die Welt wird künftig voller autonomer Systeme sein, die uns ihre kognitiven Fähigkeiten zur Verfügung stellen. Unser Menschsein wird dadurch nicht bedroht. Mehr Sorge macht mir, dass wir immer abhängiger von dieser Technik werden. Asiaten scheinen viel spielerischer mit Robotern umzugehen. Das stimmt und hängt mit religiösen Vorstellungen zusammen. Aber es hat keinen Einfluss auf die Akzeptanz. Wir Deutsche werden Roboter akzeptieren, wenn wir sehen, welchen Nutzen sie bringen.

eS ys

A. Heddergott

KLAUS MAINZER ist Gründungsdirektor des Munich Center for Technology in Society und Mitglied von CoTeSys.

Haushaltsroboter. Deshalb stehen diese Fertigkeiten ganz oben auf der Liste von Roboterforschern am Fraunhofer IPA und bei CoTeSys an der TU München. So deckt der Küchenroboter TUM-James von CoTeSys zuverlässig den Tisch und bereitet Popcorn zu, wenn auch noch mit nervenzehrender Langsamkeit.

Fingerfertig: „Asimo“, ein humanoider Roboter von Honda, kann mit seinen fünf Fingern greifen wie ein Mensch – allerdings werden seine Bewegungen ferngesteuert.


eS ys

Spielen und staubsaugen

Der Umsatz mit Servicerobotern wird laut einer Prognose des südkoreanischen Wissenschafts- und Wirtschaftsministeriums in den nächsten Jahren kräftig wachsen. Und: Die flexiblen Assistenten werden die bislang dominierenden stupiden Industrieroboter weit hinter sich lassen. Derzeit erfüllen Serviceroboter recht eng begrenzte Aufgaben: Die meisten dienen als Spielzeug oder saugen den Boden.

an und achtet mittels Sensorik darauf, ihn nicht zu verletzen. Den Menschen zu ersetzen, sei aber nicht mehr das Ziel, meint Decker. Nur wenige Wissenschaftler hielten an der Vision eines Menschenroboters fest. Die meisten würden statt dessen die Zukunft in Kooperationsrobotern sehen. Warum wirken dann viele Roboter so menschenähnlich? Das hat erst einmal ganz praktische Gründe. Der Bilderkennungssoftware eines Roboters fällt es leichter, ein Gesicht oder die Blickrichtung zu erkennen, wenn der Mensch den Roboter anschaut. Menschen sind es gewohnt, bei einer Unterhaltung ihr Gegenüber anzublicken. Daraus folgt: Ein menschenähnliches Antlitz zieht Blicke auf sich und erleichtert die Bilderfassung durch die Kameras, die in den „Augen“ sitzen. Dass humanoide Roboter mit Armen und Beinen ausgerüstet werden und menschliche Bewegungen imitieren, hat ebenfalls praktische Gründe. Wir Menschen gestalten unsere Umwelt so, wie sie für uns am bequemsten ist. In dieser Umwelt müssen sich die Roboter bewegen können. Dafür nutzen sie am besten die „Ausrüstung“, die sich bei uns Menschen bewährt hat –

C

oT

Trotz einzelner Erfolge, etwa beim Erkennen von Gesichtern oder beim Laufen auf zwei Beinen: In der Robotik kommt der Fortschritt nur im Schneckentempo voran. Vielleicht sind auch einfach die Erwartungen zu hoch. Was Wunschdenken ist und was Wirklichkeit, untersucht Michael Decker vom Institut für Technikfolgenabschätzung am Karlsruher Institut für Technologie. Vor zehn Jahren hat er seine erste Studie zur Zukunft der Robotik verfasst, die viele Empfehlungen zur Forschung enthielt und Grundlage für diverse Förderprogramme etwa in der Servicerobotik war. Seit einigen Monaten arbeitet der KITWissenschaftler nun an einem Folgeprojekt. „Bei eng definierten Aufgabenfeldern kommt die Roboterforschung gut voran“, sagt Decker. Das Standardbeispiel sind Industrieroboter, die in großen Hallen Autokarosserien zusammenschweißen und neuerdings Staubsauger und Rasenmäher, die ihre Arbeit autonom erledigen. Einige dieser „Domänen“ werden zu Mehrfachanwendungen verschmelzen. Eine ist die „dritte Hand“: ein Roboterarm, der Gegenstände holt und festhält und einem Werker in der Industrie die Arbeit erleichtert. Ein solcher Arm passt sich an den Menschen

bdw-Grafik; Quellen: Wissenschafts- u. Wirtschaftsministerium Südkorea, IFR

bild der wissenschaft 10/2012, S. 93, 28.08.2012, 15:10, HPOLL

zum Beispiel zwei Beine und einen aufrechten Gang. Der Fortschritt bei Laufmaschinen ist beeindruckend. Asimo, ein kleiner humanoider Roboter des japanischen Herstellers Honda, der aussieht wie ein Astronaut, läuft wie ein Mensch und kann zur Begrüßung Hände schütteln. Andere Modelle rennen wie Jogger auf Fitnesslaufbändern und halten Balance, selbst wenn sie angerempelt werden. Asimo bewegt sich allerdings nicht autonom, er wird per Funk ferngesteuert – und er schluckt Unmengen elektrischer Energie. ROLLEN SPART ENERGIE Alltagstauglich ist das nicht. Deswegen haben aktuelle Serviceroboter Rollen statt Beine. Das spart Energie, beschränkt die Beweglichkeit aber auf ebenen Untergrund. In einer Klinik ist das kein Problem. Selbstfahrende Rollstühle, die Patienten zum Röntgen oder zur Reha bringen, sind eine Weiterentwicklung von fahrerlosen Trolleys, die Teile durch Fabrikhallen transportieren. Doch Fabrikhallen sind heute fast menschenleer, und die Orientierung erfolgt über unsichtbare Markierungen im Boden. In der Klinik wimmelt es bild der wissenschaft


bild der wissenschaft 10/2012, S. 94, 28.08.2012, 15:10, HPOLL

SCHWERPUNKT_ROBOTER

Auch für Roboter gilt: Man lernt nie aus Serviceroboter müssen lernfähig sein. Das lässt sich auf verschiedene Weise realisieren: Training Man legt mehrere Objekte vor den Roboter und lässt ihn probieren, wie er sie am besten greifen kann. Was gut klappt, merkt er sich. Wenn der Roboter das nächste Mal den Gegenstand sieht, weiß er gleich, was zu tun ist. Exploration Der Roboter erfasst seine Umwelt mit LaserSensoren und erstellt während einer Bewegung eine 3D-Landkarte. Gleichzeitig muss er sich dabei selbst lokalisieren. Manche Staubsaugerroboter arbeiten bereits mit solch einer Navigation. Datenbanken Damit man zu einem Roboter sagen kann: „Greif die Tasse“, muss der erst wissen, was eine Tasse ist.

· · ·

· ·

Die kulturellen Differenzen zeigen sich auch in der Sprache. In Japan ist das Wort Roboter positiv besetzt. Vieles wird so bezeichnet, was nach westlichen Maßstäben anders heißt. So ist eine Vorrichtung, die Patienten aus dem Bett in den Rollstuhl hebt, in Japan ein Roboter, in Deutschland ein Patientenlift. Und: In Japan hat das Gerät zwar einen Kopf mit Augen, doch es arbeitet nicht autonom, sondern wird ferngesteuert. „In Deutschland würde man so etwas nicht als Roboter bezeichnen“, sagt Fraunhofer-Forscherin Birgit Graf. „Es ist eine Maschine, die ein Mensch steuert. Das sollte sowohl durch das Design als auch durch die Bezeichnung klar werden.“ Japaner sehen das anders, weil es dort keine Unterscheidung zwischen lebendigen und toten Dingen gibt und man das daher auch sprachlich nicht trennen muss. ■

eS ys

schen Erwägungen und dem Problem der fehlenden Fachkräfte argumentieren sie vor allem mit der Aussicht auf höherwertige Arbeit: direkte Arbeit mit dem Patienten. Das Schieben eines Rollstuhls fällt dagegen unter niederwertige Arbeit. Manches Missverständnis entsteht unabsichtlich. Bilder in Forschungsbroschüren zeigen menschenähnliche Roboter bei der Pflege am Krankenbett oder fiepsende Robben wie Paro, die Senioren in die Hand gedrückt werden, angeblich um sie ruhigzustellen. Doch dieses Vorurteil entspricht nicht der Realität. Keiner der genannten Roboter soll Pfleger ersetzen. So soll der Roboter, der bettlägerige Patienten hochhebt, dem Pflegepersonal Bandscheibenschäden beim Bettenmachen ersparen.

C

oT

dagegen von Menschen, und ein autonomer Rollstuhl muss sich alleine zurechtfinden. Doch diese Herausforderung lässt sich bewältigen. Viel wichtiger ist die Frage, ob die Menschen das überhaupt wollen. Ja, sagen die Betreiber von Kliniken und Pflegeheimen. Abgesehen von ökonomi-

Da es diese in diversen Varianten gibt, kann man nicht alle einprogrammieren. Stattdessen greift die Maschine auf bereits bestehende Internet-Datenbanken zu. Imitation Ein Roboter kann menschliche Bewegungen nachvollziehen und imitieren und beherrscht so gleich die richtigen Gesten. Kommunikation Dem Roboter wird etwa gesagt: „Das ist eine rote Tasse.“ Das muss er sich im Zusammenhang mit dem Objekt merken. Dazu ist es nötig zu lernen, was „rot“ und „Tasse“ bedeuten – damit der Roboter ein gemeinsames Verständnis mit dem Menschen findet und Anweisungen umsetzen kann. Dem Roboter muss „bewusst“ sein, dass e r falsch liegen kann und sein Wissen unvollständig ist. Nur so kann er gezielt nach neuem Wissen suchen, um seine Modelle zu erweitern.

BERND MÜLLER, der zwei JAPANISCHE KULLERAUGEN Beiträge dieses RoboterSicher hat die Akzeptanz von RoSchwerpunkts schrieb, ist botern auch kulturelle Ursachen. langjähriger bdw-Autor. Mehr Serviceroboter made in Japan seüber ihn auf Seite 112. hen alle ziemlich menschlich aus und erinnern mit ihren herzigen Kulleraugen an Comic-Figuren. In Deutschland dagegen gilt das alte Designprinzip „Form folgt Funktion“. So hat Care-O-bot 3 INTERNET Der Münchner Exzellenzcluster CoTeSys: auf der Rückseite einen gelenkiwww.cotesys.org gen Industrieroboterarm, während International Federation of Robotics: er vorn mit seinem Display-Tabwww.ifr.org lett wie ein Butler aussieht, der sich dank Scharnier in der Mitte Effirob-Studie über die Wirtschaftlichkeit von Servicerobotern: www.ipa.fraunhofer. des Rumpfs verbeugen kann. de/index.php?id=1643 Sehr menschlich wirkt das nicht.

K. Fuchs für bdw

Mehr zum Thema

Fürsorglich: Hausroboter „ALIAS“ ermöglicht es älteren Menschen, mit Angehörigen zu reden.

94

bild der wissenschaft 10 | 2012


bild der wissenschaft 10/2012, S. 95, 29.08.2012, 11:54, HPOLL

SCHWERPUNKT_ROBOTER

„Unser Ansatz ist weltweit einzigartig“ Aufmerksamkeit, Kreativität, selbstständiges Planen sind Eigenschaften, die Menschen auszeichnen – und bald auch Roboter? Wie weit die Entwicklung ist, erklärt der Sprecher des CoTeSys-Clusters Prof. Martin Buss. Das Gespräch führten Ralf Butscher und Wolfgang Hess spektive sein. China beispielsweise wird durch die Ein-KindPolitik gesellschaftlich noch schneller altern als Deutschland. Auch in Japan und Korea ist dieses Problem bereits sichtbar.

oT

eS ys

bild der wissenschaft: Einige Roboterforscher haben das erklärte Ziel, dass 2050 eine Elf aus Robotern den amtierenden Fußballweltmeister besiegt. Wollen wir Menschen das wirklich? Martin Buss: Die Idee des Roboter-Fußballspiels kommt aus Japan. Solche Benchmarks sind wichtig, auch in Bereichen, die keinen direkten Nutzen zu haben scheinen. So hatte Präsident Kennedy 1961 die bemannte Mondlandung noch in jenem Jahrzehnt gefordert. Daraus entwickelten sich Technologien, die heute der ganzen Menschheit nützen. Der Mondflug ist nur ein Beispiel für einen grandiosen Technologietreiber. Die Formel 1 ist ein anderes: Scheibenbremsen, heute in jedem Auto, wurden einst nur dafür entwickelt. Ich bin mir sicher, dass auch die Vision des Fußballspiels viele Technologien voranbringen wird.

C

Grob betrachtet unterscheidet man zwischen Industrierobotern und autonomen Robotern. Werden sich die beiden Pfade annähern? Gewiss. Die heutigen Industrieroboter arbeiten in einem Käfig und schalten sich sofort ab, wenn ein Mensch sich nähert. Doch die Industrie ist sehr daran interessiert, dass Menschen und Roboter eng kooperieren. An dieser Schnittstelle arbeiten viele Forscher weltweit. Es geht beispielsweise darum, die Industrieproduktion durch Roboterunterstützung an ältere Arbeitnehmer anzupassen. Auch in der Medizin gibt es viele Ansatzpunkte. Der Da Vinci-Roboter der US-Firma Intuitive Surgical beispielsweise ermöglicht jetzt schon minimal-invasive Herzchirurgie. Darüber hinaus arbeiten wir an Robotern, die Menschen zu Hause unterstützen sollen – bei Bedürfnissen des täglichen Lebens bis hin zur emotionalen Betreuung. Sie heißen im Jargon Personal Robots und sollen ältere Menschen so unterstützen, dass sie im eigenen Heim länger alleine wohnen können. Für einige Gesellschaften wird das eine große Per-

Europa und Japan sind spitze, die USA sind abgeschlagen

Treiben diese Länder auch die Entwicklung von persönlichen Robotern voran? Europa ist durch die massive Förderung der kognitiven Robotik aus Mitteln der EU sowie durch nationale Forschungsprogramme in den letzten zehn Jahren an die Weltspitze gelangt. Auch Japan ist dort, die USA sind abgeschlagen.

Ansätze, Robotern Intelligenz zu verpassen, gibt es seit den 1960er-Jahren – etwa durch die sogenannte Künstliche Intelligenz, KI. Doch dieser Weg führte in eine Sackgasse. Worin unterscheiden sich die heutigen Ansätze von der damaligen KI? Ich bin darin kein Experte. Meine Kollegen sagen mir, dass der klassische Ansatz der KI fehlgeschlagen ist, ein Gehirn konstruieren zu wollen, das keine Verbindung zur Welt hat und doch über die Welt philosophiert. Heute gehen Fachleute vielmehr davon aus, dass Intelligenz in Lebewesen und Robotern nur entstehen kann, wenn sie intensiven sensorischen Kontakt mit der Umgebung haben – durch Anfassen, durch Hören, durch Sehen. Man braucht den Körper, um Intelligenz zu verorten. Und genau das ist der Ansatz der kognitiven Robotik. Sie sind Koordinator des Clusters Cognition for Technical Systems, kurz CoTeSys. Wie erläutern Sie der Öffentlichkeit diese kryptischen Begriffe? Einmal geht es dabei um komplexe technische Systeme. Wir sind angetreten, sie nicht nur in Robotern zum Einsatz zu bringen, sondern auch bei Fahrzeugen, Flugzeugen und allem, was sich sonst noch bewegt. Mehr noch: Wir wollen auch Industrieprozesse verbessern. Wir wollen Systeme bauen, die über Stunden selbstständig lernen und autonom arbeiten. Zum anderen geht es um Kognition. Dabei setzen wir auf zwei Schwerpunkte: die Psychologie und die Neurowissenschaften. Beispielsweise lernen wir aus der Bildverarbeitung bei der Drosophila, einer Gattung der Taufliegen, wie man intelligente Bildbild der wissensch


bild der wissenschaft 10/2012, S. 96, 28.08.2012, 15:11, HPOLL

SCHWERPUNKT_ROBOTER

verarbeitung technisch angehen muss. Weiterhin wollen wir psychologisch analysieren, was einen Menschen bewegt, der mit einem Roboter zusammenarbeitet, und wie man einen Roboter bauen muss, damit er besser mit dem Menschen zusammenarbeiten kann. Mit diesem Ansatz sind wir weltweit einzigartig.

etwas zum Schlechteren entwickeln. Die meisten Projekte in meinem unmittelbaren Umfeld stehen auf anderen Beinen. Empfindlich geschwächt sein dürfte aber die künftige strukturelle Entwicklung von CoTeSys. Eingeplante neue Professuren fallen weg.

Auf wen geht der Ansatz zurück? Auf den Standort München. Schon vor dem Exzellenzcluster, der 2006 den Zuschlag bekam, gab es hier eine jahrzehntelange Kooperation zwischen den Neurowissenschaften, der Psychologie und den Ingenieuren. Wir hatten mindestens zwei Dutzend internationale Experten hier, die unseren Weg begleiteten – vom MIT, von der Universität von Tokio, von Stanford, aus Kanada. Und sie haben uns immer wieder bescheinigt: Was ihr in München macht, ist Weltspitze und einmalig.

Wie viele Mittel gehen Ihnen durch die Entscheidung verloren? So genau weiß das niemand. Genannt werden zwischen 3 und 8 Millionen Euro pro Jahr. Die Mittel aus der Exzellenzinitiative werden uns spätestens nach 2014 fehlen. Doch so gut wie wir unterwegs sind, werden wir an andere Fördermittel herankommen.

eS ys

Sicher auch mit ein Grund dafür, dass der australische Superforscher Gordon Cheng vom japanischen Tsukuba nach München wechselte. Was gab den Ausschlag? Ihr lukratives Angebot – oder das Interesse an CoTeSys? Zur selben Zeit, als der Exzellenzcluster CoTeSys auf die Beine gestellt wurde, suchte Gordon Cheng eine neue Herausforderung und hatte Angebote aus Deutschland, vom übrigen Europa, aus Japan. Die Entscheidung für München fiel wegen der Attraktivität unseres Clusters sowie des Standorts.

Was sind für Sie die größten Herausforderungen in der Robotertechnologie? Die wichtigsten Ziele der nächsten 10 bis 20 Jahre sind die dauerhafte Autonomie der Roboter und die gute Interaktion mit Menschen. Wir in der universitären Grundlagenforschung müssen weg vom Spielzeug-Roboterchen und uns wirklich komplexen Dingen zuwenden – etwa Robotern, die ihren Weg selbstständig finden können. So haben wir in den vergangenen Jahren einen Roboter entwickelt, der in der Lage ist, ohne einprogrammiertes Kartenwissen oder GPS den Münchner Marienplatz zu finden.

C

oT

Auf welche Entwicklungen bei CoTeSys sind Sie stolz? Da gibt es bestimmt mehr als zehn interdisziplinäre Erfolgsgeschichten. Beispielsweise hat ein Biophysiker zusammen mit einer Ingenieurin den Unterwasserroboter Snookie gebaut, der das sensorische System eines blinden Höhlenfischs aus Mittelamerika einprogrammiert hat. Snookie ist dadurch weit autonomer als vergleichbare Systeme. Außerdem haben unsere Experten es geschafft, dass sich Roboter und Menschen so synchronisieren, dass sie zusammen etwa ein Bild malen können. In dieser Art gibt es viele interdisziplinär erreichte Spitzenerfolge, die einmalig sind.

Wie findet er denn seinen Weg? Der Roboter geht raus auf die Straße und fragt sich bei Passanten durch. Um vom Institut zum Marienplatz zu kommen, braucht er sechs bis acht Stunden und befragt 30 bis 40 Leute. Anders als bei anderen Vorzeige-Experimenten wird unser Roboter nicht mittels vieler Knopfdrücke gesteuert, sondern er macht sich alleine auf die Pirsch. Ich nenne das 24/7-Robotik: Unser Ziel ist es, Roboter zu entwickeln, die 24 Stunden am Tag ihren Job mit hoher Autonomie machen, und dies 7 Tage in der Woche.

Umso erstaunlicher ist es, dass CoTeSys bei der zweiten Runde der deutschen Exzellenz-Initiative leer ausgegangen ist und nach 2012 nur noch übergangsweise bis 2014 aus diesem Topf gefördert wird. Verstehen können wir das nicht. Wir – aber auch die Leitung der TU München – waren sehr überrascht von diesem Ausgang. Bei unserer Vorstellung wurden von den etwa 20 internationalen Gutachtern keinerlei kritische Fragen gestellt, alle schienen begeistert. Allerdings waren keine Ingenieure unter den Gutachtern, auch keine Robotik-Experten. Ich kenne mich aus auf der Bühne der weltweiten Roboterforschung – doch von den Gutachtern kannte ich keinen.

Der erste Marsch zum Marienplatz war 2008. In diesem Sommer fand ein weiteres Experiment statt. Worin unterschieden sich die Versuche? Wir haben dazugelernt, es gibt neue Funktionalitäten. Beispielsweise kann der Roboter jetzt noch besser auf Personen in der Stadt zugehen und nach dem Weg fragen. Er arbeitet zielgerichteter, indem er versucht, seine Wissenslücken gezielt zu schließen. Außerdem beschränkt sich die Interaktion nicht mehr auf den reinen Austausch von Informationen, sondern der Roboter hat gelernt, auch soziale Aspekte zu berücksichtigen. Er kann also auf mehreren Ebenen kommunizieren – beispielsweise lächelt er an geeigneten Stellen und gibt dem Gegenüber durch Mimik und kurze Einwürfe Rückmeldung, ob er den Sachverhalt verstanden hat oder ob eine Erklärung für ihn nicht plausibel war.

Der Exzellenzcluster ist nun weg. Was heißt das für die Ausstattung von CoTeSys? Da wir an allen großen Flaggschiffprojekten der EU beteiligt sind, wird sich für CoTeSys auch weiter etwas bewegen. Für mich als Koordinator und meine Gruppe dürfte sich kaum

Vorher sprachen Sie davon, dass die kognitive Roboterforschung anwendungsnah sein soll. Welche Anwendungen stellen sie sich für Ihren autonom marschierenden Roboter vor? Ein erster Schritt könnte sein, dass durch solche Roboter Stadtführungen oder städtische Informationssysteme realisiert

96

bild der wissenschaft 10 | 2012


K. Fuchs für bdw

eS ys

bild der wissenschaft 10/2012, S. 97, 28.08.2012, 15:11, HPOLL

Martin Buss

C

oT

ist seit 2003 Inhaber des Lehrstuhls für Steuerungs- und Regelungstechnik an der Technischen Universität München. Buss (*1965) studierte Elektrotechnik an der TH Darmstadt und promovierte 1994 an der Universität von Tokio (Todai). Der für seine Publikationen mehrfach ausgezeichnete Forscher ist seit 2006 Koordinator des CoTeSys-Exzellenzclusters in München. Bei CoTeSys arbeiten rund 100 Forscher aus drei Münchner Universitäten, einem Max-Planck-Institut und dem DLRZentrum für Luft- und Raumfahrt Oberpfaffenhofen zusammen – Hirnforscher, Informatiker, Biophysiker, Maschinenbauer ...

werden könnten. In weiteren Forschungsarbeiten könnte man evaluieren, ob solche Roboter für die positive Beeinflussung von großen Menschenansammlungen sinnvoll sind. Da Interaktion und Informationsaustausch eine entscheidende Rolle in unserer aktuellen Forschung spielen, sind die entwickelten Technologien geeignet, in allen Situationen eingesetzt zu werden, in denen Mensch und Roboter eng zusammenarbeiten. Eine aktuelle Studie widmet sich darüber hinaus dem Thema, wie sich Roboter Menschen nähern müssen, damit das für die Menschen akzeptabel ist. Es gibt eine soziale Distanz, eine freundschaftliche Distanz und einen körpernahen Bereich. Auch das müssen künftige Robotergenerationen wissen. Glauben Sie, dass Roboter eines Tages Menschen genauso vertraut sind wie Hunde oder Katzen? Wenn es zu einer ähnlich starken emotionalen Bindung kommen kann, dann denke ich: ja. Der hundeähnliche Aibo von Sony wurde weltweit 150 000 Mal verkauft, dabei kostete er rund 2500 Euro. Auch Paro ist erfolgreich. Er ist dem Baby einer

Sattelrobbe nachempfunden, reagiert auf Streicheln und Geräusche. In Skandinavien wird Paro von Krankenkassen finanziert, weil der Therapieerfolg bei Demenzkranken immens ist. Letztlich wird die Integration von Robotern in unsere Haushalte über den Preis gesteuert. Asimo oder ein anderer menschenähnlich wirkender Roboter kostet heute mindestens 200 000 Euro. Bei höheren Stückzahlen fällt der Preis, Roboter wären dann mit Sicherheit attraktiver. Wie wird es weitergehen, wenn Roboter Gefühle, ein Gedächtnis, ein Bewusstsein entwickeln? In Japan beschäftigt man sich auf fast jeder Konferenz mit der Frage, ob man so einen Roboter wirklich abschalten darf. Wie weit das gehen wird, vermag ich nicht zu beurteilen. Klar ist für mich: Wir Menschen sind unbegrenzt neugierig, und der Wissenschaft werden die Fragen nie ausgehen. Was wir mit unseren Erkenntnissen machen und welche Perspektiven sich daraus für die industrielle Produktion ergeben können, ■ ist eine Frage der politischen Weichenstellung. bild der wissenschaft


bild der wissenschaft 10/2012, S. 98, 28.08.2012, 15:11, HPOLL

SCHWERPUNKT_ROBOTER

Augen wie Fliegen, Gesicht aus Licht Münchner Wissenschaftler statten Roboter mit kognitiven Fähigkeiten aus. Ein Problem ist nach wie vor die Akzeptanz der künstlichen Gesellen bei Menschen. von Klaus Wagner

eS ys

ungefähr so viel wie ein weitsichtiger Mensch, der eine Brille mit 27 Dioptrien benötigt: Vor dem Fliegenauge erscheint ein verschwommenes Muster heller und dunkler Flecken, das sich während des Fluges verändert, sobald ein Lufthauch, Hindernis oder eine erhobene menschliche Hand den Luftakrobaten blitzschnell zu einer Kurskorrektur zwingt.

GENIALES VORBILD IM INSEKT Dafür, wie Fliegen die Verschiebung des schummerigen Bildes wahrnehmen, haben Biologen ein Modell entwickelt. Demnach sind Lichtsensoren aus je zwei benachbarten Facetten über Nervenzellen im winzigen Fliegenhirn zu einem Bewegungsmelder verschaltet. Aus der Reihenfolge, in der lichtempfindliche Rezeptoren in den Facettenaugen erregt werden, erkennt ein biologischer Detektor, in welche Richtung sich ein Objekt bewegt, erklärt Alexander Borst, Leiter der Abteilung Neuronale Informationsverarbeitung am Max-Planck-Institut für Neurobiologie in Martinsried bei München. In speziell entwickelten Flugsimulatoren haben er und seine Mitarbeiter fixierten Fliegen grobe Muster sich bewegender Flächen vorgespielt und untersucht, wie visuelle Informationen verarbeitet werden. Dabei entdeckten die Neurobiologen, wie Tangentialzellen – die Signale aus den vielen Bewegungsmeldern aufnehmen – verknüpft sind. Diese Zellen geben ihrerseits Impulse an Nervenzellen ab, die die Muskeln steuern. „Das Verschaltungsprinzip, das dem Bewegungssehen der Fliegen zugrunde liegt, ist

Kompakt

·· · 98

Flugroboter „sehen“ wie Insekten. Forscher wollen die Art, wie Kinder lernen, auf Maschinen übertragen. Roboter, die ein bisschen wie ein Mensch aussehen, kommen an – doch zu viel Ähnlichkeit macht Angst. bild der wissenschaft 10 | 2012

K. Fuchs für bdw

C

oT

„AUGEN FÜR EINEN Roboter wollen Sie haben? Dachten Sie da an Fliegenaugen oder menschliche Augen?“, fragt der Angestellte im Kaufhaus Plug-and-WorkRobotics, während sich eine Schar von Kunden um ihn drängelt. „Nein, Robotergehirne mit Software gibt es in der obersten Etage, künstliche Hände im Erdgeschoss.“ Ein Kaufhaus mit einem solchen Angebot wird noch lange Utopie sein – aber die Roboterforscher machen bereits Anleihen in der Biologie. Wie können Wahrnehmungen durch Sinnesorgane von Lebewesen sowie Prozesse im menschlichen Gehirn in Software und Hardware übersetzt und in Roboter implementiert werden? Im Rahmen von CoTeSys forschen Wissenschaftler unterschiedlicher Disziplinen gemeinsam an dieser Frage. Dabei sind sie zum Beispiel an der Steuerung eines Flugroboters interessiert. Dafür haben die Forscher winzigen Organismen tief ins Gehirn geblickt: Stubenfliegen. Verglichen mit ihrem kleinen Körper betrachten Fliegen die Welt mit recht großen Augen. Mit ihren schalenförmigen Sehorganen, die aus vielen einzelnen Facetten bestehen, sehen sie nur

Virtuelle Maske: Takaaki Kuratate erweckt Köpfe aus Kunststoff zum Leben. Mithilfe von Laserlicht projiziert er das Abbild eines Gesichts (hier: das eigene) auf das weiße Visier. Das Ergebnis: der „MaskBot“, bei dem ein Passbild reicht, um bei der Sprachausgabe die menschliche Mimik realistisch nachzubilden. Er könnte bei Videokonferenzen zum Einsatz kommen – und soll humanoiden Robotern ein echt wirkendes Gesicht geben.


bild der wissenschaft 10/2012, S. 99, 28.08.2012, 15:11, HPOLL

genial einfach. Es eignet sich daher bestens als Vorbild für technische Systeme“, sagt Borst.

So einfach das System der Fliegen auch ist, mit dem sie sicher durch den Raum kurven, für Gordon Cheng, Leiter des Instituts für Kognitive Systeme (ICS) an der Technischen Universität München, reicht es nicht aus. Der Computerwissenschaftler und seine Mitarbeiter lassen sich von der Biologie des Menschen inspirieren. Die Vision, die Cheng antreibt, erscheint fantastisch und ist weit in die Zukunft gerichtet: Der Wissenschaftler will herausfinden, wie sich Kinder zu Erwachsenen entwickeln –

C

oT

eS ys

BIOLOGISCHE FORMELN IM CHIP Ingenieure bei CoTeSys haben das getan und einen fahrbaren Roboter gebaut, der Hindernissen selbstständig ausweicht. Um die Bewegungen eines Flugroboters zu stabilisieren, der aus der Luft beispielsweise Waldbrände aufspüren soll, entwarf Johannes Plett, Doktorand in Borsts Abteilung, eine trick-

reiche technische Vorrichtung. Wird der sogenannte Quadrocopter durch einen Windstoß aus seiner horizontalen Lage gebracht, gleicht der Steuermechanismus das aus. Plett übersetzte die Funktionsweise der Fliegenaugen in mathematische Gleichungen und nutzte die Formeln in einem programmierbaren Chip. „Der Vorteil des biologisch inspirierten Systems ist nicht nur seine hohe Reaktionsgeschwindigkeit“, erläutert Plett, „sondern, dass es auch bei sehr wenig Licht funktioniert.“


bild der wissenschaft 10/2012, S. 100, 28.08.2012, 15:11, HPOLL

SCHWERPUNKT_ROBOTER

noch lange nicht, sie auch zu begreifen. Dazu muss der Roboter neue Dinge lernen und sich weiterentwickeln können. INTELLEKT EINES NEUGEBORENEN Inspiriert von neuen Erkenntnissen über das komplexe Zusammenspiel verschiedener Hirnareale publizierte David Vernon, Forscher am Münchner ICS, eine kognitive Architektur. Der Bauplan für das Gehirn des humanoiden Roboters „iCub“ (siehe Bild auf S. 104) sieht aus wie das Organigramm eines Unternehmens: 13 Kästchen, denen Funktionen

oT

C

Flugobjekt mit Insektenblick: Der Quadrocopter, den Forscher am Max-Planck-Institut für Neurobiologie in Martinsried gebaut haben, erfasst seine Umwelt mit künstlichen Fliegenaugen. Das gibt ihm auch bei Dämmerlicht einen Scharfblick.

Durch die Auseinandersetzung mit dem biologischen Vorbild wollen sich die Forscher auch das Know-how für die Konstruktion besserer humanoider Serviceroboter erarbeiten. WAS MASCHINEN SEHEN LÄSST Auch bei der Biologie sind bei Weitem noch nicht alle Fragen beantwortet, etwa zu den vielen Stufen der visuellen Reizverarbeitung im Gehirn des Menschen. Die Forschung in Gordon Chengs Labor könnte helfen, Antworten zu finden.

100

bild der wissenschaft 10 | 2012

arbeitung schon so ausgereift, dass der Roboter – wie die entsprechenden Gehirnregionen – jede beliebige Umgebung in groben Umrissen erfassen kann. Mit den Händen zu greifen, hilft, die Umgebung zu erkunden. Gordon Cheng will deshalb künstliche Hände konstruieren, die es Robotern ermöglichen, wie ein Kleinkind zuzupacken und auf etwas zu zeigen. Mit Daumen und Zeigefinger sollen die Roboterhände feinfühlig beliebige Objekte fassen können. Allerdings: Die Welt greifen zu können, heißt

wie Blickkontrolle oder Bewegung zugeordnet sind, sowie ein Gespinst aus Pfeilen dazwischen. „Dieses Konzept stellt die geistige Grundausstattung des iCub dar, der die intellektuellen Fähigkeiten eines Neugeborenen haben wird“, sagt Vernon. „Dieses Maß an Kognition erlaubt es dem Roboter, zu lernen und sich geistig zu entwickeln.“ Indem er Bewegungsabläufe beobachtet, nachmacht und daraus Schlüsse zieht, soll der junge Roboter allmählich immer klüger werden – wie ein junger

K. Fuchs für bdw

Andreas Holzbach, Informatiker und Doktorand am ICS, will das, was von den Sehprozessen bekannt ist, in die Robotik übertragen: „Das menschliche Auge kommt viel besser mit schwierigen Lichtverhältnissen zurecht als eine Kamera“, sagt er. „Da es keine Einzelbilder produziert und nicht nur an einem einzigen Punkt scharf sieht, muss das Auge weniger Information verarbeiten.“ Außerdem kann es viel zuverlässiger Objekte erkennen als ein Roboter. In Holzbachs System sind die ersten Schritte der visuellen Informationsver-

eS ys

und daraus lernen, einen Roboter zu bauen, an dem sich diese Entwicklung modellhaft studieren lässt. Damit das gelingen kann, ist weit mehr erforderlich, als einen Roboter mit Augen, Armen und Beinen, Haut und Ohren auszustatten, die den Körperteilen des Menschen möglichst nahekommen. Notwendig sind auch Soft- und Hardware-Bauteile, die die Leistung des menschlichen Gehirns übernehmen. „Technisch haben wir noch längst nicht genug verstanden, um einen solchen Roboter zu entwickeln“, sagt Cheng.


bild der wissenschaft 10/2012, S. 101, 28.08.2012, 15:11, HPOLL

C

MPI für Neurobiologie/Schorner

oT

eS ys

Mensch. Er soll auch mit der Hilfe eines Gegenstand, reagierten die Nehmer gesicht zu Angesicht ist ein realistisches Lehrers lernen können, der Korrektur- langsamer, als wenn der Bewegungs- Gesicht mit bewegten Zügen nötig.“ anweisungen gibt oder sagt, was gut ablauf mit dem für Menschen typischen Doch hier beginnen die Probleme mit oder schlecht war. Wie beim Menschen Geschwindigkeitsverlauf erfolgte. Er- der Akzeptanz von humanoiden Robosind dafür im Roboterhirn ein episo- staunlich war, dass die Reaktionszeiten tern. „Hat der Mask-Bot das Gesicht eidisches und ein prozedurales Gedächt- kürzer waren, wenn der Roboterarm nes Menschen, den man kennt, könnte nis vorgesehen. Dazu kommt die Mög- wie der Arm eines Menschen an einen es stark irritieren, wenn die Gesichtslichkeit, durch gedankliche Simulation Torso montiert und bekleidet war. züge nicht exakt stimmen“, sagt der InIm Raum 2020 des ICS scheint das genieur. Um zu testen, wie genau seine von Handlungen zu lernen. „Die Rahmenbedingungen der kognitiven Architektur Gesicht von Takaaki Kuratate entspannt Konstruktion werden kann, experimenbestimmen, ob sich ein Roboter etwa zu blicken. Nur hin und wieder blinzelt tiert er mit einer Maske, die exakt seinem um alte Leute kümmern oder lernen der Wissenschaftler, der am Institut von Gesicht entspricht. Doch was würde soll, sich in einem Kinderzimmer zu- Gordon Cheng forscht. Eine Videokame- passieren, wenn die zwar lebensechte, rechtzufinden“, sagt Vernon. Unfug ra hat das Gesicht des Forschers auf eine aber stumme Maske plötzlich anfinge zu wird sich iCub auf eigene Faust sprechen? Unter dem Stichwort nicht aneignen können. Auch ein „Uncanny Valley“ (das „unheimPhilosoph wird der kleine maliche Tal“) ist eine Hypothese beschinelle Racker von der Größe kannt, die besagt: Mit zunehmeneines dreijährigen Kindes nicht der Ähnlichkeit eines humanoiwerden. Denn wie der Mensch den Roboters mit einem Mendenkt, ist den Forschern noch schen nimmt die Akzeptanz irweitgehend ein Rätsel. Derzeit gendwann nicht mehr zu, sonbringt David Vernon dem iCubdern wieder ab – und kann sogar Kopf bei, wie man aufmerksam in Ablehnung umschlagen. ist, sich auf Dinge konzentriert und andere ignoriert. Denn AufDUMMHEIT NICHT GEFRAGT merksamkeit ist eine VoraussetWann sein Bot in die Nähe dieses zung für Interaktion. „Tals“ kommt, will Kuratate erWie entsteht das gute Zusamforschen. „Sieht ein Roboter lemenspiel verschiedener Aktiobensecht aus, erwarten die Mennen, wenn jemand seinem Geschen, dass er auch intelligent ist. genüber einen Gegenstand gibt Ist er es nicht, besteht die Gefahr, und der andere diesen Gegendass er abgelehnt wird“, sagt stand entgegennimmt? Stefan Brennard Pierce, der mit Kuratate Glasauer, Leiter des Zentrums für am Mask-Bot forscht. Sehr intelliSensomotorik an der neurologigent ist der Mask-Bot noch nicht, schen Klinik der Ludwig-Maximiaber auf manche Stichworte antlians-Universität München, hat wortet er kurz und bewegt dazu dazu eine Reihe von Experimenden Kopf. Und: Animiert von einer ten gemacht, bei denen eine Wie Fliegen bewegte Bilder ihrer Umgebung verarbeiMaschine entsteht eine authentiTestperson oder ein einarmiger ten, wurde zum Vorbild für Roboteraugen. Verknüpfte sche Gesichtsmimik. Passt die Industrieroboter jemand ande- Nervenzellen im visuellen Zentrum des Fliegengehirns nicht zum Gesprochenen, können (kleines Bild) steuern Richtungsänderungen im Flug. rem einen Gegenstand reicht. Missverständnisse entstehen. Wovon die Akzeptanz abhängt, lässt sich vielleicht nie EINSICHT IN DEN EINARMIGEN „Auffallend war, dass der Nehmer im- milchig durchscheinende Kunststoff- eindeutig beantworten. „Viele Kinder mer schon mit seiner Armbewegung be- maske projiziert, und Motoren drehen zeigen vor humanoiden Robotern keine gann, bevor der Arm des Gebers die oder neigen den Kopf. Denkbar wäre, Scheu. Letztes Jahr beim Tag der offenen Übergabeposition erreicht hatte“, sagt diesen „Mask-Bot“ bei Videokonferenzen Tür von CoTeSys hatte der Mask-Bot Glasauer. Er geht davon aus, dass die einzusetzen. Auch menschenähnlichen gleich viele Freunde“, sagt Kuratate. ■ nehmende Person schon am Anfang der Robotern soll er künftig ein naturgetreuKLAUS WAGNER ist WissenBewegung des Gebers, die mit einer es Gesicht geben. „Manchmal mag es geschafts- und Technikjournasanften Beschleunigung beginnt, schlie- nügen, wenn ein humanoider Roboter ein list in München. In 11/2009 ßen kann, wo und wann das Aushändi- freundliches, aber starres und abstraktes berichtete er für bdw bereits gen erfolgen wird. Übergab ein Industrie- Gesicht hat“, sagt Kuratate. „Aber für über Industrieroboter. roboter mit ruckartigen Gebärden einen eine gelungene Kommunikation von Anbild der wissenschaft


C

oT

eS ys

bild der wissenschaft 10/2012, S. 102, 28.08.2012, 15:11, HPOLL

102

bild der wissenschaft 10 | 2012


bild der wissenschaft 10/2012, S. 103, 28.08.2012, 15:12, HPOLL

SCHWERPUNKT_ROBOTER

Gordon Cheng

Leuchtturm der Robotik Gordon Cheng ist einer der Top-Wissenschaftler in der Roboterforschung. Seit zwei Jahren forscht er in München – wegen des inspirierenden Umfelds. von Bernd Müller

ZIEL: DAS LERNEN VERSTEHEN Genau darum geht es bei Chengs Forschung: herauszufinden, wie Menschen auf Roboter reagieren – und umgekehrt. „Architektur kognitiver Systeme“ heißt dieser Forschungszweig, und weil der Mensch das beste kognitive System ist, das derzeit auf diesem Planeten zu haben ist, versucht Chengs Team dieses System nachzuahmen. Es will die menschlichen Entwicklungsprinzipien verstehen – allen voran das Lernen. Cheng klappt sein Notebook auf und startet die Standardpräsentation, mit der er dem Gast erläutert, woran sein Team innerhalb des CoTeSys-Clusters an der TU München arbeitet. Die erste Folie, die auf dem schicken Flachbildmonitor erscheint, zeigt ein kleines Mädchen, das mit humanoiden Robotern spielt. „Meine Tochter“, sagt Cheng stolz, „und mein liebstes Forschungsobjekt.“ Chengs jüngste Tochter ist fünf. Wie die Kleine mit den Robotern umgeht, wie sie ihre Umwelt wahrnimmt, wie sie lernt – all das interessiert ihren Vater

Fotos: K. Fuchs für bdw (3)

C

Tanzende Bälle: Eine ulkige Figur aus zwei gelben Schaumstoffbällen zuckt oder nickt, wenn man sie berührt. Sie wurde für die Therapie von autistischen Kindern entwickelt – und ist eine von Gordon Chengs liebsten Requisiten.

brennend, weil er diese Erkenntnisse auf die Entwicklung humanoider Roboter übertragen will. „Normalerweise beschränkt sich die Robotik auf Hardware und Software“, klagt Cheng, „Neurobiologie und -psychologie fehlen völlig.“

eS ys

nology in Tokio. Seine ursprüngliche Bestimmung, bevor er seit Kurzem als abgespeckte Variante unter dem Namen „My Keepon“ für 55 Euro in Online-Shops zu kaufen ist, war die Therapie von autistischen Kindern. Ein Kollege hat den niedlichen Roboter zwei Jahre lang mit entwicklungsgestörten Kindern getestet und überraschende Erfolge erzielt, berichtet Cheng. Völlig verschlossene Kinder seien auf einmal aus sich herausgegangen, erst gegenüber Keepon, später dann auch gegenüber Menschen.

oT

GORDON CHENGS BÜRO ist ein Kinderparadies. Auf der Fensterbank stehen Spielzeugroboter, die den Star-WarsFilmfiguren nachempfunden sind, neben Mindstorms-Roboterbausätzen von Lego. Auf dem Tisch tanzt eine Figur aus zwei dottergelben Schaumstoffbällen namens Keepon zu Musik. Sie zuckt manchmal und nickt mit dem Kugelkopf, wenn man darüber streicht. Cheng platziert sich so am Tisch, dass der Besucher vor dem albernen Spielzeug zu sitzen kommt. Zufall oder Absicht? Jedenfalls drückt und tätschelt man als Besucher unwillkürlich den Eierkopf und fühlt sich wie ein Teilnehmer an einem wissenschaftlichen Experiment. Zweifel keimen auf, ob hier wirklich der zurzeit renommierteste Roboterforscher der Welt arbeitet oder nicht vielleicht doch ein 44-Jähriger, der einfach nicht erwachsen werden will. Im Verlauf des Gesprächs stellt sich heraus: Es stimmt beides, wobei letztere Annahme eine falsche Fährte ist, die der Interviewte bewusst legt, um den höheren forscherischen Zweck seiner Arbeit zu illustrieren. Bleiben wir bei Keepon. Der ulkige Tanzball wurde 2003 – natürlich – in Japan entwickelt: am National Institute of Information and Communication Tech-

DER MANN AUS MACAO Sein Interesse für Robotik hat sich erst vor gut zehn Jahren entwickelt. Geboren wurde Cheng in Macao, einer ehemaligen portugiesischen Kolonie, die heute zu China gehört. Aufgewachsen ist er in Australien. An der Wollongong University in der Nähe von Sydney hat er Computerwissenschaft studiert. Danach deutete erst einmal alles auf eine Karriere in der Industrie hin. Cheng arbeitete als Berater für eine Transportfirma und gründete ein eigenes Unternehmen namens GTI Computing, das bis heute Software zum Management von Logistiknetzen entwickelt. Doch schließlich gewann die Wissenschaft die Oberhand. An der Australian National University in Canberra bekam er Gelegenheit, über ein Robotik-Thema zu promovieren. „Mein Herz schlägt mehr für die Wis-

Kompakt

· · ·

Gordon Cheng bringt die RobotikForschung spielerisch voran. Die TU München hat eigens für ihn eine Leuchtturmprofessur eingerichtet. Cheng arbeitet an humanoiden Robotern, die lernen und sich bewegen wie ein Mensch. bild der wissenschaft 10


bild der wissenschaft 10/2012, S. 104, 28.08.2012, 15:12, HPOLL

SCHWERPUNKT_ROBOTER

oT

WELTWEIT DIE NUMMER EINS Damit ist erst einmal nicht zu rechnen. Denn nach der Promotion ging es mit der wissenschaftlichen Karriere steil bergauf. In Japan, dem Mutterland der Robotik, machte sich Cheng einen Namen als Vordenker. Weltweit gilt er heute als Nummer eins in der Robotik-Forschung. Am Labor für humanoide Interaktion des Electrotechnical Laboratory in Tsukuba sorgte er mit dem ersten vollintegrierten humanoiden Roboter für Furore. Das Geschöpf namens CB besteht aus einem Gewirr von Metallbauteilen und Kabeln. Es kann laufen, balancieren, sehen, hören, greifen und vieles mehr. CB steht für Computational Brain, und dieses Computergehirn erlaubt es, dem Roboter beim Erkunden seiner Um-

welt quasi über die Schulter zu schauen. Danach leitete Cheng die Abteilung für humanoide Roboter und Neurocomputerwissenschaft am Advanced Telecommunications Research Institute in Kyoto. Die alte Kaiserstadt ist der weltweite Brennpunkt für Robotik und künstliche Intelligenz. Was bewegt einen Top-Wissenschaftler, der ein internationales Top-Institut leitet, nach München zu wechseln? Klar, München ist mit zwei ausgezeichneten Exzellenz-Universitäten einer der führenden Forschungsstandorte in Deutschland. Aber in Sachen Robotik haben deutsche Forscher bisher keine Weichen gestellt – jedenfalls nicht, wenn es um menschenähnliche Maschinen geht. Bei Industrierobotern ist Deutschland dagegen Weltspitze. Japan wollte Cheng halten, Australien wollte ihn haben und Universitäten in Frankreich und Italien, zu denen er gute Kontakte pflegt, hätten ihn ebenfalls vom Fleck weg verpflichtet. Warum also München? „In Japan habe ich sehr isoliert gearbeitet, in Australien wäre ich noch isolierter gewesen“, sagt Cheng.

C

Auf dem Weg zur robotischen Reife: Der Automat „iCub“ lernt durch Erfahrungen in seiner Umgebung und entwickelt sich dadurch weiter – wie ein kleines Kind.

104

bild der wissenschaft 10 | 2012

Mit „isoliert“ sind nicht die sozialen Kontakte gemeint, denn Cheng wirkt gar nicht wie ein Eigenbrötler. Was fehlte, war der Austausch mit anderen Disziplinen, insbesondere mit Neurowissenschaftlern. Und damit ist klar, was den Ausschlag für München gab: Eine so hohe Dichte an Top-Forschern in fast allen denkbaren Disziplinen gibt es kaum irgendwo anders auf der Welt. Cheng ist inzwischen vernetzt mit den Biologen der TU München, mit den Molekularbiologen am Max-Planck-Institut für Neurobiologie in Martinsried und vielen weiteren Einrichtungen in der Region. SEINE FRAU GAB GRÜNES LICHT Ein Sprung ins kalte Wasser war der Umzug nach Deutschland nicht. Schon 2004 war Cheng als Gastprofessor in Karlsruhe – im Rückblick eine sehr produktive Zeit. Ohne seine Ehefrau wollte er die Entscheidung zum erneuten Wechsel des Kontinents aber nicht treffen. Daher flog Frau Cheng eine Woche vor dem geplanten Start der Berufungsverhandlungen mit nach München – und gab grünes Licht für die Isar-Metropole. Was dem Gast aus Japan in den Verhandlungen angeboten wurde, war etwas ganz Besonderes. Die Technische

eS ys

senschaft – und dem Herzen sollte man folgen“, sagt Cheng. Andererseits: „Wenn ich glauben würde, dass ein bestimmtes Produkt positive Auswirkungen auf das Leben der Menschen und die Gesellschaft hat, würde ich auch wieder in einem Unternehmen arbeiten.“


bild der wissenschaft 10/2012, S. 105, 28.08.2012, 15:12, HPOLL

Lustige Leichtigkeit: Gemeinsam mit seiner Frau Kanako tollt Cheng in der Spielecke seines Münchner Instituts, wo sonst die Kinder seiner Mitarbeiter toben. Der Forscher will Menschen für Roboter begeistern.

pflanzt hatte, lief auf einem Laufband. Die Gehirnimpulse wurden an einen Roboter übertragen, der nun ebenfalls zu laufen anfing.

eS ys

dern als Trainingsgeräte für die Roboter, die hier entwickelt werden. Der Dart-Roboter zum Beispiel geht auf eine Wette mit Kollegen des Deutschen Zentrums für Luft- und Raumfahrt zurück, die einen Roboterarm entwickelt haben. Sie behaupteten, dass es unmöglich sei, diesen Roboterarm so zu steuern, dass er den Pfeil immer auf das „Bull’s Eye“ – das rote Feld in der Mitte – oder auf ein anderes gewünschtes Feld wirft. Das CoTeSys-Team bewies, dass es doch geht – der Roboterarm trifft immer. Für die Tischtennisplatte baut das Team gerade einen Roboter, der es einmal mit Spitzenspielern aufnehmen soll.

C

oT

Universität München schuf eigens für Cheng eine sogenannte Leuchtturmprofessur. Das heißt: unbefristet, ohne Mitbewerber ausstechen zu müssen, außerdem dotiert mit einem Gehalt jenseits des Tarifvertrags für den öffentlichen Dienst. Und natürlich ein „großzügiges Willkommensangebot“, wie CoTeSys-Direktor Uwe Haass es formuliert. Dazu gehörten Räumlichkeiten mit einer Grundausstattung, für die weniger renommierte Kollegen lange schuften müssen. Eine derartige Leuchtturmprofessur ist internationalen Spitzenforschern vorbehalten, die eine Universität unbedingt haben möchte. So eine Stelle muss vom Wissenschaftsministerium abgesegnet werden, weil sie die üblichen langwierigen Auswahlverfahren umgeht. Nach seiner Ankunft ließ Cheng es bewusst ruhig angehen. Die versprochenen Personalstellen blieben im ersten Jahr unbesetzt. „Ich war noch nicht bereit dazu“, sagt er. 2011 wuchs die Gruppe dann schnell, und sie besteht mittlerweile aus etwa 15 exzellenten Nachwuchswissenschaftlern. Auch die scheinen sich wie ihr Chef vor allem mit Spielen zu beschäftigen. In den Arbeitsräumen steht eine Tischtennisplatte, an einer Wand hängt ein Dartspiel. Beides ist allerdings nicht zur Freizeitgestaltung der Wissenschaftler gedacht, son-

AFFENHIRN STEUERT ROBOTER Das Experiment hatte gleich mehrere wichtige Ergebnisse: Wenn das Laufband stoppte, blieb der Affe stehen, doch seine Gehirnzellen feuerten weiter. Der Roboter setzte seinen Marsch deshalb unbeirrt fort. Das Gehirn braucht in weniger als 200 Millisekunden ein Feedback zur Bewegung. Liegt zwischen dem Feuern der Gehirnzellen und der Bewegung des Roboters eine längere Pause, kommt das Gehirn durcheinander – wie im Experiment. Und die lange Pause gab es in diesem Experiment. Denn das Laufband mit dem Affen befand sich in den USA, Chengs Roboter dagegen in Japan, etliche Tausend Kilometer davon entfernt. Das Ziel solcher Experimente ist klar: Eines Tages soll der Mensch allein mit Gedanken Roboter steuern können, die stellvertretend dorthin gehen, wo es für Menschen zu gefährlich ist – etwa in Gebäude, die durch ein Erdbeben oder eine Flutwelle zerstört wurden, oder in ein havariertes Kernkraftwerk. Profitieren würden auch kranke und behinderte Menschen. Sie könnten ein „Exoskelett“ aus künstlichen Muskeln anlegen und damit wieder selbstständig gehen. Beim Rundgang durchs Institut fällt auf: Gordon Cheng leidet selbst an einer leichten Gehbehinderung. Ein Exoskelett braucht er zwar nicht, aber könnte die eigene Erfahrung nicht der Impuls für seine Forschung an humanoiden Robotern mit künstlichen Gliedmaßen sein? Cheng: „Gehbehinderten Menschen das Gehen wieder zu ermöglichen – das interessiert mich tatsächlich am meisten.“ ■

ÖDE MASCHINENKLÄNGE Doch zu viel Perfektion ist auch nicht gut. Das merkt man, wenn sich Roboter künstlerisch-musisch betätigen. Cheng, der klassische Gitarre spielt und in seinem Büro stets klassische Musik im Hintergrund laufen lässt, erzählt von einem Gitarrenroboter mit sensationeller Fingerfertigkeit. Was der Roboter spielt, klinge zwar perfekt, aber auch mechanisch und langweilig. Überhaupt sei es nicht das Ziel, Menschen zu ersetzen, sondern ihre Fähigkeiten mithilfe von Robotern zu erweitern. Cheng berichtet von einem Experiment, das er 2008 anstellte. Ein Affe, dem man Elektroden ins Gehirn ge-

bild der wissenschaft


bild der wissenschaft 10/2012, S. 106, 28.08.2012, 15:12, HPOLL

SCHWERPUNKT_ROBOTER

Ein Wink genügt Wenn Roboter mit Menschen kooperieren, müssen die Maschinen wissen, wie Menschen ticken – und sich deren Verhalten anpassen. von Ralf Butscher daneben stehen mannsgroße Roboter, die vor Kraft zu strotzen scheinen und offenbar auf eine fordernde Aufgabe warten. Meist sind schon einige Studenten im Labor, die mit den Geräten experimentieren: An einem Auto üben ein

Jungforscher und ein Roboter Hand in Hand einen Reifenwechsel, wenige Schritte weiter treten Studierende im Billard gegen einen fingerfertigen und treffsicheren Automaten mit menschenähnlicher Gestalt an.

eS ys

WENN SANDRA HIRCHE am Morgen in ihr Büro in der Barer Straße in München kommt, führt sie der Weg vorbei an einem Zoo von Maschinenwesen: Kleine Automaten tänzeln leise surrend durch das Central Robotics Laboratory,

C

oT

Reifenwechsel mit Roboterhilfe: In einer nachgebauten Autowerkstatt üben Münchner Forscher die kollegiale Zusammenarbeit mit maschinellen Handlangern. Das Wichtigste dabei sind Aufmerksamkeit und einfache Kommunikation.

106

bild der wissenschaft 10 | 2012


bild der wissenschaft 10/2012, S. 107, 28.08.2012, 15:12, HPOLL

Was auf der kreativen Spielwiese in den Labors der Technischen Universität München (TUM), Teil des interdisziplinären Forschungscluster CoTeSys, bereits Realität ist, soll künftig auch in Haushalten, Pflegeheimen und Handwerksbetrieben zum Alltag gehören: ein kooperatives Miteinander von Menschen und von Maschinen, die ihnen als flexible Helfer zur Hand gehen.

sches Modell gepackt, das nun auf Roboter übertragen wird. Denn: Offenbar prägt dieser unbewusste Prozess ein harmonisches Zusammenwirken. „Damit Roboter als Helfer akzeptiert werden, müssen ihre Handlungen wie die von Menschen vorhersagbar sein“, schließt die Forscherin daraus – und will deshalb auch den Maschinen dieses Merkmal des Menschseins beibringen. ZWEIERGESPANN MIT GESPÜR Um die Akzeptanz von robotischen Helfern geht es auch bei dem Versuch, Roboter so zu trimmen, dass sie Menschen bei einer gemeinsamen Tätigkeit intelligent unterstützen. Dazu ließen die Forscher Menschen mit einem Roboter einen Tisch tragen. Die Zweiergespanne hatten die Aufgabe, den Tisch rasch und ohne an Hindernissen anzuecken an ein vorgegebenes Ziel zu transportieren. Das Problem: Menschen haben bei dieser Aufgabe unterschiedliche „Komfortgefühle“ – und sind daher für Roboter schwer einzuschätzen. Bei manchen Transporten ließen die Forscher im Team von Sandra Hirche den Roboter einen vorgegebenen Anteil – zum Beispiel die Hälfte – der für die Fortbewegung notwendigen Kraft ausüben, bei anderen variierte der maschinelle Träger seinen Kraftanteil, je nachdem, wie stark sein menschlicher Partner am Tisch zog oder schob. Dazu hatte das interdisziplinäre Forscherteam den Roboter mit Sensoren ausgestattet, um die menschliche Aktivität zu verfolgen. Und: Der Roboter kannte – anders als sein Partner – exakt den Weg zum gemeinsamen Ziel und drängte den Menschen am anderen Ende des Tisches gelegentlich mit sanftem Druck dorthin. Danach bewerteten die Forscher, wie effizient das ungleiche Paar beim Transport des Möbelstücks war und fragten die Testpersonen nach ihren Eindrücken. Das Resultat: Zwar waren die Probanden besonders angetan von der Hilfe, wenn der Roboter stets mit dem vorgegebenen Kraftanteil anpackte – doch am sichersten und schnellsten ließ sich der Tisch befördern, wenn der Roboter das Maß an Unterstützung immer wieder neu justierte und an den menschlichen Träger anglich. „Nun wollen wir das Verhalten des

Fotos: K. Fuchs für bdw (3)

C

oT

eS ys

INTELLIGENTE PACKESEL Forscher wie die Ingenieurwissenschaftlerin Sandra Hirche, Professorin am TUMInstitut für Steuerungs- und Regelungstechnik und Mitglied im Vorstand von CoTeSys, und ihre Mitstreiter wollen aus stupiden Arbeitsknechten sensible, schlaue und anpassungsfähige Assis-

tenten machen, die Menschen in unterschiedlichen Situationen unterstützen und entlasten. „Sie könnten etwa als ein intelligenter Packesel beim Befördern von schweren Lasten in der Produktion oder am Bau dienen“, sagt Hirche – nicht, wie heute die Industrieroboter, in einem stählernen Käfig vor Menschen abgeschirmt, sondern gemeinschaftlich mit ihren menschlichen Meistern. Auch als Butler sollen sich Serviceroboter künftig nützlich machen und beim Kochen, Putzen oder Ausräumen der Spülmaschine helfen – oder zur Unterstützung der Pflegekräfte alten und gebrechlichen Menschen beim Umbetten oder Waschen buchstäblich unter die Arme greifen. Bei solchen Aufgaben dürfen sie nirgends anecken und niemandem wehtun. Zunächst geht es darum, die Eigenheiten des menschlichen Verhaltens zu ergründen – um mit diesem Wissen das Wesen der Maschinen menschlicher zu gestalten. Beispielhaft dafür sind die Experimente von Tamara Lorenz im Central Robotics Laboratory der TUM: Die Ingenieurin, die kurz vor dem Abschluss ihrer Promotion in Psychologie steht, untersucht, wie sich Bewegungsabläufe verändern, wenn zwei Menschen interagieren. „Typisch dafür ist die Synchronisierung“, sagt sie: „Die beiden Partner bringen ihre Körperbewegungen allmählich in Gleich- oder Gegentakt, zum Beispiel beim gemeinsamen Tischdecken.“ Das geht automatisch und weitgehend unbewusst. Und: Das Synchronisierungsprogramm des Menschen läuft wahrscheinlich auch ab, wenn das Gegenüber ein Roboter ist, fand Lorenz heraus. Zusammen mit ihrem Kollegen Alexander Mörtl hat sie den psychologischen Mechanismus in ein mathemati-

Kompakt

· · ·

Roboter, die sich flexibel auf den Menschen einstellen, beschleunigen die Arbeit im Gespann mit ihm. Besonders wichtig für maschinelle Helfer ist es, zu ahnen, was der Mensch weiter zu tun beabsichtigt. Autisten haben mehr Vertrauen zu Robotern als zu anderen Menschen.

bild der wissenschaft 10


bild der wissenschaft 10/2012, S. 108, 28.08.2012, 15:12, HPOLL

SCHWERPUNKT_ROBOTER

Menschen müssen bereit sein, diese zu tolerieren und dem Roboter zu helfen.“ Dazu ist es wichtig, ihn als soziales Wesen zu akzeptieren. „Die Basis dafür ist ein gemeinsamer Aufmerksamkeitsfokus von Mensch und Maschine“, erklärt Müller. „Er ermöglicht soziale Interaktion und gemeinsames Handeln.“ AFFEN VOR DEM BILDSCHIRM Welche Voraussetzungen der Automat dazu erfüllen muss, dem geht Stefan Glasauer nach – unter anderem in Versuchen mit Weißbüschelaffen, einer südamerikanischen Affenart, deren soziales Verhalten dem des Menschen in vielerlei Hinsicht sehr ähnlich ist. CoTeSysForscher Glasauer ist Leiter des Zentrums für Sensomotorik an der neurolo-

C

oT

VERSTÄNDNIS OHNE WORTE Das Ziel der Forscher ist, dass normale Sätze wie „Robbie, bring mir mal ein Glas Wasser!“ genügen, um die Maschine zu animieren, oder einfache Gebärden wie ein Wink oder Fingerzeig. Zwei Menschen reicht meist eine bestimmte Mimik, um sich wortlos zu verständigen. So kann ein auffordernder Blick bedeuten: „Es kann losgehen, packen wir’s an!“, ein grimmiges Gesicht vermittelt den Wunsch: „Lass mich bitte in Ruhe“. Roboter, die mit Menschen interagieren, sollen sich künftig genauso leicht mit diesen verständigen können. Dazu brauchen sie nicht nur scharfe Sinne, um ihre Umgebung zu erkunden und ständig im Blick zu behalten. Sie müssen die menschliche Mimik und Gestik richtig deuten können und die dahinter steckenden Emotionen durchschauen. Und sie müssen zunächst erkennen, dass es sich bei ihrem Subjekt überhaupt um einen Menschen handelt. „Diese Fähigkeit bezeichnet man in der Wissenschaft als ‚Theory of Mind‘“, sagt Mainzer – die Fähigkeit also, andere und ihre Absichten zu verstehen und das eigene Verhalten daran anzupassen. „Roboter mit dieser Begabung auszustatten – und zugleich mit einer eigenen

Sensibilität –, wird künftig das Forschungsziel Nummer eins in der Robotik sein. Das heißt nicht, dass sie unsere Gefühle besitzen werden, aber wenigstens eine Art von Sensibilität, um überhaupt mit uns zusammenleben zu können“, meint der TU-Wissenschaftler. Auch in umgekehrter Richtung ist die Theory of Mind von Bedeutung – bei der Frage, wie Menschen gegenüber Robotern eingestellt sind. „Wenn ein Serviceroboter neu in den Haushalt kommt, wird er zunächst viele Dinge lernen müssen“, sagt Hermann Müller, Lehrstuhlinhaber für Allgemeine und Experimentelle Psychologie an der Münchner Ludwig-Maximilians-Universität (LMU) und auch an CoTeSys beteiligt. „Er wird am Anfang Fehler machen – und die

eS ys

Roboters so austarieren, dass sich ein Optimum an Effizienz und Zufriedenheit erreichen lässt“, sagt Sandra Hirche. Roboter den richtigen Umgang mit Menschen zu lehren, ist eine Herausforderung. „Viele Dinge, die einem Menschen simpel oder selbstverständlich erscheinen, müssen einem Roboter erst einmal erklärt werden“, sagt Klaus Mainzer, Ordinarius am Lehrstuhl für Philosophie und Wissenschaftstheorie der TUM. So kann ein maschineller Lakai nur dann ordentlich den Tisch richten, wenn er weiß, was ein Löffel oder Teller ist und was für das Essen alles benötigt wird. Diese Kenntnisse lassen sich nicht programmieren. Stattdessen wird es künftig entscheidend sein, dass Automaten selbstständig lernen und Schlüsse aus Erfahrungen ziehen. Ihren menschlichen Herren muss es möglich sein, Roboter einfach und intuitiv anzuleiten – am besten so, wie sie auch einen Menschen in eine Aufgabe einweisen würden.

108

bild der wissenschaft 10 | 2012

Trickreich: Wenn Roboter „Snookie“ (hier mit Doktorand Stefan Sosnowsk) taucht, orientiert er sich mithilfe eines Sensorsystems, das von Fischen abgeschaut ist.


eS ys

bild der wissenschaft 10/2012, S. 109, 28.08.2012, 15:12, HPOLL

oT

Zielsicher ins Loch: Wer gegen den Billard spielenden Roboter antritt, den Forscher der TU München entwickelt haben, hat schlechte Karten. Denn die Maschine stößt die Kugeln präzise und gefühlvoll.

gischen Klinik der LMU. Seine Mitarbeiterin Aleksandra Kupferberg unternahm gemeinsam mit Schweizer Wissenschaftlern am Anthropologischen Institut und Museum in Zürich Experimente, wobei den Affen diverse Videos vorgespielt wurden. Darin bewegten sich ein Artgenosse, ein tierähnlicher Roboter oder ein simpler Kasten zu einem Gegenstand hin. Danach brachten die Forscher diesen Gegenstand in die Nähe der Versuchstiere, die – genau wie sie es im Video gesehen hatten – auch dorthin liefen.

C

ter auf ähnliche Weise bewegt wie ein Mensch, kann man seine Bewegungen geistig nachvollziehen – und sich in die Maschine hineinversetzen.“ Das ist zum Beispiel wichtig, um Bewegungen eines Roboters vorhersehen zu können und dadurch Kollisionen zu vermeiden. „Bei der Erforschung der Interaktion zwischen Mensch und Roboter erfahren wir Neues über den Menschen“, sagt der Neurowissenschaftler Stefan Glasauer – eine Erfahrung, die auch der Psychologe Hermann Müller gemacht hat: Er untersuchte, wie stark sich Menschen EIN KASTEN LÄSST DIE TIERE KALT durch Blicke von anderen Menschen Das Experiment klappte sowohl mit oder Robotern beeinflussen lassen, die dem Filmchen eines Artgenossen als in eine bestimmte Richtung schauen. auch mit dem Clip, in dem ein vierbeini- Das Resultat: Die meisten Menschen sind ger Roboter zu sehen war – nicht aber deutlich weniger willens, den Augen eimit dem Video des sich bewegenden nes Automaten zu folgen, als dem Blick Kastens. „Damit Affen – und wohl auch eines menschlichen Gegenübers – mit Menschen – eine Maschine intuitiv als einer Ausnahme: Probanden, die unter soziales Wesen akzeptieren, muss diese Autismus leiden, haben größeres Vereine gewisse Grundähnlichkeit haben“, trauen in die Maschinen als in Mitmenfolgert Glasauer. „Wenn sich ein Robo- schen. „Autisten haben Schwierigkeiten

mit Abläufen, die nicht exakt vorhersehbar sind“, erklärt Müller. „Daher empfinden sie das Berechenbare an Maschinenwesen offenbar als wohltuend gegenüber der Launenhaftigkeit von Menschen.“ Bei allen Bemühungen, Roboter einem Benimmkurs im Umgang mit Menschen zu unterziehen – „die hierarchische Ordnung mit dem Roboter als Diener des Menschen muss dabei stets gewahrt bleiben“, sagt Hermann Müller. Michael Zehetleitner, Psychologe und Mitarbeiter an Müllers Münchner Institut, betont: „Roboter allzu menschlich zu machen, kann nicht das Ziel sein, denn das hätte groteske Folgen.“ Wer etwa wollte dann den Abschaltknopf seines maschinellen Butlers betätigen, wenn der ihn anfleht: ■ „Bitte schalte mich nicht aus!“ RALF BUTSCHER ist Technikredakteur bei bdw. Hin und wieder wünscht er sich ein Roboter-Helferlein.

Der „emotionale“ Roboterkopf „Eddie“ erkennt menschliche Mimik und ahmt sie nach. Folgen Sie ihm per Daumenkino.


bild der wissenschaft 10/2012, S. 110, 28.08.2012, 15:12, HPOLL

SCHWERPUNKT_ROBOTER

Erfolgreiches Quartett Bei CoTeSys setzt man auf die Kreativität von Wissenschaftlern aus unterschiedlichen Disziplinen. von Klaus Wagner

JÖRG CONRADT

telligente und kreative Systeme interessierten ihn mehr. Daher studierte er zusätzlich Neurobiologie und promovierte in Neuroinformatik. „Als Ingenieur und Neurowissenschaftler steht man ständig in einem Spannungsverhältnis, wenn ein biologisch inspiriertes technisches System nicht funktioniert“, sagt Conradt. Da ist einerseits die Versuchung, unter Zeitdruck nach einer technischen Problemlösung zu suchen – und andererseits die Motivation, dem biologischen Vorbild möglichst nahe zu kommen. „Würde ich mich als Professor nur noch um Managementaufgaben kümmern sowie Visionen und Projekte entwickeln, ginge mir das Gefühl fürs Machbare verloren“, sagt der tatkräftige Wissenschaftler. Deshalb legt er im Labor gern selbst mit Hand an und stellt Prototypen von Robotern her – um zu zeigen, dass auch Der Ingenieur und Neurowissenschaftler schafft den Spagat funktioniert, was er zwischen technischen Lösungen und Nacheifern der Natur. sich ausgedacht hat.

Fotos: K. Fuchs für bdw (4)

C

oT

eS ys

EIN ARM FÜR DIE BODENHAFTUNG Jörg Conradt ist einer von fünf Juniorprofessoren bei CoTeSys. Er leitet eine Arbeitsgruppe am Lehrstuhl für Steuerungs- und Regelungstechnik der Technischen Universität (TU) München. Er will einen mobilen einarmigen Roboter bauen, der intelligentes Verhalten zeigt. Wie das menschliche Gehirn soll auch das Elektronenhirn des Roboters Informationen aus der Umwelt multizentrisch und parallel verarbeiten. „Unsere alltägliche Umgebung ist viel zu kompliziert, als dass sich ein Roboter darin zurechtfinden könnte, der nur mit exakten Definitionen und Anweisungen ausgestattet ist“, sagt der Forscher. „Schon kleine Veränderungen würden ihn aus dem Konzept bringen.“ Conradt war zweimal erfolgreich beim Wettbewerb „Jugend forscht“, später folgten ein Master in Informatik und ein Diplom in Elektrotechnik. Aber nur Geräte zu entwickeln und Programme zu verfeinern, war ihm zu wenig. In-

PSYCHOLOGIE EINFACHER HANDGRIFFE AGNIESZKA WYKOWSKA Geht es um Kognition, Wahrnehmung, nieure versuchen, intelligente Roboter zu bauen, die Akzeptanz und soziale Interaktion, dann auf Modellsystemen für kognitive Prozesse basieren. sind Psychologen gefragt. Das gilt auch Alltägliche Handlungen zerpflückt Agnieszka für Roboter, die intelligent werden und Wykowska in einzelne Phasen und analysiert diese. direkt mit Menschen interagieren sollen. „Eine Tasse zu greifen und an einem anderen Ort „Es ist ein großer Fortschritt, dass Roboabzustellen, ist ein enorm komplizierter Prozess. ter-Ingenieure und Psychologen seit ein Man bedenke, wie lange ein Kleinkind benötigt, paar Jahren eng zusammenarbeiten“, das zu lernen“, sagt sie. „Und nun sollen das sagt Agnieszka Wykowska. Im polnischen auch Roboter begreifen.“ Langfristig will sie verKrakau hat sie Philosophie studiert, der stehen, wie Handlungsziele erreicht werden Master für neurokognitive Psychologie und wie Wahrnehmung und Handlung verund der Doktortitel wurden ihr vom Insti- knüpft sind. Dafür ist viel Kreativität von ihr tut für Experimentelle Psychologie der gefordert, nicht zuletzt im Lehrbetrieb an LMU München verliehen. Dort bereitet der Universität: „Lehre ist der beste Weg, sie sich auf die Habilitation vor. Mit die kompliziertesten Sachverhalte zu verGründung von CoTeSys begann sie sich stehen“, meint sie. für die Mensch-RoboterAufgaben, die Menschen im Alltag mit links erledigen, Interaktion zu interessiebringt die Polin Schritt für Schritt auch Robotern bei. ren – und dafür, wie Inge-

110

bild der wissenschaft 10 | 2012


bild der wissenschaft 10/2012, S. 111, 28.08.2012, 15:12, HPOLL

CHRISTINA LICHTENTHÄLER

wie sie in der Wirtschaftsinformatik gebräuchlich sind – „zum Beispiel eine Personalisierung wie bei individuellen Produktempfehlungen im Internet. Das lässt sich auf Roboter übertragen, die ihr Verhalten an das individuelle Verhalten von menschlichen Partnern anpassen“. Lichtenthäler ist auch Sprecherin des CoTeSys Graduate Center – einer Einrichtung, um den Doktoranden eine strukturierte Ausbildung zu ermöglichen. Dort finden regelmäßig Treffen statt. Das schafft Gelegenheiten, sich zu vernetzen und auch einmal ohne Professoren und Betreuer über Probleme zu diskutieren. Ursprünglich hatte sie Physik studiert, aber als ihr erstes Kind zur Welt kam, unterbrach sie ihr Studium. Später setzte Christina Lichtenthäler ihren akademischen Weg fort, indem sie Informatik studierte. Professorin würde sie gerne werden, aber die damit verbundenen Ortswechsel will sich die inzwischen zweifache Mutter momentan nicht zumuten. Daher sieht sie ihre Zukunft in der Forschungs- und EntMit Kniffen aus dem Web macht die Wirtschafts- wicklungsabteilung eines informatikerin Maschinen menschenfreundlich. Industrieunternehmens.

oT

eS ys

WIE ROBOTER AUS FEHLERN LERNEN „Roboter sollen menschenfreundlicher und anpassungsfähiger werden. Das ist mir sehr wichtig“, sagt Christina Lichtenthäler. „Sie sollen beurteilen können, ob sie etwas richtig oder falsch gemacht haben und aus Fehlern lernen.“ Die Doktorandin in der Forschungsgruppe für intelligente autonome Systeme der TU München untersucht im Rahmen von CoTeSys, wie man aus der Körpersprache eines Menschen den Verlauf einer Interaktion mit einem Roboter beurteilen kann. Was Lichtenthäler, die einen Mastertitel für Wirtschaftsinformatik trägt, an dieser Promotionsarbeit besonders gefällt: Sie kann selbst entscheiden, was sie tut und die Projekte gemeinsam mit Psychologen und Neurowissenschaftlern realisieren. Sie arbeite sehr anwendungsorientiert, meint Lichtenthäler, und daher sei die Zusammenarbeit mit Wissenschaftlern aus der Grundlagenforschung manchmal auch etwas anstrengend. Bemerkenswert an ihrer derzeitigen Aufgabe findet Christina Lichtenthäler, dass die Roboter ähnliche Methoden nutzen können,

C

VON BLINDEN FISCHEN LERNEN ANDREAS VOLLMAYR brierung der Strömungssensoren des Roboters hat der Mit Untersuchungen zum „cercalen SinPhysiker eine neuartige Messvorrichtung konstruiert. nessystem“ von Grillen begann Andreas Entstanden ist der blinde künstliche Taucher im RahVollmayr seine Dissertation. Die Insekten nutzen dieses System, um feine Luftströ- men eines Studentenprojekts, das erst im Lauf der Zeit in den CoTeSys-Cluster eingegliedert wurde. mungen wahrzunehmen und daraus abZwei Projekte parallel am Laufen zu halten, bedeutet zuleiten, ob sich ein Räuber in der Nähe eine enorme Belastung – zumal Andreas Vollmayr neben befindet. Doch dann stand der Physiker vom Lehrstuhl für Theoretische Biophysik der Betreuung von Studierenden auch noch eine Lehrder TU München plötzlich mit zwei völlig verpflichtung hat. Doch der Physiker nimmt es sportlich: „Man muss sehr schnell sehr viel lernen und mit unterschiedlichen Aufgabenstellungen dem notwendigen Pragmatismus an die Arbeit gehen.“ da. Denn einer der Initiatoren des NachDer Jungforscher gibt sich cool und lacht viel. Seine bar-Projekts „Snookie“ ging in die InArbeitstage seien total zerpflückt, sagt er. dustrie – und Vollmayr übernahm auch seine Aufgabe. Selten habe er zwei bis drei Stunden am Snookie ist ein zylinderförmiger Unter- Stück Zeit, um über theoretischen Fragen wasserroboter (siehe Bild auf S. 108). zu brüten. Das liegt auch daran, dass es Analog zu einem blinden Höhlenfisch, für Snookie kaum etwas von der Stange der mit seinem sogenannten Seitenlinien- gibt und man die Bauteile und Messvororgan anhand von Wasserströmungen richtungen häufig erst selber herstellen muss. Im Grund ist Snookie eine HerausHindernisse und die Struktur von Oberforderung an den Erfindergeist. flächen in seiner Umgebung erkennen kann, soll der Roboter sein Umfeld wahr- Der vielseitige Forscher kennt sich mit den Sinnen von Grillen ebenso aus wie mit der Technik eines pfiffigen Tauchroboters. nehmen. Für die Kali-


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.