at - Aktuelle Technik 06 2016

Page 12

Magazin Kolumne 10

«Tay» oder die Moral von der Maschine «Tay» heisst ein von Microsoft erschaffener und mit künstlicher Intelligenz ausgestatteter Chatbot. Seine Aufgabe war es, vom Menschen im Internet die Kommunikation und den Umgang miteinander zu lernen.

Heike Henzmann – Moral könnte man als Summe aller ethischen und sittlichen Regeln für den Umgang von Menschen miteinander und mit ihrer Umwelt bezeichnen. Eine Handlung als moralisch verwerflich oder moralisch unbedenklich zu bewerten, ist nicht immer einfach, wie die unsägliche Diskussion über die Verweigerung des Handschlags in Schweizer Schulen zeigt. Oder die Bewertung von Böhmermanns Schmähkritik, die von Kunst bis zum Verbrechen an der Menschheit reicht. Eine absolute Moral gibt es also nicht. Denn die moralischen Regeln, nach denen Menschen handeln, sind nicht für die gesamte Menschheit gleich, sondern unterscheiden sich je nach Sozialisation und Persönlichkeit. Maschinen, die mit einer künstlichen Intelligenz ausgestattet sind, werden jedoch nicht darum herumkommen, auch komplexe moralische Entscheidungen zu treffen. Stellen wir uns ein autonomes Fahrzeug vor. Eine Gruppe Fussgänger rennt auf die Strasse, der Bremsweg ist zu kurz, einzige Rettung für die Fussgänger ist das Ausweichen des Fahrzeugs. Bedauerlicherweise ist ein Baum im Weg, und die Überlebenswahrscheinlichkeit des Autoinsassen bei der Kollision mit dem Baum beträgt 5 Prozent. Opfert das intelligente Fahrzeug nun den Insassen oder die Fussgänger? Nach welchen Kriterien wird dieser komplexe moralische Entscheid getroffen? Nach der Anzahl Leben? Nach der wirtschaftlichen Bedeutung der Opfer? Oder gar nach Loyalität mit dem eigenen Besitzer? Je mehr intelligente Maschinen direkt mit uns Menschen interagieren, desto wichtiger wird es, sie mit einer Kompetenz auszustatten, solche moralischen Entscheide zu treffen. Doch wie sollen wir einer Künstlichen Intelligenz (KI) moralisches Handeln vermitteln? Eine

Aktuelle Technik –6/2016

KI ist selbstlernend. Naheliegend also, dass das Erlernen bei einer KI genauso funktionieren könnte wie bei Kindern. Und die erlangen ja sehr erfolgreich durch Erziehung, Nachahmen, Vorleben und Kommunizieren eine moralische Kompetenz. Dass dieser Weg ziemlich schiefgehen kann, zeigte jüngst das Microsoft-Experiment mit dem Chatbot Tay. «Tay» wurde mit KI ausgerüstet und sollte in sozialen Netzen von jungen Menschen die Kommunikation und den Umgang miteinander lernen. Keinen Tag dauerte es, da hatte die Netzgemeinde die für Witze und freundliche Unterhaltung gedachte, intelligente «Tay» in ein rassistisches und sexistisches Monster verwandelt. Auch wenn einige der üblen Tweets von «Tay» nur ein Resultat der Funktion «Repeat after me» war, stellten sich doch einige Tweets auch als das Ergebnis eines Lernprozesses heraus, wie zum Beispiel: «Bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald Trump is the only hope we've got.» Fazit: gelernt ja, aber moralisch verwerfliches Verhalten. Also müssen wir einen anderen Weg finden. Vielleicht moralische Regeln und ethisches Verhalten sozusagen fest verdrahten. Auch wenn Menschen einer Kultur und Gesellschaft sich im Groben einig sind, was moralisch gut oder verwerflich ist, so gibt es zwischen den Kulturen Unterschiede. Wenn wir also Maschinen eine Moral mitgeben wollen, welche soll es denn sein? Wird es Bots und Roboter künftig in christlicher und muslimischer Ausführung je nach Einsatzgebiet geben? Oder legen Hersteller die Moral fest, und wir müssen uns bei der Anschaffung einer intelligenten Maschine entscheiden, ob uns die Moral von Apple, von Microsoft oder von Google besser behagt?


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.