6 minute read

Weniger Hysterie

Immer mehr Experten warnen vor den Risiken der künstlichen Intelligenz. Warum die Ängste zwar begründet sind, uns aber etwas weniger Hysterie gut täte –ein Gespräch mit dem KI-Fachmann Dietmar Millinger.

Die Angst vor der künstlichen Intelligenz kann laut Millinger zu einer Überregulierung führen. Das habe zur Folge, dass die positiven Potenziale auf der Strecke bleiben.

Advertisement

Geoffrey Hinton gilt als Pionier im Bereich Deep Learning, einem der wichtigen KI-Verfahren. Zuletzt hat er für Google gearbeitet und erst unlängst hat er vor „ernsten Risiken für Gesellscha und Menschheit” gewarnt, die mit Sprachmodellen wie ChatGPT einhergehen würden. Damit ist Hinton nicht allein. Auch KI-Fachmann Dietmar Millinger ist skeptisch. Der studierte Informatiker ist Gründungsmitglied von AI Austria und beschä igt sich intensiv mit den Chancen der künstlichen Intelligenz. Im Gespräch mit Südtirol Panorama spricht er über die berechtigten und unberechtigten Sorgen der KI-Warner.

SÜDTIROL PANORAMA: Es gibt immer mehr Experten, die vor KI warnen. Sind ihre Ängste berechtigt?

DIETMAR MILLINGER: Die Ängste gegenüber KI sind ein sehr schwieriges ema – und auch in mir wohnen hier zwei Seelen. Denn bei KI haben wir eine Entwicklung, deren Ausgang wir nicht abschätzen können. Ähnliches ist ja noch nie passiert. Es kann damit also ein relativ hohes Risiko assoziiert werden. Und so gibt es Leute, die furchtbare Szenarien malen. Einige sagen sogar „AI will kill us all“ – ohne jegliches substanzielle Argument, warum das passieren sollte. Das Problem dabei: Die Angst kann zu überstarker Regulierung führen, mit der Folge, dass wir die positiven Potenziale von KI nicht nutzen können.

Wie schätzen Sie persönlich die Entwicklung ein?

möglichen Regulierung von KI-Systemen nde ich positiv. Dass man sich etwa auf Trainingsdatensätze einigt, wo das übelste Zeug aussortiert wird. Bisher haben wir hier noch Wildwest-Zustände.

Es gibt also Regulierungspotenzial. Zu einer Überregulierung sollte es aber nicht kommen?

Genau. Das, was die EU momentan zur Regulierung vorschlägt, wäre der Tod der KI-Forschung in Europa. Dabei wäre es sehr wichtig, dass es europäische Sprachmodelle gibt, die mit Daten trainiert wurden, die unserem Wertekanon entsprechen. Dass es eben nicht nur chinesische oder amerikanische Modelle gibt.

Warum?

Dietmar Millinger

Dietmar Millinger kuratiert die KI Akademie des WIFI Niederösterreich und ist Lehrbeauftragter für künstliche Intelligenz an den Fachhochschulen St. Pölten, Hagenberg, Kufstein und Technikum Wien. Zudem ist der studierte Informatiker Gründungsmitglied von AI Austria, einer Plattform und ein unabhängiger gemeinnütziger Think Tank, der den Wissensaustausch sowie die Schaffung und Weiterentwicklung von Rahmenbedingungen fürkünstliche Intelligenz in Österreich fördern, koordinieren und organisieren will. Millinger arbeitete nach seiner Promotion an der TU Wien zunächst in der Automobilindustrie, dann trat er in den Start-up-Markt ein. Heute arbeitet er in diesem Bereich unter anderem an Machine-Learning- und Deep-Learning-Projekten.

Wir tendieren ja seit einigen Jahren immer mehr dazu, Sachen ständig hysterisch und überemotional zu sehen. Dadurch werden extreme Spaltungen in der Gesellscha erzeugt. KI-Systeme könnten da wieder eine „ruhige Mitte“ erzeugen, die sehr konstruktiv sein könnte. Für mich ist Gewalt oder das Töten von Organismen ein sehr irrationaler Vorgang. Von einer gut trainierten KI würde er wohl nicht für eine gute Idee gehalten.

Der positive Nutzen von Sprachmodellen entsteht durch den konstruktiven Einsatz. Und diesen Nutzen könnten wir in Europa in einer riesigen Breite konstruktiv einsetzen: Wir haben in Europa zahlreiche kleine und mittelgroße Betriebe, die noch eine sehr schöne Wertschöpfung haben. Wenn diese mithilfe von europäischen KI- oder Sprachmodellen noch produktiver werden, wäre das nur von Vorteil. Etwa im Vergleich zu den Amerikanern, die nicht so viele kleine und mittlere höchst produktive Betriebe haben. Und bei den Chinesen schaut es noch einmal anders aus. Ihre Modelle würden bei uns wohl einen Bias reinbringen, den wir nicht brauchen.

Sehen Sie in künstlicher Intelligenz mehr Chancen oder mehr Herausforderungen?

Mitte Juni war Millinger einer der Referenten der Tagung „KI goes Business – Fluch oder Segen?“ im Bildungshaus Lichtenburg in Nals.

Das hängt vom Zeithorizont ab. Den Begri KI gibt es seit 1956 –und man hat über viele Jahrzehnte darin unheimlich viele Chancen gesehen. Aber diese Erwartungen konnten nie erfüllt werden. Eigentlich immer deshalb, weil die Realität wesentlich komplexer war, als es die Forscher angenommen hatten.

Und was ist mit der Diskriminierung, die KI vorgeworfen wird, etwa in der Medizin oder im Recruiting?

Die Trainingsdaten dieser Systeme stammen ja hauptsächlich von weißen Männern. Deshalb benachteiligt KI andere Geschlechter und Ethnien. Das ist ein Problem, das behandelt werden muss. Die Trainingsdaten müssen zu einer breiteren Wissenscha werden. Diesen Aspekt einer

Können Sie dafür ein Beispiel anführen?

Es gab die Idee von Expertensystemen. Einer So ware, in die man etwa das Wissen eines Arztes oder einer Designerin reinpackt und anderen zugänglich macht. Es hat aber nicht funktioniert. Ganz einfach, da viele Expertinnen und Experten gar nicht wissen, was sie alles wissen.

Die künstliche Intelligenz soll in Unternehmen Arbeitsvorgänge optimieren. Und Menschen sollen entlastet werden. Laut Millinger vor allem bei langweiligen, stupiden und gefährlichen Aufgaben, die keiner machen will.

Das Extrahieren des Wissens war also die Hürde für die Expertensysteme?

Ja. Dies weist auf spannende Elemente hin: Wie kommt man überhaupt zu Daten, zu Wissen? Und wie baut man ein System auf, das dieses Wissen verarbeiten kann? Diese Aspekte konnten erst jüngst gelöst werden. Mit den aktuellen Modellen kann man zum Beispiel Wissen aus Text extrahieren und komprimiert darstellen. Diese Revolution basiert wiederum auf künstlich neuronalen Netzwerken, die es in gewissen Konstellationen scha en, Wissen zu komprimieren. Diese Revolution hat erst 2013 begonnen.

Was ist damals passiert?

Man hat gelernt, wie man Texte für das Training von einem neuronalen Netzwerk verwenden kann, sodass ein Bedeutungsraum entsteht. Einen solchen kann man sich wie eine Landkarte vorstellen, die nicht nur zwei Richtungen hat, sondern zum Beispiel 30.000.

Anders formuliert: Ich kann mich von jedem Punkt aus in 30.000 Richtungen bewegen und bekomme eine neue Bedeutung?

Genau. Einzelne Worte haben in so einem Bedeutungsraum ihren Platz, aber auch Sätze oder ganze Dokumente. Und je nachdem, wie ich die Frage an das System stelle, bekomme ich von diesem Punkt aus eine Antwort, dies wieder in Textform. Doch auch ein Bild kann zu so einem Punkt führen, und ich bekomme dann aber einen Text heraus. Hier kommt die Multimodalität ins Spiel. Die Bedeutungslandkarte ist einer der Schlüssel in der Entwicklung von KI. Die Karten sind so groß und dicht gefüllt, dass dort fast alle denkbaren und auch nicht denkbaren Bedeutungen codiert sind. Wir werden es deshalb nie scha en, alle Texte, die ChatGPT erzeugen könnte, auch wirklich zu erzeugen.

Warum?

Weil unser kultureller Kontext sehr ähnlich ist. Eine Kunst, die gerade am Entstehen ist, ist das sogenannte Prompt Engineering: Wie stelle ich Fragen so schlau, dass etwas Neues, etwa Kreatives dabei rauskommt?

Wenn wir es schaffen, die richtigen Fragen zu stellen, welche Chancen entstehen dann in Zukunft durch KI-basierte Sprachmodelle?

Die Gesellscha hat jetzt die Chance, diese Dinge zu nutzen und etwas „Gscheites“ daraus zu machen. Es wird natürlich nicht eine Lösung für alle geben, sondern viele, viele kleine Lösungen. Ein Sprachmodell kann zum Beispiel für einen kleinen Malerbetrieb hilfreich sein, etwa um einen kurzen Zeitungsartikel oder um ein Posting für Social Media zu schreiben. Mit solchen Modellen unsere Gedanken zu ordnen oder auf neue Gedanken zu kommen, das kann sehr konstruktiv sein. Andererseits haben wir es in Mitteleuropa noch nicht einmal gescha , die alten KI-Methoden produktiv einzusetzen, sprich: die Digitalisierung und die Umsetzung der einzelnen Möglichkeiten.

Wo liegt das Problem?

Das Hauptproblem ist das Wissen über die Möglichkeiten. Viele wissen nicht, dass es digitale Werkzeuge gibt, die sehr konkret eine Arbeitserleichterung darstellen. Diese Dinge entwickeln sich zudem schnell weiter. Bis diese Entwicklungen bei den Menschen ankommen, müssen sie o transformiert und in eine bestimmte Form gebracht werden. Für die KI-Sprachmodelle wie ChatGPT ndet diese Transformation gerade statt.

Inwiefern?

Viele Firmen bauen die Modelle in ihre Produkte ein. Bald sehen wir sie also bereits auf Microso Word oder auf Smartphones – und dann werden weitere Unternehmen folgen. Als Sprachmodelle bezeichnet man sie übrigens deshalb, weil sie Text zu Text verarbeiten – also Frage rein, Antwort raus. Doch diese Idee ist nicht auf Text reduziert.

Handwerk kann laut Dietmar Millinger nur bei sehr standardisierten Vorgängen automatisiert werden: „Wir werden wohl auch in zehn Jahren keine Elektriker-Roboter sehen.“

Ich könnte zum Beispiel so ein Modell auch mit 1.000 Architekturplänen trainieren. Es funktioniert ja bereits mit Bildern, mit Audio und mit allen möglichen anderen Daten.

Wo werden wir KI künftig hauptsächlich nutzen?

Vor allem für die Optimierung von Arbeitsvorgängen. Der Punkt, wo Firmen am ehesten ansetzen müssten, ist bei folgenden Fragen: Was ist langweilig und stupide? Was ist gefährlich? Oder was will keiner machen? Das wären für mich die drei Dinge, wo man schauen sollte, Menschen zu entlasten.

Berufe der Zukunft, so heißt es immer wieder, seien jene, in denen es Empathie braucht und wo der zwischenmenschliche Kontakt wichtig ist. Gibt es –neben der IT – weitere „unersetzbare“ Bereiche?

Ein ganz wichtiger ist das Handwerk. Dieses wird sehr schwer zu automatisieren sein, Handwerk ist mehr als So ware, man muss raus in die Welt und dort was machen. Handwerk kann nur bei sehr standardisierten Vorgängen automatisiert werden. Ich denke nicht, dass wir in den nächsten zehn Jahren Fließenleger-, Elektriker- oder Friseur-Roboter sehen werden. Das alles sind Dinge, die physikalische Arbeit benötigen – und auch die Intelligenz von Menschen, die die jeweilige Situation richtig einschätzen. Und wäre so etwas bereits automatisierbar, wäre es nicht wirtscha lich.

Heißt das, dass ein KI-gestützter Roboter teurer als menschliche Arbeitskraft ist?

Ja, nicht nur das Kaufen, sondern auch das Warten von Robotern. Das skaliert nicht wie So ware.

Wird es je Handwerksroboter geben?

Ich glaube nicht, dass diese überhaupt kommen werden. Auch weil es mitunter um die tiefere Bedeutung geht: Es geht auch um den sozialen Kontakt. Wenn jetzt plötzlich die Frage au aucht, wie es ist, wenn auf der anderen Seite eine Maschine ist, beginnen wir darüber nachzudenken, aus wie vielen Verbindungen unser Leben besteht und für wie viele Fälle wir akzeptieren würden, dass Maschinen einbezogen werden – und für wie viele Fälle nicht.

INTERVIEW: SIMONE TREIBENREIF