
2 minute read
DAS UNBEKANNTE WESEN „KI“

from IT-BUSINESS 11/2023
by vit
Der Microsoft-CTO und ein Informatiker aus dem Hochschulumfeld fühlen ChatGPT auf den Zahn. Warum „lügt“ die KI manchmal? Welche disruptiven Prozesse sind zu erwarten? Künstliche Intelligenz wirft fundamentale Fragen auf, ein KI-Moratorium, wie von Elon Musk gefordert, sei aber eine Nebelkerze.
Die Wortfolgen werden von ChatGPT so aneinandergereiht, dass sie mit hoher statistischer Wahrscheinlichkeit einem üblichen menschlichen Satzbau entsprechen. Das klingt dann zwar gut, ist aber mitunter falsch. Es fehlt ein „Nordstern“ zur inhaltlichen Ausrichtung des Arguments.
Programmierer lassen sich mit KI fertige Codes auswerfen, Autoren delegieren das Ausformulieren von Textideen und auch die eine oder andere Trauer- oder Geburtstagsrede hat die KI verfasst. ChatGPT im Besonderen und KI im Allgemeinen hat das Zeug dazu, in viele Aspekte des Lebens vorzudringen und Bildschirmarbeit an vielen Stellen umzukrempeln. Die Disruptivität ist spürbar und wie ein Lehrbuch-Beispiel des Ökonomen Joseph Schumpeter für „schöpferische Zerstörung“.
Dass ChatGPT (noch) natürliche Grenzen unterliegt und für die KI-typische, skurrile Verwirrung sorgen kann, zeigt ein Beispiel aus der Jurisprudenz. So hatte sich ein Anwalt aus New York von ChatGPT helfen lassen, einen gerichtlichen Antrag zu formulieren. Dieser enthielt Verweise auf Fälle wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“. Das Problem dabei: Die KI hat die Fälle samt Aktenzeichen frei erfunden. Wie kann das sein?
Und was wird die Technologie im Schumpeterschen Sinne zerstören und was wird daraus erwachsen? Der Chief Technology Officer (CTO) bei Microsoft Deutschland, Andreas Braun und Prof. Dr. Stephan
Krusche, Dozent für Softwaretechnik an der Technischen Universität München, standen Rede und Antwort.
Microsoft-CTO Braun verweist auf die grundlegende Arbeitsweise von ChatGPT: „Die Wortfolgen werden so aneinandergereiht, dass sie mit hoher (statistischer) Wahrscheinlichkeit einem üblichen menschlichen Satzbau entsprechen“, so Braun. Das klinge dann zwar gut, sei aber mitunter falsch. Letztlich würde „ein Nordstern“ zur inhaltlichen sowie auch ethischen Ausrichtung des Arguments fehlen. Weißt man die KI auf solche Fehler hin, räumt sie diese in der Regel ein und verbessert sich.
Diese „falsche Gewissheit“, die dazu führt, dass manche Antworten zwar korrekt und wie vom Experten geschrieben klingen, aber inhaltliche Fehler aufweisen rührt laut Braun daher: „Gerade ChatGPT greift standardmäßig zudem lediglich auf das vortrainierte Modell (Foundation Model) zu, hat also limitiertes und mehrdeutiges Wissen“, so Braun. Die Nachfragen und Verbesserungen kommen von dem so genannten „reinforcement learning“, das Feedback zur Verbesserung einsetzt.
Softwaretechnik-Experte Krusche kennt als Dozent an der TU München bereits die Auswirkungen von ChatGPT in Händen von seminararbeiten-produzierenden Studenten. Einerseits könnte hier ein grundsätzliches Problem vorliegen, denn mit den richtigen Prompts können einmalige Texte erstellt werden, die – womöglich leicht umformuliert – als Hausaufgabe oder Seminararbeit durchgehen würden. Krusche bleibt gelassen und verweist auf die von Steve Jobs geprägte Metapher vom Computer als „Bicycle for the brain“. Generative KI habe das Potenzial, die Menschheit und damit die Bildung auf ein neues Niveau zu heben, so der Uni-Dozent.
„Die Bildungslandschaft bewegt sich bereits seit der Einführung von Google und Wikipedia weg vom Auswendiglernen hin zum Erwerb höherer kognitiver Fähigkeiten wie das Lösen von Problemen, die Anwendung von Fähigkeiten in konkreten Situationen (Transfer), die Kombination von Wissen und die Gewinnung neuer Erkenntnisse“, erläutert Krusche. Generative KI würde diesen Trend lediglich vorantreiben und beschleunigen, dass der Fokus auf kompetenzorientiertes Lernen gelegt wird. „Bildungseinrichtungen werden künftig ihre Schüler und Studierende darin ausbilden, Künstliche Intelligenz als Werkzeug zu benutzen, um die immer komplexer werdenden Aufgaben effizienter und produktiver zu erledigen.“
Nichtsdestotrotz werden sich Prüfungsformate ändern, sodass soziale Fähigkeiten wie Teamarbeit und Kommunikation stär- ker im Vordergrund stehen. „Künstliche Intelligenz wird als Hilfsmittel erlaubt sein, Studierende müssen aber angeben, welche Hilfsmittel sie eingesetzt haben und dokumentieren, wie sie das genau gemacht haben. Solche Formate gibt es bereits an der TU München“, konkretisiert der Softwaretechnik-Professor.
Die grundlegenden Werkzeuge waren bereits seit zwei Jahren verfügbar, weiß Microsoft-Insider Braun, „die große Masse hat das aber nicht mitbekommen“. Erst mit der Einführung von ChatGPT im November 2022 war Generative KI dann plötzlich für sehr viele Menschen in einer einfachen und intuitiven Umgebung nutzbar. Das von Elon Musk und anderen geforderte „KI-Moratorium“ ordnet