2 minute read

ChatGPT braucht Regeln

Das Thema ChatGPT hat seit der Einführung im November 2022 die Aufmerksamkeit massiv auf die Themen KI und Sprachmodelle gelenkt. Eine Studie zeigt die Möglichkeiten und Gefahren der Nutzung.

Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) eine Studie zu ChatGPT durchgeführt. Untersucht werden sollte, inwiefern das Computermodell der Firma OpenAI die deutsche Bildungs-, Forschungs- und Verwaltungslandschaft beeinflussen kann. Nun liegen die Studienergebnisse vor.

„Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, sagt Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt. Albrecht ist Autor der rund 100 Seiten starken Studie „ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen“. „Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir ver- einbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“

Eloquente KI

Das scheinbar grenzenlose Wissen der Dialog-KI und ihre immer wieder verblüffende Eloquenz führt

Soziologe Albrecht auf zwei technologische Durchbrüche zurück:

„Diese neue Art künstlicher neuronaler Netzwerke, die sogenann- ten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greife ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.

Albrecht sieht für ChatGPT einige plausible Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die

Dieses Modul transportiert und transformiert Daten aus und von den verschiedenen Serviceportalen und Übertragungswegen und sichert deren Kompatibilität für die weitere Bearbeitung. Damit mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungseffekte betreffen demnach künftig nicht nur Bereiche wie Dialoge mit Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung.

Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“

Bildung und Forschung

Auch für Bildung und Forschung sieht Albrecht Einsatzmöglichkeiten. Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen der Studie zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber. „Ich kann mir gut vorstellen“, sagt Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System

Weitere Informationen

Nehmen Sie gerne Kontakt zu uns auf. [ marketing@prosoz.de ]

Mehr zu Prosoz finden Sie außerdem hier: [ www.prosoz.de ] wie ChatGPT nur sehr bedingt helfen.“ In der Wissenschaft könnten ChatGPT & Co. die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest. su

Weiterlesen

Die Studie kann hier im Volltext heruntergeladen werden: [ https://voge.ly/vglt8R4 ]

Weiterhören

Dr. Steffen Albrecht geht in Episode 7 unseres Podcasts„Unbürokratisch“ näher auf die Ergebnisse der ChatGPT-Studie ein: [ https://voge.ly/vgl92JR ]

Die nächste Ausgabe der eGovernment erscheint am Montag, den 26. Juni 2023. Das SPEZIAL dieser Ausgabe widmet sich dem Thema Digital Education. Anzeigenschluss ist der 12. Juni 2023.

Anzeigenhotline: 0821/2177-212, Lesertelefon: 0821/2177-194

Optimal Systems

Hannover: Digital-Profi für Behörden

This article is from: