
1 minute read
Künstliche Intelligenz unter Beobachtung

from eGovernment 4/2023
by vit
Künstliche Intelligenz kommt immer mehr in der Arbeits- und Lebenswelt an. Umso wichtiger ist es sicherzustellen, dass auch bei automatisierten Entscheidungen die Grundrechte von Unternehmen sowie Bürger und Bürgerinnen gewahrt werden. Helfen könnten dabei ein Transparenzregister und der AI Act.
Automatisierung birgt immer das Risiko, auch Fehler zu automatisieren. Das trifft häufig die schwächsten Mitglieder der Gesellschaft. Ein prominentes Beispiel für die Problematik: Die vom Bundesamt für Migration und Flüchtlinge (BAMF) genutzte Software zur Dialekt-Erkennung. Mit ihrer Hilfe soll es möglich sein, die genaue Herkunft und damit Identität von Asylsuchenden festzustellen. „Dabei werden u.a. mobile Datenträger von Geflüchteten ausgewertet oder Sprachproben von Asylsuchenden mittels einer Sprach- bzw. Dialekterkennungssoftware analysiert“, erklärt das BAMF auf eine Kleine Anfrage der Linken. Sprachwissenschaftler sind sich allerdings einig, dass dieses Vorgehen vielleicht noch bei standardisierten Nationalsprachen funktioniert, doch selbst für eine KI sind lokale Mundarten schwer genauen Regionen zuzuordnen. Für die Asylbewerber hat das teils weitreichende Folgen, bis hin zur Ablehnung ihres Asylantrags. Ein Verzicht auf entsprechende Technologien kommt allerdings nicht infrage, zu viel Nutzen bringen sie alleine für die Verwaltung: in Chatbots, für die automatisierte Bearbeitung von Steuererklärungen oder bei der Polizeiarbeit. Zunächst müssen jedoch der gesetzliche Rahmen gesetzt werden. Dafür laufen aktuell unterschiedliche Bestrebungen.
Fortsetzung von Seite 11
Transparenz soll Sicherheit geben
In der Diskussion ist unter anderem ein Transparenzregister für KI-basierte Anwendungen beziehungsweise Algorithmic-decisionmaking-Systems (ADM-Systeme).
AlorithmWatch hat dazu ein ent-
W Informationen zu den verwendeten Methoden und W Qualitätssicherungsprozesse, Maßnahmen zur Informationssicherheit und zum Datenschutz.
„Das Instrument unterscheidet sich von anderen Vorschlägen durch seine zwei Stufen. Auf der ersten Stufe wird in einem möglichst ein- vermerken und die Aufsichtsbehörde anzugeben, der gegenüber die Angaben vollständig offengelegt wurden.“ tungsverfahren für die Trainingsdatensätze oder der Informationen für die Nutzer – erfüllen, während bei KI-Systemen mit geringem Risiko nur eine minimale Informationspflicht besteht. sprechendes Konzeptpapier verfasst. Laut diesem sollte das Register folgende Informationen beinhalten:
Eine „Taskforce KI-Kompetenz“ könnte die Behörden bei diesem Prozess unterstützen und gleichzeitig helfen, dringend benötigte Kompetenzen aufzubauen. An dieser Taskforce könnten sich, so der Vorschlag von Nina Bewig, Berliner Senatsverwaltung für Justiz, Vielfalt und Antidiskriminierung, auch staatliche und nicht-staatliche Antidiskriminierungsstellen beteiligen, um Grundrechtsverletzungen auszuschließen.
Bundes-CIO Markus Richter zeigte sich während eines parlamentarischen Frühstücks, zu dem die Grünen-Bundestagsabgeordneten gemeinsam mit AlgorithmWatch eingeladen hatten, offen für den Vorschlag.
AI Act: Wie streng muss er sein?
W Zweck und konkrete Einbettung des Systems im jeweiligen Entscheidungsprozess,
W Akteure, die an der Entwicklung und dem Einsatz des Systems beteiligt sind,
W Informationen zum Entscheidungsmodell des Systems, fachen Verfahren ermittelt, ob vom ADM-System überhaupt Risiken ausgehen“, so die Autoren. Dies geschieht auf Basis einer Folgeabschätzung, welche auch Grundlage für den in Schritt zwei anzufertigenden Transparenzbericht ist.
„Nur in Ausnahmefällen – etwa, wenn nicht alle Informationen aus legitimen Geheimhaltungsinteressen vollständig offengelegt werden dürfen – ist dies im Register zu