
5 minute read
Verantwortungsvoller Einsatz von Künstlicher Intelligenz als ComplianceAufgabe?
Die Warnung der Wettbewerbsbehörden vor Preisabsprachen mittels Künstlicher Intelligenz (KI) ist ein gutes Beispiel dafür, dass Compliance künftig verstärkt mit der Frage nach der Verantwortung der Designer und Betreiber für das ordnungsgemäße Funktionieren von KI-Anwendungen im geschäftlichen Alltag konfrontiert werden wird. Eine frühzeitige Auseinandersetzung mit den entsprechenden Rahmenwerken erleichtert den Einstieg in diese spezielle Form der Technical Compliance.
Der Einsatz von Künstlicher Intelligenz (KI) spielt mit voranschreitender Digitalisierung in sämtlichen Bereichen unseres gesellschaftlichen Lebens und Wirtschaftens eine immer wichtigere Rolle. Ein verantwortungsvoller und transparenter Umgang mit Daten und Algorithmen ist eine wichtige Voraussetzung, um das nötige Vertrauen in KI-Anwendungen zu fördern.
Die Europäische Kommission, die OECD und der Berufsverband IEEE (Institute of Electrical and Electronics Engineers) haben jüngst Leitlinien zur Förderung eines vertrauenswürdigen Designs von KI-Anwendungen verabschiedet, die im
DER AUTOR
Mag. Rudolf Schwab, MBA, ist Certifi ed Compliance Professional und bei der A1 Telekom Austria Group in den Bereichen Compliance Prävention und Kapitalmarkt Compliance tätig.
Folgenden kurz vorgestellt werden sollen. Auch wenn es nicht Aufgabe des Compliance-Offi cers sein wird, ein wertebasiertes Design von KI-Anwendungen umzusetzen, so sollte er doch die Grundprinzipien kennen, um sein Unternehmen bei der Implementierung entsprechendender interner Richtlinien unterstützen zu können und als Sparringpartner für die „ethische Dimension von KI“ zur Verfügung zu stehen.
Die Ethik-Leitlinien der hochrangigen Expertengruppe der EU-Kommission für eine vertrauenswürdige Künstliche Intelligenz enthalten sieben Anforderungen, die Vertrauen in Künstliche Intelligenz schaffen sollen. Sie betreffen die Fragen nach der Kontrolle, der Sicherheit, dem Datenschutz, der Nichtdiskriminierung, der Nachhaltigkeit, der Verantwortlichkeit und der Transparenz der Algorithmen. Konkret geht es um den Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen‚ keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten; die Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen; die Privatsphäre und das Datenqualitätsmanagement: Die Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren; Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden; Vielfalt, Nichtdiskriminierung und
Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die
Barrierefreiheit gewährleisten; ein gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen posi
tiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern; eine Rechenschaftspfl icht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspfl icht für KI-Systeme und deren Ergebnisse gewährleisten.
Der Handlungsrahmen der EU-Kommission für KI zeichnet sich durch drei Komponenten aus, die während des gesamten Lebenszyklus des KI-Systems erfüllt sein
sollten: KI sollte rechtmäßig sein und somit alle anwendbaren Gesetze und Bestimmungen einhalten;
KI sollte ethisch sein und somit die Einhaltung ethischer Grundsätze und
Werte garantieren; KI sollte robust sein, und zwar sowohl in technischer als auch sozialer Hinsicht, da KI-Systeme selbst bei guten Absichten unbeabsichtigten
Schaden anrichten können. Die Europäische Kommission startet im Sommer 2019 im Rahmen der European AI Alliance 1 eine Pilotphase, um breites Feedback zu den Ethik-Leitlinien für eine vertrauenswürdige Künstliche Intelligenz einzuholen.
Nähere Informationen fi nden sich auf der Internetseite der Europäischen Kommission 2 , wo auch die Leitlinie abgerufen werden kann.
OECD-Prinzipien für Künstliche Intelligenz
Die heuer auf dem G20-Gipfel in Japan vorgestellten OECD-Prinzipien für Künst
liche Intelligenz umfassen fünf wertebasierte Grundsätze für den verantwortungsvollen Einsatz vertrauenswürdiger KI: KI sollte den Menschen und dem Planeten zugute kommen, indem sie integratives Wachstum, nachhaltige
Entwicklung und Wohlstand fördert. Die KI-Systeme sollten so konzipiert sein, dass sie die Rechtsstaatlichkeit, die Menschenrechte, die demokratischen Werte und die Vielfalt respektieren. Es sollte Transparenz und verantwortungsvolle Offenlegung rund um die KI-Systeme geben, um sicherzustellen, dass die Menschen verstehen,
wann KI sich mit ihnen beschäftigt und welche Ergebnisse KI-Systeme erzielen können. KI-Systeme müssen während ihrer
gesamten Lebensdauer robust sein und sicher funktionieren. Potenzielle Risiken sollten kontinuierlich bewertet und verwaltet werden.
Organisationen und Einzelpersonen, die KI-Systeme entwickeln, einsetzen oder betreiben, sollten für ihr ordnungsgemäßes Funktionieren im Ein
klang mit den oben genannten Grundsätzen verantwortlich gemacht werden. Dazu empfi ehlt die OECD den Regie
rungen: Erleichterung öffentlicher und privater Investitionen in Forschung und Entwicklung, zur Förderung von Innovationen im Bereich einer vertrauenswürdigen KI. Förderung zugänglicher KI-Ökosysteme mit digitaler Infrastruktur und Technologien sowie Mechanismen für den Austausch von Daten und Wissen. Schaffung einer Richtlinienumgebung, die den Weg für die Bereitstellung vertrauenswürdiger KI-Systeme ebnet. Generelle Förderung des Kompetenzaufbaus für KI in der Gesellschaft, um einen fairen Übergang zu gewährleisten. Grenzüberschreitende und sektorübergreifende Zusammenarbeit, um Informationen auszutauschen und
Normen zu entwickeln. Die OECD-Prinzipien für Künstliche Intelligenz sind auf der Website der OECD 3 abrufbar.
© AdobeStock
Das Institute of Electrical and Electronics Engineers versteht sich selbst als eine führende konsensbildende Organisation, die globale Technologien zum Wohle der Menschheit fördert, entwickelt und weiterentwickelt. Mit der Ausarbeitung von Standards für ein ethisch ausgerichtetes Design von KI-Systemen verfolgt die IEEE das Ziel, angewandte Ethikfragen oder sogenannte wertegetriebene Entwurfsmethoden zu Beginn eines jeden Herstellungsprozesses von KI-Systemen zu priorisieren. Damit rücken Endverbraucherwerte in den Fokus der Design-Phase von KI-Systemen, die über eine reine Bewertung von Risiken oder Schäden hinausgehen und sicherstellen sollen, dass KI-Technologien den menschlichen Werten dienen.
Im Folgenden werden die verschiedenen IEEE-Standards im Zusammenhang mit KI kurz vorgestellt: Grundlegend ist der IEEE-Standard
P7000, der einen Prozess beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang an ins Systemdesign einfl ießen. P7001 befasst sich mit der Transparenz autonomer Systeme. P7002 beschäftigt sich mit Systemen und Software, die persönliche Daten sammeln und auswerten. P7003 beschreibt, wie man verhindert, dass sich die – positiven oder negativen – Vorurteile von Programmierern oder
Auftraggebern in angeblich neutralen Algorithmen wiederfi nden. P7004 entwickelt Richtlinien dafür, wie Bildungsinstitutionen mit den Daten von Schülern und Studenten umgehen sollen. P7005 tut dasselbe für Unternehmen bzw Mitarbeiterdaten. P7006 befasst sich damit, wie Verwaltung und Unternehmen ethische Werte bei der Gestaltung autonom entscheidender Algorithmen berücksichtigen können. P7007 beschreibt ontologische Standards für ethisch betriebene Roboter und Automatisierungssysteme. P7008 beschäftigt sich mit dem resilienten Design autonomer und halbautonomer Systeme. P7009 befasst sich mit ethischem „Nudging“ 4 für Roboter, intelligente und autonome Systeme. P7010 ist der Schaffung von „Tokku“-Gebieten gewidmet – das sind Gebiete, in denen autonome intelligente Systeme praktisch im echten Leben erprobt werden.
1) Vgl https://ec.europa.eu/digital-single-market/ en/european-ai-alliance (zuletzt abgerufen am 8. 8. 2019). 2) Unter https://ec.europa.eu/digital-single-market/ en/news/ethics-guidelines-trustworthy-ai (zuletzt abgerufen am 8. 8. 2019). 3) https://www.oecd.org/berlin/presse/Flyer_AIPrinciples_FINAL_GER.pdf (zuletzt abgerufen am 8. 8. 2019). 4) Nudging (Synonym für anregen, lenken, formen) ist eine verhaltensökonomische Methode, bei der versucht wird, das Verhalten zu beeinfl ussen, ohne auf Verbote, Gebote oder ökonomische Anreize zurückzugreifen.