8 minute read

360°-Zertifizierung für eine vertrauensvolle KI

360°-Zertifizierung für eine vertrauenswürdige KI

Prüfung und Zertifizierung von Künstlicher Intelligenz findet dort statt, wo die entsprechende Expertise daheim ist – in der Steiermark.

Advertisement

Es tut sich Bemerkenswertes in Sachen Künstlicher Intelligenz – allerdings vielleicht nicht ganz so, wie jetzt mancher sorgenvoll befürchtet. Im Gegenteil, denn es formierte sich eine neue strategische Partnerschaft österreichischer Expertinnen und Experten für vertrauenswürdige und sichere KI-Anwendungen. Die Steiermark wird damit zum globalen Vorreiter bei der Prüfung und Zertifizierung von Künstlicher Intelligenz; entstand doch hier, in der grünen Mark, die neue Initiative, um effiziente und unabhängige Prüfverfahren und Prüftechnologien für KI-Systeme zu entwickeln.

Daran beteiligt sind das Know-Center als ein führendes europäisches Forschungszentrum für Data-driven Business und Künstliche Intelligenz, der SGS-Konzern als weltweit führender Anbieter für Prüfung, Testen, Verifizieren und Zertifizierungen sowie das IAIK der Technischen Universität Graz, eines der führenden Forschungsteams für Cybersicherheit. Ethische und rechtliche Aspekte werden über das Business Analytics and Data Science Center der Universität Graz eingebracht, und Österreichs Zentrum für sichere Informationstechnologie (A-SIT) begleitet die Aktivitäten als neutraler Beobachter.

KI als Schlüsseltechnologie

Künstliche Intelligenz hat Produkte und Dienstleistungen bereits entscheidend verändert und gehört zu den am schnellsten wachsenden Themenfeldern. KI bietet enormes Potenzial für neue Geschäftsideen und wirtschaftliches Wachstum. Sie ist die Schlüsseltechnologie, um die Zukunftsfähigkeit von Wirtschaft und Gesellschaft angesichts globaler Herausforderungen, von Pandemieentwicklungen bis hin zu Klimawandel, zu sichern.

Aktuell gehört KI zu den am schnellsten wachsenden Themenfeldern. Die meisten KI-Systeme sind datengetrieben, das heißt sie erlernen aus großen Mengen von Daten gewünschte Verhaltensweisen. Diese hochmoderne Technologie ermöglicht außergewöhnliche Innovationen; aber wo viel Licht ist, da ist auch viel Schatten: KI kann ungewollte und sehr negative Auswirkungen haben, wenn sie nicht adäquat verwendet wird. Daraus resultieren dann Vorurteile, etwa im Rahmen von Personalprozessen oder unsichere Empfehlungen einer KI im Gesundheitswesen. Künstliche Intelligenz wurde zur Vertrauensfrage. „Das Potenzial von KI wird in Europa erst dann ausgeschöpft werden, wenn ein vertrauenswürdiger Umgang mit Daten sowie Fairness und Verlässlichkeit der Algorithmen und deren Sicherheit gewährleistet ist“, sagt dazu Stefanie Lindstaedt, CEO des KnowCenters, und erläutert das Vorhaben: „Über eine 360°-Perspektive wollen wir dafür sorgen, dass KI-Anwendungen technisch konform, zuverlässig und unvoreingenommen funktionieren. Im Fokus stehen alle Bereiche, die für eine hohe Qualität und Vertrauenswürdigkeit von KI essenziell sind: Daten, Algorithmen, Cybersicherheit, Prozesse, Ethik und Recht.“

© Know-Center GmbH/Jorj Konstantinov

Eine der großen Herausforderungen im Bereich KI ist nicht etwa ihre hochmoderne Technologie selbst, sondern vielmehr ihre Vertrauenswürdigkeit.

Artificial Intelligence Act

Ähnlich wie bei der Datenschutzgrundverordnung (DSGVO) plant die Europäische Kommission eine Verordnung einzuführen, um KI-Systeme künftig zu regulieren.

Mit dem sogenannten Artificial Intelligence Act hatte die EUKommission den Entwurf einer Verordnung vorgestellt, um Systeme zu regulieren, die Künstliche Intelligenz verwenden. Der Grundgedanke, die Entwicklung von KI in die richtigen Bahnen zu lenken und damit langfristig Vertrauen aufzubauen, sei durchaus positiv zu sehen. Zugleich bestehe aber die Gefahr, dass dadurch die Wettbewerbsfähigkeit verloren gehe bzw. die Entwicklung von KI-Systemen langwieriger und kostenintensiver werde, heißt es dazu aus dem Know-Center, das das „EU-Sprech“ in verständlichere Sprache „übersetzt hat (siehe Kasten).

Im Artificial Intelligence Act ist eine umfassende Konformitätsbewertung durch Anbieter vorgesehen, die eine KI-Zertifizierung unumgänglich machen wird. Ziel der Initiative ist es nun, Unternehmen dabei zu unterstützen, wettbewerbsfähige und vertrauenswürdige KI-basierte Produkte und Systeme zu entwickeln und Hemmschwellen für den Einsatz von KI abzubauen; das multidisziplinäre Team aus Fachexpertinnen und -experten deckt dabei alle Bereiche von Forschung, über Beratung bis zur Zertifizierung ab. „Ein Eckpfeiler des Vertrauens in KI ist die Einhaltung von Standards und Vorschriften, die durch Konformitätsbewertungen nachgewiesen werden, die akkreditierte Dritte wie SGS durchführen. In

Pflichten für Anbieter und Nutzer

Im Fokus der Verordnung steht, KI-Systeme in Hochrisikobereichen zu regulieren. Dazu gehören zum Beispiel Bildung, Personalwesen, kritische Infrastruktur, Medizin, etc. Künftig sollen konforme KI-Systeme ein CE-Kennzeichen erhalten, wobei Anbieter die Konformitätsbewertung der KI-Systeme im Hochrisikobereich weitgehend selbstverantwortlich vorzunehmen haben. Nur in einigen speziellen Bereichen mit besonders hohem Risiko soll die Bewertung verpflichtend durch eine externe Partei erfolgen. Anbieter sollen dafür umfassende Compliance-Anforderungen erfüllen, wie etwa ein Risiko- und Qualitätsmanagement einrichten, technische Dokumentationen und Protokolle aufbewahren, für angemessene Genauigkeit, Robustheit und Cybersicherheit sorgen usw. Dieses Self-Assessment ist zwar nur im Hochrisikobereich vorgeschrieben, die Verordnung ermutigt aber dazu, auch alle anderen Anwendungen zu bewerten. Auch Anwender (ausgenommen ist die rein private Verwendung) sollen zur Überwachung der KI-Systeme verpflichtet werden, indem sie Systemanbieter über etwaige Risiken oder Fehlfunktionen informieren oder gegebenenfalls den Betrieb des Systems aussetzen.

unserer Partnerschaft werden wir neue multidisziplinäre Tools und Techniken entwickeln, um diese Bewertungen zu ermöglichen, die Bereiche wie etwa Cybersicherheit oder Ethik umfassen. Das wird Kunden auf der ganzen Welt einen Mehrwert bieten“, erklärt Siddi Wouters, Senior Vice President Digital & Innovation bei SGS.

Neue sicherheitstechnische Konzepte müssen her

Trotz des enormen technologischen Potenzials sind mit dem Einsatz von KI-Anwendungen also auch Unsicherheiten und Risiken verbunden. Es gibt eine Vielzahl an Möglichkeiten, KI-Systeme anzugreifen. Eine große Herausforderung bei der Bewertung von KISystemen ist daher die Cyberkriminalität; beispielsweise könnte ein autonomes Fahrzeug fatale Entscheidungen treffen, wenn Daten, die das im Fahrzeug eingesetzte KI-System verarbeitet, manipuliert werden. „Herkömmliche statische Prüfungen reichen hier nicht aus“, betont Harald Kainz, Rektor der Technischen Universität Graz, und führt aus: „Es braucht die Erforschung grundlegend neuer sicherheitstechnischer Konzepte, um einen kontinuierlichen Nachweis der Robustheit von KI-Systemen gegen Cyberattacken zu erhalten und die Privatsphäre zu schützen. Diese Expertise bringt die TU Graz in die strategische Partnerschaft ein. Die Initiative ist für uns zugleich die logische Vertiefung bereits erfolgreich bestehender Kooperationen im Bereich Informatik, Software Engineering und Cybersicherheit mit SGS, dem Know-Center und der Uni Graz. Davon profitieren auch universitäre Forschung und Lehre, in die die neuen und aktuellen Inhalte einfließen.“

Und auch wenn der Einsatz von KI in den letzten Jahren über alle Branchen hinweg zugenommen hat, sind Unternehmen im Hinblick auf Datenschutz und rechtliche Vorgaben nach wie vor oft verunsichert. Die geplante EU-Regulierung könnte hier für zusätzliche Überforderung sorgen – man denke nur an das DSGVO-Debakel – und die Wertschöpfung von KI verringern oder gar überhaupt torpedieren.

Fehlende Rechtssicherheit durch nicht vorhandene Auditzertifikate ist eine der größten Barrieren; konkrete Unterstützungs- und Förderangebote werden laut Know-Center entscheidend sein, um die Innovationskraft von Unternehmen und die Kommerzialisierung von Forschungsergebnissen nicht einzubremsen. „Auditingansätze für KI sind für einen breiten Einsatz von KI in der Wirtschaft essenziell. Das ist nicht nur eine rechtliche Anforderung, sondern wirkt auch vertrauensstiftend und kann die gesellschaftliche Akzeptanz positiv beeinflussen. Unsere Studien im Bereich Recruiting zeigen beispielsweise, dass Menschen, die sich diskriminiert fühlen, die Bewertung ihrer Qualifikationen lieber durch eine KI als durch einen Menschen durchführen lassen würden. Das ist insbesondere der Fall, wenn es sich um eine zertifizierte KI-Anwendung mit Erklärungskomponente handelt“, sagt Stefan Thalmann, Leiter Business Analytics and Data Science Center an der Uni Graz.

Österreich auf dem richtigen Weg

Auch Herbert Leitold, Generalsekretär A-SIT, betont: „Durch die Bündelung unterschiedlicher Expertisen können die komplexen Herausforderungen einer KI-Zertifizierung gut gemeistert werden. Österreich ist damit auf dem richtigen Weg, um Anbietern und Nutzern von KI-Anwendungen bessere Orientierung und Gewissheit über die Güte der Applikationen zu geben.“

Wirtschafts- und Forschungslandesrätin Barbara Eibinger-Miedl begrüßte die Initiative: „Künstliche Intelligenz ist ein zentrales Thema der Digitalisierung. Neben großen Chancen gibt es aber auch Herausforderungen. So müssen etwa vertrauenswürdige Systeme und ein hoher Datenschutz sichergestellt werden, um Hemmschwellen beim Einsatz Künstlicher Intelligenz abzubauen. Dass der Weltkonzern SGS dabei auf steirisches Know-how zurückgreift, unterstreicht die hervorragende Arbeit der beteiligten heimischen Akteure. Durch zahlreiche Forschungsprojekte und Digitalisierungsinitiativen ist es uns in der Steiermark gelungen, umfassende Kompetenzen in diesem Bereich aufzubauen und eine globale Vorreiterrolle einzunehmen.“ ◆

© TU Graz/Lunghammer

Die EU-Verordnung Artificial Intelligence Act will Künstliche Intelligenz regulieren und so KI-Systeme und deren Daten widerstandsfähiger gegen übles Gesindel machen.

Die EU-Verordnung Artificial Intelligence Act

Mit der Verordnung sollen harmonisierte Vorschriften für Künstliche Intelligenz festgelegt werden (Gesetz über Künstliche Intelligenz): Künstliche Intelligenz (KI) bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und einen vielfältigen Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg hervorbringen können. Der Einsatz Künstlicher Intelligenz zur Verbesserung von Prognosen, zur Optimierung von Abläufen und der Ressourcenzuweisung sowie zur Personalisierung der Diensteerbringung kann für die Gesellschaft und die Umwelt von Nutzen sein und Unternehmen sowie der europäischen Wirtschaft Wettbewerbsvorteile verschaffen. Bedarf besteht insbesondere in Sektoren, von denen eine große Wirkung ausgeht, wie Klimaschutz, Umwelt und Gesundheit, öffentlicher Sektor, Finanzen, Mobilität, Inneres und Landwirtschaft. Dieselben Faktoren und Techniken, die für den sozioökonomischen Nutzen der KI sorgen, können aber auch neue Risiken oder Nachteile für den Einzelnen oder die Gesellschaft hervorbringen. Vor dem Hintergrund des rasanten technologischen Wandels und möglicher Herausforderungen ist die EU entschlossen, einen ausgewogenen Ansatz zu erreichen. Es liegt im Interesse der Union, die technische Führungsrolle der EU auszubauen und dafür zu sorgen, dass die Europäerinnen und Europäer von den im Einklang mit den Werten, Grundrechten und Prinzipien der Union entwickelten und funktionierenden neuen Technologien profitieren können. Vor diesem politischen Hintergrund legt die Kommission ihren Vorschlag für einen Rechtsrahmen zur Künstlichen Intelligenz vor, mit dem konkret die folgenden Ziele angestrebt werden: c Es muss gewährleistet sein, dass die auf dem Unionsmarkt in

Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren.

c Zur Förderung von Investitionen in KI und innovativen KI muss

Rechtssicherheit gewährleistet sein. c Governance und die wirksame Durchsetzung des geltenden

Rechts zur Wahrung der Grundrechte sowie die Sicherheitsanforderungen an KI-Systeme müssen gestärkt werden. c Die Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen muss erleichtert werden und es gilt, eine Marktfragmentierung zu verhindern.

This article is from: