© pixabay | geralt

Zertifizierung von KI

Zertifikat soll Qualitätsstandards bescheinigen

Wie kann man sicherstellen, dass Entwicklungen auf Basis von Künstlicher Intelligenz (KI) technisch, ethisch und rechtlich vertretbar sind? Wissenschaftlerinnen und Wissenschaftler der Universitäten Köln und Bonn erarbeiten dazu unter der Federführung des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS und unter Mitwirkung des Bundesamtes für Sicherheit in der Informationstechnik (BSI) einen Prüfkatalog zur Zertifizierung von KI-Anwendungen.

Künstliche Intelligenz verändert unsere Gesellschaft, unsere Wirtschaft und unseren Alltag grundlegend und eröffnet große Chancen für unser Zusammenleben. Sie hilft zum Beispiel Ärzten, Röntgenbilder besser und oft exakter auszuwerten, beantwortet in Form von so genannten Chatbots Fragen zu Versicherungspolicen und anderen Produkten und wird in absehbarer Zeit Autos immer selbstständiger fahren lassen. Aktuelle Prognosen gehen davon aus, dass die Zahl der KI-Anwendungen in den nächsten Jahren exponentiell wachsen wird. {…}

Gleichzeitig wird deutlich, dass eine sorgfältige Gestaltung von KI-Anwendungen notwendig ist, damit wir die Chancen der KI im Einklang mit unseren gesellschaftlichen Werten und Vorstellungen nutzen können. Deshalb hat sich das interdisziplinäre Expertenteam im Kontext der Kompetenzplattform KI.NRW zusammengetan, um eine durch akkreditierte Prüfer durchzuführende Zertifizierung für KI-Anwendungen zu entwickeln. Das Zertifikat soll einen Qualitätsstandard bescheinigen, der es Technologie-anbietern erlaubt, KI-Anwendungen überprüfbar technisch zuverlässig und ethisch akzeptabel zu gestalten. {…}

Künstliche Intelligenz hat das Potenzial, die Fähigkeiten des Menschen zu erweitern und hilft uns, neue Erkenntnisse zu gewinnen. Wenn wir unseren Entscheidungen jedoch Ergebnisse von voll- oder teilautomatisierten selbstlernenden Systemen zugrunde legen, stellt uns dies gleichzeitig vor neue Herausforderungen. Neben der technischen Eignung müssen vor allem grundsätzliche philosophisch-ethische Aspekte, aber auch rechtliche Fragestellungen geklärt werden. Um sicherzustellen, dass der Mensch stets im Mittelpunkt dieser Entwicklung steht, ist daher ein enger Austausch zwischen Informatik, Philosophie und Rechtswissenschaften notwendig.

In dem nun veröffentlichten »Whitepaper« erläutern die Expertinnen und Experten ihre interdisziplinäre Herangehensweise an die KI-Zertifizierung. So gehen die Autorinnen und Autoren etwa auf die ethischen Grundsätze ein {…}. Auch juristische Fragestellungen werden adressiert {…}.

Aus diesem interdisziplinären Ansatz gehen mehrere Handlungsfelder aus ethischer, rechtlicher und technologischer Sicht hervor, die im Whitepaper beleuchtet werden. Kriterien für die Zertifizierung sollen Fairness, Transparenz, Autonomie und Kontrolle, Datenschutz sowie Sicherheit und Verlässlichkeit sein. Damit orientiert sich das Zertifizierungsprojekt von KI.NRW auch an Empfehlungen der EU.
Typische Fragen innerhalb der Zertifizierung sollen sein: Respektiert die KI-Anwendung gesellschaftliche Werte und Gesetze? Ist eine selbstbestimmte, effektive Nutzung möglich? Behandelt die KI alle Betroffenen fair? Sind ihre Funktionsweise und Entscheidungen nachvollziehbar? Funktioniert die KI zuverlässig und ist sie robust? Ist sie sicher gegen Angriffe, Unfälle und Fehler? Schützt die KI die Privatsphäre und sonstige sensiblen Informationen?

Bereits während des Designs der Technologien müsse geklärt werden, ob die Anwendung ethisch und rechtlich zulässig ist und falls ja, welche Leitplanken für ihre Ausgestaltung formuliert werden sollen, so die Autorinnen und Autoren. Ein notwendiges Kriterium sei, allen Beteiligten dieselben Möglichkeiten einer moralischen Entscheidung zu geben, die sie auch im Falle eines Verzichts auf den KI-Einsatz hätten, und ihre Rechte sowie ihre Freiheit zu achten.
Ein wichtiges Kriterium ist auch die Transparenz. Informationen zum richtigen Umgang mit der KI-Anwendung müssten verfügbar sein, betonen die Experten. Die Interpretierbarkeit, Nachverfolgbarkeit und Reproduzierbarkeit von Ergebnissen der Künstlichen Intelligenz müssten für die Nutzer möglich sein. Widerstreitende Interessen – wie Transparenz und Geheimhaltung von Geschäftsgeheimnissen – müssten gegeneinander abgewogen werden.

Es ist geplant, bis Anfang 2020 eine erste Version des Prüfkatalogs zu veröffentlichen und die ersten KI-Anwendungen zu zertifizieren. Dazu kooperieren die Projektverantwortlichen mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI), dessen langjährige Erfahrung in der Entwicklung von sicheren IT-Standards in die Zertifizierung einfließt. Da sich die Künstliche Intelligenz ständig weiterentwickelt, wird auch der Prüfkatalog ein »lebendes Dokument« sein, das ständiger Aktualisierung bedarf.

Beteiligte Institutionen:
Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS (Institutsleiter Prof. Dr. Stefan Wrobel, Projektleiter Dr. Maximilian Poretschkin); Universität Bonn, Center for Science and Thought (Direktor Prof. Dr. Markus Gabriel, Projektleiter Jan Voosholz); Universität zu Köln, Lehrstuhl für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtsvergleichung (Inhaberin Prof. Dr. Dr. Frauke Rostalski, Projektleitung).

Vollständige Quelle: Uni Köln