Projekt

Vertrauenswürdige KI

In diesem Projekt geht es darum, gelungene Beispiele für die Umsetzung vertrauenswürdiger KI zu präsentieren und Methoden vorzustellen, die von den Akteuren vor Ort eingesetzt werden. Dabei geht es insbesondere um den Einbezug von Nicht-Technikwissenschaftlerinnen und -wissenschaftlern in den Entwicklungs- und Implementationsprozess, d.h. um „embedded social scientists“ sowie um spezielle Verfahren des Systemdesigns, mit denen verschiedene Dimensionen vertrauenswürdiger KI umgesetzt werden können.

 

 

Unter vertrauenswürdiger KI („trustworthy AI“) versteht man automatisierte Entscheidungssysteme, die den Anforderungen von Transparenz, Verantwortlichkeit, Privatheit, Gerechtigkeit und Zuverlässigkeit gerecht werden. Hintergrund ist die Tatsache, dass auf Künstlicher Intelligenz basierende automatisierte Entscheidungssysteme gesellschaftliche Implikationen haben, die über herkömmliche IT-Systeme hinausgehen. Als Gegenentwurf zur US-amerikanischen und chinesischen Konzeptualisierung von KI („Kommerz“ bzw. „Kontrolle“) propagiert die Europäische Kommission die „vertrauenswürdige“ KI, in der ethische Standards, Privatheit, Diskriminierungsfreiheit und auch die Nachvollziehbarkeit der Entscheidungen automatisierter Systeme wichtige Dimensionen sind. Die Europäische Kommission möchte vertrauenswürdige KI zum einem Qualitätsmerkmal von KI „made in Europe“ machen.

 

Im Anschluss an die Empfehlungen der High-Level Expert Group on Artificial Intelligence der Europäischen Kommission (High-Level Expert Group on Artificial Intelligence 2019) haben sich verschiedene Regierungskommissionen und Expertenteams mit der Frage beschäftigt, wie vertrauenswürdige KI-Systeme entwickelt und umgesetzt werden können. Die Vorschläge reichen von einem KI-Ethik-Kennzeichnungssystem über den Einsatz von Kriterienkatalogen für die Gestaltung der Mensch-Maschine-Interaktion, die Verwendung eines Beipackzettels für Modelle des Maschinellen Lernens und für fairere KI bis hin zu konkreten Guidelines für die Entwicklung und Umsetzung ethischer KI.

 

 

 

Derzeit fehlt es an konkreten Beispielen für Umsetzungen, die entsprechend der vorliegenden Leitlinien und Checklisten tatsächlich durchgeführt werden. Erfolgsbeispiele sind aber dringend notwendig, um die Vorteile vertrauenswürdiger KI-Systeme zu demonstrieren und Nachahmer zu motivieren.

In diesem Projekt werden daher Beispiele recherchiert, die zeigen, wie die Akteure vor Ort vorgegangen sind, um vertrauenswürdige KI-Anwendungen zu entwickeln und zu implementieren.

 

Workshop und Publikation

Am 13. Oktober 2021 fand ein virtueller Workshop unter Beteiligung von 25 ausgewiesenen Expertinnen und Experten aus Wissenschaft und Unternehmen statt, um die Frage zu diskutieren, wie das Konzept der vertrauenswürdigen KI in die Praxis umgesetzt werden kann. Ausgangspunkt war die Feststellung, dass es heute eine Reihe von Praxisleitfäden gibt, die aufzeigen, wie vertrauenswürdige KI konkret entwickelt und umgesetzt werden kann, es aber nur sehr wenige konkrete Umsetzungsbeispiele gibt, anhand derer sich zeigen ließe, worin der Vorteil vertrauenswürdiger KI besteht. Denn für Unternehmen und Organisationen bedeutet die Orientierung am Konzept der Vertrauenswürdigkeit zusätzlichen organisatorischen und personellen Aufwand.

Die Teilnehmerinnen und Teilnehmer des Workshops waren sich einig im Hinblick auf die Relevanz des Konzepts, das 2019 von der High-Level-Expert-Group der EU entwickelt wurde und das aus sieben Anforderungen an die Vertrauenswürdige KI besteht, die vom Vorrang menschlichen Handelns vor maschinellen Entscheidungen über den Datenschutz und die Nichtdiskriminierung bis hin zur Rechenschaftspflicht reichen (High-Level Expert Group on Artificial Intelligence 2019).

Wie dieses Konzept praktisch umgesetzt werden kann, darüber gingen die Einschätzungen der Expertinnen und Experten auseinander. Eine Möglichkeit, die im Workshop vorgestellt wurde, besteht in der Anwendung der Methode der partizipativen Technikentwicklung, bei der verschiedene Stakeholder (Facilitators, Management, künftige User usw.) in den Prozess von Entwicklung und Umsetzung einbezogen werden.

Agenda - Download

Eine Dokumentation des Workshops wird derzeit erstellt. Ein Blogbeitrag von Greta Runge gibt einen ersten Überblick:

https://forum-privatheit.de/blog/2021/11/18/vertrauenswuerdige-kuenstliche-intelligenz-wie-kann-die-praktische-umsetzung-gelingen/

 

Publikation

  • Beckert, Bernd (2021): The European way of doing Artificial Intelligence: The state of play implementing Trustworthy AI. Paper presented at FITCE/IEEE-Conference “Industrial Data – Cloud, Low Latency and Privacy” September 29-30, 2021, Vienna. Download: https://ieeexplore.ieee.org/document/9588560.

Laufzeit

06/2020 bis 07/2021

Auftraggeber

  • Internes Projekt

Partner

-  

Webseite