Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.
Die Steuerung von künstlicher Intelligenz beschäftigt Experten ebenso lange, wie es die KI selbst gibt. Fachleute sind überzeugt, dass KI-Governance in den kommenden Jahren eine der wichtigsten globalen Fragen sein wird, doch besonders der ethische Umgang mit KI spaltet noch die Gemüter. Charlotte Stix, KI-Forscherin und Beraterin, setzt sich kritisch mit den ethischen, politischen und rechtlichen Herausforderungen im Zusammenhang mit künstlicher Intelligenz auseinander.
Wie Ethik mit KI in Einklang gebracht werden kann, weiß Charlotte Stix recht gut – zumindest rein theoretisch: Die 28-Jährige forscht im Zuge ihrer Doktorarbeit an der Technischen Universität Eindhoven, Niederlande, zu Regulierung, Ethik und Strategie von künstlicher Intelligenz, zudem ist sie Forscherin des Leverhulme Centre for the Future of Intelligence an der Universität Cambridge und berät regelmäßig Technologieunternehmen, Regierungen und internationale Organisationen.
Die Debatte über ethische Aspekte bei der Entwicklung von algorithmischen Systemen beschäftigt unsere Gesellschaft schon seit Jahren. Wie kann Ihrer Meinung nach KI mit Ethik in Einklang gebracht werden?
In Bezug auf KI ist Ethik anwendungsorientiert und spiegelt sich inzwischen leider oftmals in Fällen wie Compass oder dem jüngst erschienenen Deepfake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj wider. (Anm.: Compass ist eine Software, die in der Polizeiarbeit eingesetzt wird, um Verbrechen vorherzusagen; der Algorithmus stellte sich als „biased“ heraus, er verdächtigte vor allem Menschen afroamerikanischer Abstammung.) KI-Ethik ist generell viel näher am Zeitgeschehen, als es Gedankenexperimente zu KI-Systemen vermuten lassen. Daher ist das Feld schon jetzt viel umfassender, als man vielleicht annehmen würde: Die KI-Ethik, deren Fragestellungen und die assoziierte Wertestruktur werden sowohl von Regierungen und deren legislativen Prozessen – beispielsweise dem AI Act (Vorschlag für ein europäisches Gesetz zu KI, Anm.) –, von Wissenschaftlern in deren Forschung, wie zum Beispiel Impact Statements (eine Erklärung zu den weitreichenden ethischen Auswirkungen einer Publikation, Anm.), als auch von großen Technologiekonzernen (zum Beispiel Inclusive ML von Google Cloud, Anm.) angewandt und umgesetzt. Es geht momentan um die enge, fachübergreifende Zusammenarbeit all derjenigen, die am Lebenszyklus eines KI-Systems arbeiten, sowie die Einbeziehung von End-Usern und der Gesellschaft.
Es herrscht immer noch große Uneinigkeit über den Umgang mit und die Regulierung von künstlicher Intelligenz. Stimmen Sie zu?
Ja, dem stimme ich zu. Natürlich will niemand, dass ein KI-System auf den Markt kommt, das unsicher ist, diskriminiert oder für schlechte Zwecke missbraucht werden kann. Aber was das genau heißt – technisch und rechtlich –, wo die legale Grauzone ist, was in der nahen Zukunft möglich sein wird und wie das genau umgesetzt werden kann, ist nicht einfach zu beantworten. Man muss sich aber auch bewusst machen, dass wir am Anfang dieses legislativen Prozesses stehen und dass die EU hier Vorreiter ist. Und das ist vor allem deshalb so schwierig, weil der technologische Fortschritt viel schneller vorangeht als die Legislative.
In ihrem Bestreben, Europa zum „globalen Zentrum für ,vertrauenswürdige künstliche Intelligenz‘“ zu machen, schlug die Kommission zuletzt im April 2021 mehrere Maßnahmen vor. Können Sie uns mehr zum Status quo dieses ersten KI-Rechtsrahmens sagen?
Der Rechtsrahmen ist momentan noch in der Diskussionsphase zwischen EU-Parlament und Council, daher nehme ich an, dass es noch viele Änderungen und Vorschläge von den verschiedensten Seiten geben wird. Ich denke dennoch, dass die Erstellung eines Rechtsrahmens der richtige Schritt war und dass der erste Vorschlag eine solide Verhandlungsbasis ist, die sehr viele wichtige Bereiche wie Sicherheit, Datenschutz und Diskriminierung aufarbeitet. Außerhalb der EU gibt es viele Länder, die ebenfalls hoffen, „vertrauenswürdige KI“ (eine Terminologie, die von der EU erarbeitet wurde, Anm.) zu ihrem Leitthema machen zu können. Sie sehen den derzeitigen EU-Gesetzesvorschlag als Vorreiter zu ihren eigenen legislativen Entwicklungen.
In einem Ihrer Artikel schreiben Sie: „Vertrauen in die Technik ist ein heikles Thema. Während das Ziel darin besteht, die Entwicklung und den Einsatz vertrauenswürdiger Technologien im Allgemeinen zu fördern, muss Vertrauen – in dem Sinn, wie es die meisten Menschen nutzen – durch die Erfüllung von Erwartungen und Verpflichtungen im Laufe der Zeit verdient werden.“ Kann Technologie überhaupt vertrauenswürdig sein?
Das ist eine Frage, mit der ich mich sehr viel beschäftige. Es ist trügerisch, eine KI, die „besser“ sein soll, als „beneficial AI“, „good AI“ oder eben „vertrauenswürdige KI“ zu bezeichnen. Das ist ein zweischneidiges Schwert, denn KI selbst kann natürlich nicht „vertrauenswürdig“ sein; nicht in dem Sinn, wie Menschen das empfinden. Man kann Vertrauen darin haben, dass das entsprechende KI-System adäquat getestet wurde und demnach sicher ist. Ein Auto ist auch nicht vertrauenswürdig – wir vertrauen aber darauf, dass es sicher ist, da Fachleute es für uns getestet haben. Als Gesellschaft wissen wir heute, wie ein Auto funktioniert, weil sich dieses Wissen und Vertrauen über einen gewissen Zeitraum aufgebaut hat. Trotzdem gibt es Nuancen bei dieser Diskussion, die man nicht übersehen sollte: „Vertrauenswürdige KI“, wie von der EU definiert, muss bestimmte technische und nicht technische Anforderungen erfüllen, um als solche definiert zu werden.
Charlotte Stix
...studierte Philosophie und Cognitive Sciences in London und forscht nun zu KI am Leverhulme Centre for the Future of Intelligence an der Universität Cambridge.
Text: Naila Baldwin
Foto: Mike Thornton
Dieser Artikel erschien in unserer Ausgabe 3–22 zum Thema „KI“.