Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.
Künstliche Intelligenz (KI) ist mittlerweile mitten unter uns – genauso wie die Frage, ob und wie wir KI nutzen und gleichzeitig unsere Privatsphäre schützen können. Um diese Fragen zu beantworten, reicht es nicht aus, sich nur auf die Technik zu beschränken, wir müssen auch den Menschen in den Blick nehmen.
Auch absolute KI-Laien wissen mittlerweile, dass Daten für KI wichtig sind. Verkürzt gesagt: Je mehr Daten zum Training von KI-Modellen vorhanden sind, desto besser. Der Teufel liegt hier aber im Detail: Denn je mehr Daten erstellt, gesammelt und verwendet werden, desto größer ist auch die Gefahr des Missbrauchs. Wir scheinen also vor der Entscheidung zu stehen, ob wir leistungsfähige, präzise KI nutzen und damit unsere Daten preisgeben oder uns mit datenschutzfreundlichen, aber ungenauen KI-Modellen begnügen wollen. Willkommen im KI-Privatsphärendilemma!
Dieser Widerspruch ist aber nur ein scheinbarer. Denn wir haben mittlerweile dank neuer Ansätze die Möglichkeit, KI und Datenschutz miteinander zu vereinen. Dazu müssen wir nur weg von den zentralen und hin zu dezentralen Systemen – wie zum Beispiel zum sogenannten Masked Federated Learning. Statt die Daten zentral zu sammeln und zu den Algorithmen zu bringen, werden die Algorithmen hier zu den Daten gebracht. Die Nutzerdaten bleiben so stets auf den Endgeräten und trainieren direkt vor Ort lokale KI-Modelle, die anschließend verschlüsselt und zusammengeführt werden. Datenschutz wird so direkt von Anfang an in die KI eingebaut.
Leif-Nissen Lundbaek
...studierte Mathematik und Software Engineering in Berlin, Heidelberg sowie in Oxford und erhielt seinen Ph.D.-Titel am Imperial College London. Gemeinsam mit Professor Michael Huth und Felix Hahmann gründete er 2017 das Privacy-Tech-Unternehmen Xain.
Es reicht aber nicht aus, nur auf die Technik zu schauen – wir müssen auch den Menschen in den Blick nehmen. Das merken wir allein daran, dass viele User weiterhin Informationen von sich im Netz preisgeben, indem sie z. B. Dienste von Datenkraken nutzen – obwohl sie doch eigentlich sogar wissen, dass sie damit ihre Privatsphäre gefährden. Hier schlägt das sogenannte Privatsphärenparadoxon zu.
Uns Menschen fällt es oftmals schwer, langfristigen abstrakten Nutzen („Schutz meiner Privatsphäre“) einem kurzfristigen konkreten Nutzen („Ich finde leicht die besten Reisetipps“) vorzuziehen. Wenn wir wirklich zukunftsweisende, datenschutzfreundliche KI entwickeln wollen, müssen wir also auch verstehen und beachten, wie Menschen denken und handeln. Komplexe KI allein reicht nicht aus.
Und so banal es klingt: Datenschutzfreundliche Technik muss schlichtweg auch einfach zu bedienen sein. Und wenn sie dann zusätzlich noch ästhetisch ansprechend ist, ist es ein Volltreffer für den Datenschutz.
Gastkommentar: Leif-Nissen Lundbaek
Opinions expressed by Forbes Contributors are their own.
Dieser Gastkommentar erschien in unserer Ausgabe 11/12–20 zum Thema „Security".