Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.
Das Internet weiß alles. Es ist Experte auf jedem Gebiet und treuer Gefährte in jeglicher Lebenslage. Doch wie lernen Computer eigentlich? Was hat eine Pizza Margherita mit Wissensrepräsentation zu tun? Und müssen wir uns vor Mark Zuckerberg fürchten? Magdalena Ortiz hat die Antworten.
Mit einem breiten Grinsen auf dem Gesicht führt uns Magdalena Ortiz durch das Institut für Informatik an der TU Wien. Wir gehen vorbei an einer Vielzahl von Büros, deren Glaswände mit mathematischen Gleichungen und Skizzen vollgeschrieben sind. „Für meine Arbeit verwende ich hauptsächlich Stift und Papier“, sagt Ortiz. „Ich bin in der Grundlagenforschung zu Hause, das heißt, ich überprüfe Algorithmen auf ihre mathematische Richtigkeit – also ob sie überhaupt können, was sie versprechen!“ Dafür braucht die Forscherin keinen leistungsstarken Computer, denn Ortiz hat eine spürbare Leidenschaft für Mathematik. „Eigentlich wollte ich ja Mathematik studieren, aber dann wollte ich doch etwas tun, das Menschen direkter helfen kann. Also habe ich mich für die Informatik entschieden“, sagt sie.
Magdalena Ortiz wurde 1978 in Mexiko geboren. Schon als Kind hat sie Mathematik sehr fasziniert. „Das Gefühl, das man hat, wenn man eine Aussage mathematisch beweisen kann, ist einfach unbeschreiblich!“, schwärmt sie. Neben dem einen oder anderen Mathematikwettbewerb, an denen sie in jungen Jahren erfolgreich teilnahm, arbeitete Ortiz in ihrer Freizeit mit bedürftigen Kindern und Jugendlichen in Mexiko. Dieses Interesse kam von ihrem Vater, der ebenfalls sozial sehr engagiert war. Daher entschied sie sich auch für ein Informatik- und gegen ein Mathematikstudium. Ortiz: „Ich hatte das Gefühl, dass Informatik angewandter ist und ich dabei mehr erreichen kann.“ Also machte sie den Master in Computer Science in Mexiko, bevor sie ein Stipendium von der Europäischen Kommission bekam, um in Europa weiterzustudieren. Als Erstes kam sie nach Bozen; später landete sie dann in Wien auf der Technischen Universität, wo sie ihr Doktoratsstudium beendete.
Heute beschäftigt sich Ortiz unter anderem damit, wie Wissen repräsentiert werden kann. „Wissensrepräsentation versucht, das menschliche Wissen und Denken zu simulieren“, erklärt sie. Dabei geht es zum einen um das Verknüpfen von Informationen und zum anderen um die Frage, wie ein Computer Schlüsse aus Informationen und Wissen ziehen kann, sodass dies dem menschlichen Denken ähnlich ist. „Das ist nicht einfach“, meint Ortiz, „unser Gehirn zieht Schlussfolgerungen sehr schnell und braucht dabei nur wenige Ressourcen. Ein Computer hingegen würde ewig brauchen, um zur gleichen Schlussfolgerung zu kommen.“ Dabei geht es aber nicht nur um den Output der Software, sondern auch um die Fragen, die als Input an einen Computer gestellt werden. Wie müssen die Fragen formuliert sein, damit ein Computer sie effizient beantworten kann? Wo liegen die Grenzen? Tatsächlich kann in mancher Hinsicht das menschliche Gehirn schon mit Computern verglichen werden, zum Beispiel bei der Energieversorgung: Durch das Verbrennen von Glukose hat das Gehirn umgerechnet eine Leistungsaufnahme zwischen 15 und 20 Watt. Ein Supercomputer kommt hingegen auf eine Leistungsaufnahme von bis zu zehn Megawatt. Somit benötigt das menschliche Gehirn 500.000-mal weniger Leistung als ein Supercomputer, um komplexe Fragestellungen zu lösen.
Zu den Anwendungen der Wissensrepräsentation zählen vor allem Internetsuchen. „Früher gab es auf Google nur eine Stichwortsuche. Heute ist die Suchmaschine viel ausgereifter – man muss nur nach einer Stadt googeln und bekommt sofort ihre Größe, Einwohnerzahl und Sehenswürdigkeiten präsentiert“, erklärt die Informatikerin. Tatsächlich sind diese Algorithmen, die beispielsweise von Google benutzt werden, um Informationen zu verknüpfen, ein großer Teil der Wissensrepräsentation. Dabei ist es nicht nur wichtig, aus vorhandenem Wissen Schlussfolgerungen zu ziehen, sondern auch mit Wissenslücken zu arbeiten. Ortiz: „Sagen wir, jemand will eine Pizza Margherita backen und googelt nach den Zutaten. Das Internet wird ihm oder ihr sagen, dass eine Pizza Margherita aus Teig, Tomatensauce und Mozzarella besteht. Aber um einem zu verraten, ob die Pizza vegetarisch ist, muss die Suche auch erkennen, ob die Zutatenliste vollständig ist oder nicht.“ Ortiz versucht, dieses Problem zu beheben, indem sie nach Wegen sucht, Datenmengen besser zu organisieren und Bereiche, bei denen Informationen vollständig sind, mit den unvollständigen zu verbinden. So kann ein Computer trotzdem korrekte Schlussfolgerungen ziehen. Ortiz zeigt uns stolz ihre Gleichungen, über die sie bis vor Kurzem mit ihren Student*innen gegrübelt hat. „Wir arbeiten an einem Algorithmus, der besser mit der Teilvollständigkeit der Daten umgehen soll“, so die Informatikerin.
Die von Menschen produzierten Datenmengen sind in den letzten 40 Jahren enorm gewachsen. Schätzungen gehen davon aus, dass 80 oder sogar 90 % aller Daten auf der Welt in den letzten beiden Jahren produziert wurden. Heute besitzen wir meist mehrere Geräte, mit denen wir auf das Internet zugreifen. „Das hat Vor-, aber auch große Nachteile“, so Ortiz. Jeder Mensch hat damit Zugang zu einer enorm großen Datenbank. Die Suche nach spezifischen Informationen wird aber erschwert und man stolpert als User*in sehr schnell über Falschaussagen. Laut einer deutschen Umfrage aus dem Jahr 2018 sind 22 % der 18- bis 36-Jährigen davon überzeugt, dass bei KI-Technologie der Nutzen geringer ist als das Risiko. „Ich glaube, viele haben Angst vor dem Terminator, dabei sollte man mehr Angst vor Mark Zuckerberg haben“, so Ortiz.
ICH GLAUBE, VIELE HABEN ANGST
VOR DEM TERMINATOR, DABEI SOLLTE MAN
MEHR ANGST VOR MARK ZUCKERBERG HABEN.
Magdalena Ortiz über fehlgeleitete Ängste und echte Bedrohungen.
Die von Mark Zuckerberg gegründete Social-Media-Plattform Facebook war in den letzten Jahren oft in den Negativschlagzeilen. Die auf KI basierende Software, die gewalttätige Inhalte auf der Plattform zensieren oder löschen soll, hat in gleich mehreren Fällen versagt. Doch das ist nicht unbedingt nur Facebooks Schuld – denn dass KI oft gar nicht so gut funktioniert wie erwartet, liegt an ihrer Art, zu lernen. Wenn eine Maschine lernen soll, eine Katze auf Bildern zu erkennen, wird das System mit einer großen Menge an Katzenbildern gefüttert. Solche auf Deep Learning basierenden Maschinen erkennen dann Pixel, die in jedem der Katzenbilder ähnlich sind: also beispielsweise die Krallen, die spitzen Ohren und die langen Schnurrhaare. So kann die KI selbstständig lernen, welche Merkmale eine Katze hat und welche nicht. Sobald sie dann genügend Gemeinsamkeiten in den verschiedenen Bildern gefunden hat, soll sie die Fähigkeit besitzen, eigenständig aus einer großen Menge an Bildern jene zu isolieren, die Katzen zeigen. Während es für das menschliche Gehirn einfach ist, eine Katze von beispielsweise einem Hund zu unterscheiden, tut sich eine KI dabei etwas schwerer. Merkmale, die durch den Deep-Learning-Prozess einer Katze zugeschrieben wurden, treffen nämlich auch auf einen Hund oder andere Tiere zu. Von wirklichem Wissen kann hier deshalb also nicht die Rede sein.
„Diese Form von künstlicher Intelligenz, also das Erraten von Lösungen anhand einer großen Menge an Daten, ist nicht nur teuer, sondern auch intransparent“, erklärt Ortiz. Für die Zukunft hofft sie, dass die Wissenschaft einen Weg finden kann, Deep Learning vertrauenswürdiger und effizienter zu gestalten. „Die KI, die heutzutage benutzt wird, ist kein allwissender Gott“, so Ortiz. „Stattdessen haben wir es die meiste Zeit vor allem mit einer dummen Intelligenz zu tun.“ Trotzdem schreibt sie der Technologie eine große Zukunft zu; gleichzeitig erklärt die Forscherin aber auch, dass diese in den Händen von ein paar wenigen Reichen liegt, die das Kapital für umfangreiche Verbesserungen der Algorithmen haben. „Vor einigen Jahren ist die Technologie in die Hände von ein paar Nerds mit zu viel Geld gefallen“, meint sie lachend. Tatsächlich geben US-amerikanische IT-Riesen viel Geld aus, um spannende Unternehmen zu kaufen – auch in Österreich: Erst im Herbst 2021 investierte Microsoft 20 Millionen US-$ in das Grazer KI-Unternehmen Blackshark.ai, das vor allem für seinen selbst entwickelten Flugsimulator bekannt wurde. Auch der Tech-Riese Apple schlug zu: Zwischen 2016 und 2020 soll das Unternehmen 25 KI-Firmen gekauft haben, mit dem Ziel, den Sprachassistenten Siri zu verbessern. Zu den erworbenen KI-Unternehmen zählt beispielsweise ein Start-up für Sicherheitskameras namens Lighthouse AI, aber auch
Drive.ai, welches sich mit intelligenter Fahrzeugtechnik beschäftigt.
Magdalena Ortiz
wurde 1978 in Mexiko geboren. Heute ist sie Associate Professor an der TU Wien. Sie beschäftigt sich in ihrer Forschung hauptsächlich mit Wissensrepräsentation.
Mit dem Geld wächst aber auch der Druck, der auf Forscher*innen und Entwickler*innen lastet. Das spürt auch Ortiz – sie bleibt jedoch optimistisch: „Ich bin froh, in diesem Bereich gelandet zu sein, da ich glaube, dass hier sehr viel Potenzial drinnensteckt. Ich wünsche mir aber, dass KI für die Menschen transparenter und ehrlicher gestaltet wird.“ Auf die Frage, ob sie durch das Studium ihrem Ziel, Menschen zu helfen, näher gekommen sei, lächelt die Informatikerin: „Ich habe gemerkt, dass ich den Menschen am besten helfen kann, wenn ich das tue, was ich am meisten liebe.“ In Ortiz’ Fall bedeutet das: mathematische Theoreme beweisen.