Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.
Joachim Buhmann ist Leiter des Instituts für Maschinelles Lernen an der ETH Zürich. Uns erklärte er, warum ihn Angstvorstellungen von Stephen Hawking kaltlassen, was der „Heilige Gral“ des maschinellen Lernens ist und warum Depressionen unausweichlich sind, wenn der Mensch lediglich als Denkmaschine gesehen wird.
Forbes: Was ist der Unterschied zwischen den Begriffen „Künstliche Intelligenz“ und „Maschinelles Lernen“?
Joachim Buhmann: Das hat sich mit der Zeit verschoben. Früher war künstliche Intelligenz stark logikgetrieben. Die Herangehensweisen waren sehr gut auf Expertensysteme zugeschnitten. Das war eine Technologie, die man mit den „Fifth Generation Computers” in Japan verbunden hatte. Maschinelles Lernen war auch damals schon ein Begriff, hat aber in gewisser Weise ein Schattendasein gefristet. Unter maschinellem Lernen hat man nämlich eigentlich auch Logigkalkül verstanden.
Dann fand parallel, Ende der 1980er-Jahre, die Renaissance von neuronalen Netzen als nicht-parametrische Schätzer für Klassifikation und Regression statt. Das Problem in der künstlichen Intelligenz an sich war „Knowledge Engineering“, also: „Wie bringe ich Wissen in Systeme?“. Und diese Frage fand eine Antwort durch lernende Systeme. Wenn man heute schaut, wieso Google, Facebook, Microsoft, Amazon und Start-ups in diese Technologien investieren, dann merkt man, dass dieses datengetriebene Knowledge Engineering heute sehr viel besser durchgeführt werden kann.
Diese tiefen neuronalen Netze erfinden im Wesentlichen gutartige Repräsentationen, sodass sie funktionale Zusammenhänge lernen können, die sich Ihnen in der Vergangenheit aus den gleichen Datenmengen nicht erschlossen haben. Das ist ein enormer Fortschritt gewesen, um menschliches Verhalten zu imitieren. Das würde ich auch gleichzeitig als die Begrenztheit der jetzigen Ansätze sehen. Wenn Sie keine menschlichen Annotationen haben, stehen Sie ziemlich alleine da. Dann wissen wir relativ wenig, was wir machen sollen. Das heißt, diese „unsupervised knowledge discovery“ beruht immer noch darauf, dass wir versuchen, unsere Datenquellen zu schätzen und dann die Besonderheiten der Datenquellen, wenn wir sie wirklich zuverlässig schätzen können, als Entdeckungen darstellen. Wenn wir aber die Datenquellen grundsätzlich als viel zu komplex betrachten, damit sie geschätzt werden und Interpretationen der Daten ableiten wollen, dann aber bei den Interpretationen interessante Aspekte herauskristallisieren wollen, ohne dass der Mensch das könnte, haben wir unglaubliche Schwierigkeiten.
Was wäre ein Beispiel für solche Begrenzungen?
Etwa Krankheiten finden, die man in Spektrumskrankheiten vermutet – das sind phänotypisch einheitliche Krankheitsbilder, von denen man aber weiß, dass sie sich eigentlich aufspalten sollten in verschiedene Krankheiten. Wenn das ein Arzt nicht kann, diese spezialisierten Subkrankheitstypen zu finden, macht das große Probleme. Diese unsupervised knowledege discovery außerhalb von Dichteschätzung für Datenquellen – das ist das, was wir nicht verstehen. Das wird man im Endeffekt aber als die menschliche Kreativität preisen. Wir sind sehr gut im Experimentieren und im Fragen-Stellen in Bereichen, in denen wir dann tatsächlich prediktive Modelle bauen können.
In gewisser Weise ist das eine der enormen Stärken des Menschen. Der Mensch ist so gut im Bauen von prediktiven Modellen, dass er die eigene Existenz als handelnder Agent in seine Modelle einbauen und dann vorhersehen kann, wie er tatsächlich die Zukunft beeinflusst, um das dann in den weiteren Planungen wieder mit zu berücksichtigen. Das ist eine enorme geistige Leistung, von der wir [mit Maschinen] noch relativ weit entfernt sind.
Um das klarzustellen: Einer Maschine etwas beizubringen, was die Denkfähigkeit des Menschen übersteigt, etwa eine dem Menschen unbekannte Krankheit zu finden – davon ist man noch weit entfernt?
Ja. Man muss sich ansehen, wo die enormen Erfolge herkommen. Ein Beispiel ist Google Translate, gerade die neue Variante. Die Grammatik wird da immer noch gröblich vernachlässigt, das stört. Der Vorteil ist aber, dass man eine Übersetzung von Englisch in jede seltene Sprache dieser Welt. Und das kriegen Sie natürlich nur, wenn Sie Übersetzungsbeispiele haben. Wenn der Mensch also zuvor an Textdokumenten vorgemacht hat, wie übersetzt werden soll, dann können Sie das nachahmen. Es ist eine Imitationstechnologie, wenn man das ganz plakativ sagen würde. Genauso ist es bei der Bilderkennung und -kategorisierung. Das war eine der großen Herausforderungen im Bereich des Computer-Sehens. Ich würde sagen, das war der „Holy Grail“.
Da war man natürlich in einer sehr guten Situation, weil das Ganze an realen Bildern getestet worden ist, etwa Urlaubsbildern. Wir sind enorm gute Interpretatoren dieser Bilder. Ich kann Ihnen ein Bild zeigen und Sie können dutzende Kausalzusammenhänge aus diesem Bild herauslesen, weil Sie das Bild im Sinne eines Prozesses, den Sie verstehen, interpretieren können. Wenn ich Ihnen ähnliche Bilder gebe, die Informationen über Biopsien liefern, sind selbst gut ausgebildete Ärzte häufig nicht in der Lage dazu. Von daher blendet der Erfolg, der aktuell da ist, uns bei der Einschätzung der Technologie etwas. Die Technologie ist sehr gut dort, wo wir dem Algorithmus vormachen können, was er zu tun hat. Wenn der Algorithmus unabhängig von uns ein Programm erfinden muss, das hohe Prediktivität bezüglich einer Interpretation der Daten hat – sprich der Algorithmus soll eine Datenwelt in eine Interpretationswelt abbilden, die in irgendeinem Sinne unser Problem lösen kann – dann haben wir große Schwierigkeiten. Wenn der Mensch nicht vormachen kann, wie das auszusehen hat.
Um die Technologie auf die nächste Stufe zu heben, müssten also Maschinen eigentlich Daten und Vorzeigebeispiele selbst produzieren und darauf ihr Lernen aufbauen. Sich also eine eigene Datenbasis kreieren.
Genau. In den Wissenschaften machen wir das dadurch, dass wir exploratorisches Forschen betreiben. Wir erforschen nicht nur das, was offensichtlich ist. Sondern wir explorieren in Bereiche, in denen wir besonders wenig wissen. Man hat dann primitive Modelle, die eine Vorhersage machen und die Experimente geben uns eine Antwort. Und aus der Diskrepanz schließen wir, wie unsere Modelle angepasst werden müssen. So bewegen wir uns schrittweise in ‚Terra Incognita’. Die Frage ist jetzt, welche grundsätzlichen Prinzipien müssen wir entdecken – oder haben wir bereits entdeckt, aber nicht formalisiert – sodass ein Algorithmus genau dieses explorative Verhalten des Menschen nachahmen kann. Und ich denke, dass wir eine Mischung aus Prediktivität und Interesse an einer gewissen Frage, der Wert einer gewissen Frage, dass wir das zusammenbringen. Es nützt Ihnen nichts ein Modell für Fragestellungen zu bauen, bei denen Sie sehr hohe Prediktivität erzeugen können, für die sich aber niemand interessiert.
Umgekehrt ist die Herausforderung darin gelegen, dass wir gewisse Fragen sehr spannend finden – zum Beispiel „Was hilft, unsere Lebenserwartung zu verlängern oder unser Glücksempfinden zu erhöhen?“ Oder, in ökonomischer Hinsicht: „Wodurch können wir unseren Gewinn maximieren?“ Diese Fragen sind nicht nur dadurch motiviert, dass wir besonders gut wären, sie zu beantworten. Sondern, dass sie eine hohe Relevanz haben und wir uns dann bemühen die Methoden zu entwickeln, die geeignet sind, diese Fragen zu beantworten.
Maschinen sind in Teilbereichen – etwa Schach oder Go – bereits intelligenter als Menschen. Welchen Zeithorizont braucht es, bis sie die kognitiven Fähigkeiten eines menschlichen Kleinkinds erreichen werden?
Es gibt diese Fantasien von der ‚Superintelligenz’. Ich lese auch gerade das Buch ‚Homo Deus’ von Yuval Harari. In den Schlusskapiteln wird genau dieses Szenario gezeichnet. Ich bin da ein bisschen skeptisch und zwar aus folgendem Grund: Man tut immer so, als ob die künstliche Intelligenz mit dieser ungeheuren Masse an Daten, die sie verarbeiten und mit den sehr komplexen Modelle, die sie aufbauen kann, alle Fragen der Vorhersage vernünftig beantworten kann. Das ist aber mitnichten klar. Denn es wird immer wieder in der Geschichte der Menschheit Situationen geben, wo kleine Änderungen einen großen Ausschlag geben können.
Zum Beispiel?
Etwa die Wahlen in den USA. Das war ein Scheideweg. Wenn es auf die eine Seite gegangen wäre, hätten wir mit einem modifizierten Status Quo weitergemacht. Jetzt ist es aber auf die andere Seite gegangen und man geht ganz neue Wege – oder auch nicht, das ist spekulativ. Die Vorhersagbarkeit ist nicht nur durch unsere Fähigkeit, aus Daten Informationen zu ziehen, eingegrenzt, sondern auch durch die prinzipielle Nicht-Vorhersagbarkeit gewisser Systeme geprägt. Hier weiß man, dass die Systeme insgesamt instabil sind. Und wir müssen uns trotzdem daran anpassen. Und wenn wir ein solches System haben, etwa eines, das deterministisches Chaos zeigt – das kann auch in Wirtschaftsprozessen vorkommen, das ist kein esoterisches Phänomen – und wenn diese Einflüsse die Entwicklung der Menschheit in der Umgebung dieser Erde so maßgeblich prägen, sind unserer Vorhersagbarkeit schon prinzipiell Grenzen gesetzt.
Und dann ist es auch gar nicht mehr klar, ob große Unterschiede in der Intelligenz so einen Unterschied in der Machtausübung bewirken. Hier lasse ich mich nicht irre machen durch Angstvorstellungen, die Leute wie Stephen Hawkins oder Elon Musk bekommen. Ich denke, dass das Ganze zu naiv gesehen ist in Bezug auf das, was überhaupt algorithmisch und statistisch entscheidbar ist. Und genau diese Dinge sehen und verstehen wir heute viel zu schlecht. Natürlich wissen wir, dass es unentscheidbare berechnungstechnische Probleme gibt. Wie stark die aber auf unser Leben konkreten Einfluss haben und wann sie wirklich zuschlagen ist nicht klar.
Von daher gesehen könnte es genauso ausgehen, dass natürlich Computer heute in Nullkommanichts die Kontostände von Millionen von Kunden berechnen können. Da könnte man auch sagen: „Was ist das für ein Machtzuwachs für die Computer gegenüber uns als ‚Adam Riese-geprägte‘ Rechenmaschinen?“ Aber kein Mensch würde das so auffassen. Das ist einfach eine Technologie. Natürlich ändert sich die Situation, wenn diese Technologie Entscheidungen für unser Leben trifft. Wenn dann die Fähigkeiten, diese Entscheidungen sehr präzise zu treffen, nicht nur für unser Leben gelten, sondern auch für das Weiterführen dieser Technologie. Dann kann es beispielsweise Rückkopplungen geben. Aber wer sagt denn, dass das nicht genau diese Situation wird, die unentscheidbar ist, bei der die Karten neu gemischt werden?
Auch für Forscher haben sich die Bedingungen geändert. Früher mussten Sie jeden Befehl programmieren, heutzutage muss man vielleicht nur noch ein ‚Dachprogramm“ schreiben, in dem sich das System selbst weiterentwickelt. Arbeiten Sie in gewisser Weise daran, sich als Forscher obsolet zu machen?
Den Forscher als Schöpfer eines Programmes zu gebrauchen bedeutet natürlich, dass der Forscher das Modell, dass das Programm repräsentieren soll, versteht. Die Technologie, die wir jetzt entwickeln, entwickeln wir ja nicht für Bereiche, in denen wir in der Vergangenheit schon sehr gut waren. Dort wird natürlich der Forscher wahrscheinlich seinen Platz beibehalten, weil seine Kreativität stark geschätzt wird. Wir gehen jetzt aber in Bereiche, die wir zuvor nie erforschen konnten, weil die Komplexität so hoch war. Und es sind Bereiche, die waren seit Beginn der Menschheit relevant: Medizin – seitdem wir sesshaft sind bauen wir Gesellschaften und wollen also auch Prozesse von Menschen in diesen Gesellschaften vorhersagen; unser Wirtschaftshandeln; Finanzen, seitdem wir Geld erfunden haben. Das sind alles Bereiche, die waren immer relevant, natürlich mit unterschiedlichen Gewichtungen. Aber wir sind heute zum ersten Mal wegen der hohen Komplexität, die die Beschränkungen der Speicherplatzkapazität unseres Gehirns überwindet, in der Lage, prediktive Modelle zu bauen. In gewisser Weise ist das keine ‚replacement technology’.
Wir ersetzen also nicht den Menschen, sondern schaffen Lösungen für Bereiche, wo der Mensch bisher nie prediktive Modelle bauen konnte. Oder, wo der Mensch vielleicht als Implementierung des prediktiven Modells im Unterbewussten agiert hat – also der Arzt, der seinem ‚gut feeling’ vertraut. Diese Rationalisierung, die wir in den anderen Wissenschaften hatten, mit hochpräzisen Modellen, ist nie gelungen. Und das hängt damit zusammen, dass Sie keine personalisierte Medizin machen können, wenn Sie nicht das Genom analysiert haben. Wenn Sie das Genom von sehr vielen Menschen analysieren und dann feststellen, dass genau bestimmte Snips (‚Snip‘ steht für ‚Single Nucleotide Polymorphism’ – also vererbbare genetische Varianten) entscheidend sind als Ursache für eine Krankheit, haben Sie wieder ein einfaches Modell.
Vielleicht ist es aber auch eine komplizierte Mischung aus verschiedenen Snips und gleichzeitig Umwelteinflüssen, die da mit reinkommen und noch anderen Prädispositionen, die den Gesundheitszustand des Patienten beschreiben. Es ist mitnichten klar, dass wir in dieser hohen Komplexität keine prediktiven Modelle bauen können. Wir haben nur keine Erfahrung, wie das gehen sollte. Vielleicht geht es auch gar nicht. Ich denke aber nicht, dass wir irgendeinen sinnvollen Hinweis haben, dass das nicht gehen kann. Wir wissen nur nicht, wie es geht, weil wir bisher die Beschränkung des Gehirns – was die Speicherkapazität anbelangt – immer beachten mussten. Das hat dazu geführt, dass wir nicht als Datenbanken durch die Welt laufen, die sich einfach alles merken. Sondern, dass wir permanent das Bedürfnis haben, Theorien zu bauen. Wir bauen sogar Theorien, wenn wir wissen, dass die Quelle Zufall ist. Wir haben dieses inhärente Bedürfnis, Regelmäßigkeiten zu sehen.
Woher kommt dieses Bedürfnis?
Ich sage den Studierenden immer: All diejenigen, die wirklich gute unverzerrte Schätzer waren, sind von den Tigern aufgefressen worden. Denn es ist einfacher, ab und zu mal einen Tiger im Dunkel des Gestrüpps herbei zu halluzinieren, als einen der da ist und für den die Evidenz noch schwach ist, nicht zu detektieren. Denn wenn ich ihn wirklich sehe, ist es zu spät. Und solche Mechanismen führen dazu, dass wir eben nicht alles bloß abspeichern, sondern, dass wir alles im Sinne von Theorien verarbeiten und uns dann Modelle über die Welt machen. Und diese Modelle mögen ganz drastische Biases – also Vorurteile – eingebaut haben. Aber die helfen uns eben, diese Limitiertheiten zu überwinden.
Gerade in einem Ihrer Spezialgebiete – der Medizin – ist das ein heikles Thema. Etwa, wenn es zu Fehldiagnosen kommt. Wie gehen Sie mit dieser Frage um?
Hier sollten wir uns keine falschen Vorstellungen machen. Ein Arzt mag zwar aus rechtlicher Sicht am Ende noch die Entscheidung treffen – und das ist auch gut so – aber wenn eine Technologie deutlich bessere Vorhersagbarkeit als die Erfahrung des Arztes mit sich bringt, bin ich gottfroh, wenn ich mich als Patient auf die Technologie verlassen kann – und der Arzt Plausibilitätschecker ist. Dann möchte ich aber nicht, dass der Arzt und, weil vielleicht heute Sonnenschein ist, plötzlich nach seinen Entscheidungen geht und nicht nach denen der Maschine.
Dieses Geschäft ist ein Wissensgeschäft. Und wir validieren unsere Modelle so, dass diese Algorithmen tatsächlich auf einer wissenschaftlichen Basis – mit allen Einschränkungen, die bei solchen Tests mit einhergehen – verlässlich die Zukunft vorhersagen. Etwas anderes kann der Arzt auch nicht. In gewisser Weise ist ‚big data processing’ ja nur Konversion von Daten in Erfahrung. Genau das ist es, was diese Algorithmen machen. Es wird ein internes Modell aufgebaut und obwohl diese Modelle enorm kompliziert sind – da gibt es zum Teil bis zu 100 Millionen Parameter, die sie anpassen – haben Sie noch vielmehr Daten, um dann diese Modelle tatsächlich zu bauen und letztendlich auch in der Realität zu testen. Und so kriegen wir sie auch so hin, dass Systeme zuverlässig trainiert werden können, autonom zu fahren. Oder, dass automatisierte Diagnosen abgeleitet werden. Denn Ärzte hin oder her, in Amerika werden viele Ärzte sehr leicht verklagt. Der Arzt hat also einen Interessenskonflikt, einen Kompromiss zulasten des Patienten für mehr Diagnose und Therapieversuche einzugehen, weil er ansonsten wegen Vernachlässigung des Patienten verklagt werden kann. Ob das bei einem terminalkranken Patienten letztendlich die richtige Entscheidung war, sei dahingestellt.
Es gibt verschiedene Fragen, die man dem Arzt stellen kann, etwa: Nehmen Sie an, Ihre Mutter hätte die Krankheit, was würden Sie ihr raten? Dann kann man schon vieles von diesem Bias neutralisieren – denn bei der Mutter ist man ziemlich sicher, dass sie ihn nicht verklagt. Wenn man ihn fragt: Was würden Sie selbst an meiner Stelle machen? Dann ist das hypothetisch. Denn ich weiß nicht, was der Arzt über sich selbst denkt. Diese Empfehlungssituation kommt natürlich besonders gut heraus, wenn man einem nahen Verwandten, zu dem man eine hohe Empathie hat, etwas empfiehlt. Von daher gesehen ist es nicht so klar, was der Arzt als Letztenscheider tatsächlich tut.
Und die Ethik am Schluss? Sicher kann ich mich fragen, wen soll ich verklagen, wenn in meinem Fall etwas anderes entschieden wurde. Aber das ‚counter-factual’: Was wäre gewesen, wenn der Arzt mich ohne die Maschine behandelt hätte – das will ich mir gar nicht ausmalen. Was da an Fehldiagnosen zusammenkommt ist unglaublich. Ein Teil der Aufgabe von Ärzten ist, als Datenbank zu funktionieren, also gelerntes Wissen in den richtigen Situationen abrufen zu können. Und genau dort versagen sie, wenn jemand mit einer seltenen Krankheit daherkommt. Wenn der Arzt die einmal in seinem bisherigen Berufsleben gesehen hat – nämlich während der Ausbildung – war das vielleicht doch ein bisschen wenig. Und in diesem Kontext kann man natürlich auch die Frage stellen: Was ist „Uber-Med“?
Also was ist die disruptive Technologie, die irgendwann einmal unser Medizinwesen erfassen könnte, wenn die Digitalisierung so weitergetrieben wird. Ich denke, die verantwortungsvollen Ärzte machen sich heute viele Gedanken darüber. Natürlich ist es für einen Arzt eine große Erleichterung, wenn der Teil seiner Arbeit, der durch mechanisches Zugreifen auf Wissen, das er gelernt hat, ersetzt wird durch eine moderne Datenverwaltungs- und Inferenztechnologie, dann wird er entlastet. Er muss natürlich immer noch die Grundfertigkeit behalten einzuschätzen, was die Maschine ihm da jetzt eigentlich vorschlägt. Aber vielleicht hat er dann mehr Zeit, auf die persönlichen Befindlichkeiten des Patienten einzugehen. Das wird heute gröblich vernachlässigt. Das bekommt man nicht mehr. Vielleicht ist eine sinnvolle Begleitung der letzten Lebensphase für einen Patienten, auch wenn das vielleicht ein halbes Jahr weniger Leben bedeutet, die viel bessere Lösung, weil die Restzeit von viel höherer Qualität war. Dazu braucht man wahrscheinlich einen Menschen, das kann eine Maschine wahrscheinlich nicht so gut. Aber: Ich sage wahrscheinlich – Who knows? Vorhersagen an dieser Stelle sind immer sehr ungewiss.
Ist es für die Bevölkerung ein gewisser Reifungsprozess, dass man diese statistische Sicherheit – etwa bei selbstfahrenden Autos im Vergleich zu normalem Straßenverkehr – lernen muss? Und dann auch die Kontrolle abgibt?
Manchmal kann man bloß zynisch sein. Wie viele Milliarden oder Billionen haben wir an Geld ausgeben für die Opfer von 9/11 und die Attentatsopfer in der westlichen Welt, die danach gekommen sind? Wenn man das hochrechnet, waren das keine 20.000 Leute. Und wieviel kümmern wir uns um die ganzen anderen Toten in der Homo Sapiens Sapiens-Spezies, die einfach so nebenbei passieren? Durch irgendwelche Kriege, Verteilungskämpfe, Umweltverschmutzung, und so weiter. Wenn man ein bisschen zynisch ist, kann man frustriert sein. Das ist ja auch das, was die Leute immer wieder sagen. Zum Glück betonen zumindest manche Politiker, dass Terror zwar schlecht ist. Aber auch, dass er komplett ineffektiv ist, was das tatsächliche Produzieren von Schaden anbelangt. Terror ist nur wirksam, wenn er in unseren Köpfen als Transmissionsriemen plötzlich so viel Angst generiert, dass wir unsere aufgebauten Gesellschaften selbst zerstören. Das ist das Problem.
Wir als Menschen sind nicht gebaut für die hohe Komplexität, die heutzutage funktioniert. Man sollte ehrlich mit sich umgehen: Wann ist unser Gehirn eigentlich entstanden? Wenn der Homo Sapiens Sapiens vor 80.000 vor Christus entstanden ist und die Denkfähigkeit, die damit einhergeht, in den letzten 200.000 Jahren entstanden ist, dann sind wir hauptsächlich geprägt – und das ist, glaube ich, auch wissenschaftlich gut belegt – wie wir Steine klopfen müssen, damit sie genauso zersplittern, um als Waffen oder Werkzeuge zu dienen. Das war alles zu einer Zeit, wo die Welt, wie sie uns betroffen hat, relativ überschaubar war – und Gesellschaften sowieso. Heute leben wir in einer komplett anderen Welt. Wir strapazieren unsere Hardware schon ziemlich und dessen sollten wir uns gelegentlich auch mal im Klaren sein. Und dass wir uns jetzt Hilfe holen von Maschinen, die auch entscheiden können, halte ich für Situationen mit dieser enorm hohen Komplexität nur für angemessen. Ich habe riesige Hoffnungen für diese Technologie. Und zwar nicht, weil ich glaube, dass die Probleme dieser Technologie gering sind, sondern weil ich glaube, dass die Probleme der Menschheit so gigantisch sind, dass das die einzige Hoffnung ist.
Stellen Sie sich das einmal vor: Wir streiten uns heute mit dem mächtigsten Mann der Welt darum, ob man jetzt ‚beyond reasonable doubt’ sagen kann, dass der Mensch die Erde aufheizt. Jetzt können wir uns vielleicht nochmal 50 Jahre streiten. Aber die Trägheitselemente in diesen ganzen Prozessen sind so groß, dass wir lange bevor wir den Point of No Return überschritten haben erst merken, dass es kein Zurück mehr gibt. Und die Menschheit zerstört sich natürlich selber. Wir sind 7,2 Milliarden Menschen, das große Sterben hat schon eingesetzt, weil die Verdoppelungsrate schon wieder unendlich ist. Wir saturieren zwischen elf und vierzehn Milliarden Menschen. Rechnen Sie hoch: Sieben Generationen – sieben ist eine biblische Zahl –, elf Milliarden und der Planet ist fertig. Und es ist nicht so, dass die Natur verschwinden wird, nein.
Die Natur wird einfach sagen: Was hat gut und was hat schlecht funktioniert? Viren – super. Bakterien haben auch gut funktioniert. Krokodile wollen wir wahrscheinlich auch behalten, die haben sich einigermaßen bewährt. Das Experiment mit der Intelligenz ist aber komplett aus dem Ruder gelaufen – das wird terminiert, weil die Lebensgrundlagen nicht mehr da sind. Und dann wird sich wieder etwas Neues ergeben. Wenn wir aus dieser Falle herauskommen wollen brauchen wir eine Technologie, die uns mit zuverlässigen Prognosen klarmacht, dass wir Generationen früher die Notbremse ziehen müssen, weil es sonst zu spät wird. Dann können wir den gigantischen Tanker Erde nicht mehr stoppen. Wenn man den Vorhersagen vom Club of Rome – ich habe da nicht so tiefe Einsichten, um die Richtigkeit beurteilen zu können – glaubt, dann können sich auf dieser nachhaltig ein bis zwei Milliarden Menschen ernähren. Ohne auf Pump in der Zukunft zu leben. Das bedeutet im Wesentlichen, das neun von zehn [Menschen] verschwinden müssen. Und das noch einigermaßen ethisch verträglich. Das ist keine leichte Aufgabe. Vor allem, wenn man das über mehrere Generationen planen muss.
Maschinen können Autos steuern, Artikel schreiben und Krankheiten erkennen. Wo sehen Sie den nächsten großen Wurf für maschinelles Lernen?
Meine eigene Forschung dreht sich seit 25 Jahren um die Frage des unüberwachten Lernens. Das ist genau dieser Bereich, in dem diese Technologien nicht auf reines Nachahmen des Menschen und Imitation der menschlichen Intelligenz hinausläuft. In den nächsten Dekaden werden wir wahrscheinlich gut damit beschäftigt sein, diese Symbiose zwischen Maschine und Mensch – wobei jeder seine Stärken mit einbringt – zu perfektionieren.
Die Herausforderung wird sein, die Algorithmen immer cleverer zu machen, sodass sie sehen, welche interessanten Fragen (wozu man wiederum ein Maß braucht) man beantworten könnte. Und wofür man tatsächlich prediktive Modelle bauen könnte, obwohl der Mensch die Frage noch gar nicht gestellt hat. Das autonome Planen wird eine der großen Herausforderungen sein. Man sieht es ja schon bei den Spielen wie Go und Schach: In diesem sehr begrenzten Rahmen planen die Maschinen besser als der menschliche Spieler. Die Maschinen verwenden dabei andere Strategien, weil sie andere Beschränktheiten haben. Sie schlagen uns aber bereits mit diesen Beschränktheiten – mit genügend Speicherkapazität und Rechenleistung. Ich glaube aber, dass die Speicherkapazität an dieser Stelle wichtiger ist.
Wenn Maschinen so kreativ würden, wie wir es sind und diese Speicherbeschränkung nicht haben, würde ich erwarten, dass sie deutlich mehr machen können. Es ist in gewisser Weise dieses Problem. Wenn die Leute heute sagen: Sollen wir uns bedroht fühlen durch diese Technologie? Ich fühle mich überhaupt nicht bedroht. Denn mein Menschenbild ist nicht eines, einer Denkmaschine. Ich glaube, der Mensch ist viel mehr, als eine Denkmaschine. Dazu braucht er gar nicht religiös zu sein. Wenn man das natürlich ist, dann wird einem das sehr schnell klar. Dieses Komplettpaket des Menschen als ein denkfähiges Individuum und was sonst noch alles mit dazukommt – das wird die Maschine wahrscheinlich noch sehr lange oder vielleicht nie ersetzen. Wenn ich den Menschen als intelligenten Agenten auf einen Entscheidungsfinder reduziere, dann wird er irgendwann überholt, und zwar dramatisch. Dass man dann depressiv werden kann, kann ich gut verstehen (lacht).
Welche Schwerpunkt setzt die ETH in Ihrer Forschung – neben der schon angesprochenen Medizin und dem maschinellen Sprachverständnis, mit dem sich ja Ihr Kollege Thomas Hofmann befasst?
Mein Kollege Andreas Krause beschäftigt sich viel mit Sensornetzwerken. Also die Interpretation von vielen heterogenen Datenquellen, etwa im Umweltmonitoring. Da geht es auch um Fragen, wie man die Datenquellen, die schon da sind – zum Beispiel Smartphones mit ihrem Beschleunigungssensor – verwenden, um als unzuverlässige Sensoren Erdbebenwellen zu detektieren. In Kalifornien gab es dazu ein großes Projekt, in Richtung ‚community sensing’. Viele Leute bemühen sich, für den Finanzbereich etwas Positives bewirken zu können.
Auch die ganzen Wirtschaftsplanungsprozesse. Wir haben auch versucht, diese Technik bei Fragen der Informationssicherheit einzusetzen. Eine sehr schöne Dissertation gab es dazu im Bereich ‚Roll-based acces control’. Eine Bank hat beispielsweise 20.000 Beschäftigte und für alle möglichen Prozesse in der Bank gibt es Berechtigungen, vielleicht 50.000. Dann haben Sie eine Matrix von 20.000 mal 50.000 Einträgen von 0 und 1. Und jetzt wollen Sie da eine Struktur finden.
Natürlich geht man davon aus, dass die Beschäftigten sich nach Rollen organisieren. Und wenn ich die gleiche Rolle einnehme, dann habe ich in der Regel auch die gleichen Rechte. Aber diese Art von Strukturfindung in solchen Szenarien, die mit Sicherheit zu tun haben, dienen auch dazu, Risiken bewerten zu können. Denn wenn Sie einem Beschäftigten ein Recht nicht geben, können Sie das Risiko der Firma recht einfach messen. Denn dann kann er die Arbeit nicht durchführen. In diesen Entscheidungen ist ein Prozess involviert, der kostet Zeit und Geld. Was viel schwieriger zu bewerten ist, ist jedoch, wenn der das Recht hat und eigentlich nicht bräuchte. Was ist denn das für ein schlafendes Risiko, dass da verborgen ist! Und diese Asymmetrie kann man versuchen, quantitativ auflösen, wenn man Modelle baut.
Security ist enorm wichtig, aber zuerst muss ich wissen, was ich schützen will. Erst muss ich die Daten verstehen – und das ist machine learning. Und wenn ich sie dann verstanden habe und weiß, wie wertvoll sie sind, möchte ich sie schützen. Hier gibt es eine gewisse Hierarchie. Genauso wie es eine Hierarchie zwischen Verallgemeinerung von Algorithmen und Geschwindigkeit von Algorithmen eine Hierarchie zu sehen ist. Ich muss zuerst ob ein Algorithmus mir überhaupt das, was ich von ihm erwarte – nämlich, dass er ein prediktives Modell repräsentiert – überhaupt berechnen kann. Und wenn ja, wie schnell. Besonders schnell die falsche Antwort zu bekommen war schon immer ein Riesenfehler.
Auch in der Bildung und Universitätslehre wird künstlicher Intelligenz großes Potenzial nachgesagt. Etwa, weil so Unterricht maßgeschneidert auf die Studierenden zugeschnitten werden kann. Werden solche Technologien an der ETH bereits eingesetzt?
Das ist ein Thema. Nach meinem Kenntnisstand wird es bisher noch nicht eingesetzt. Aber wir beschäftigen uns jetzt gerade mit der Frage – das ist ein Schwerpunkt der Rektorin (Sarah Springman, Anm.) – wie in der Zukunft eigentlich geprüft werden soll. Wir haben an der Universität die, ich würde sagen, bizarre Situation, dass der Ausbilder den Studierenden alles, was er weiß, beibringen muss. Und sie gleichzeitig auch noch bewerten soll. Das ist ein klassischer Interessenskonflikt. Am besten könnte ich sie nämlich dann ausbilden, wenn ich Ihnen gleich auch die Übungsaufgaben mitgebe. Da können sie sich super darauf vorbereiten. Das ist das, was normalerweise der Fußballtrainer macht. Und ein Trainer ist eben typischerweise nicht der Schiedsrichter im Spiel.
Die Frage ist also, kann man diesen Conflict of Interest lösen? Und natürlich wissen die Studierenden durch ihre Wechselwirkung während des Lernens darüber Bescheid, wer jetzt wieviel verstanden hat. Das mag kein tiefes Verständnis sein, wie es ein Dozent entwickeln kann, der die Vorlesung anbietet. Gleichzeitig ist aber immer das Bewerten mit Zeit verbunden. Wenn sehr viele sich mit mir als Studierendem beschäftigen, glaube ich, dass in diesem Kollektiv von Meinungen ein viel besseres Urteil verborgen ist, als wenn ich in einer halbstündigen Prüfung mich mit dem Prüfling unterhalte und versuche, herauszubekommen, was genau er jetzt meint. Hier gibt es sicher Alternativen – Sie haben zuvor nach den großen Herausforderungen gefragt – die sind natürlich überall, wo Personalisierung eine Rolle spielt. Dort einen Fortschritt zu produzieren.
In der Medizin will ich personalisierte Medizin haben. Das bedeutet in der Regel, dass die Therapie auf mein Genom ausgelegt sein sollte. Vielleicht auch noch auf meine Lebenssituation, meine Umwelt, und so weiter. Beim Lernen ist es genauso: Ich möchte vielleicht die Besonderheiten, die der einzelne Student hat, berücksichtigen. Seinen aktuellen, konkreten Lernfortschritt beim Stellen von Aufgaben miteinbeziehen. Das ist eine unglaubliche Intelligenzleistung, die die meisten Lehrer normalerweise im One-to-One tatsächlich hinbekommen. Da könnte ich mir sehr gut vorstellen, dass Algorithmen mit ihrer Fähigkeit, sehr schnell Aufgaben nach einem Schema zu generieren, diese Art von Personalisierung irgendwann einmal meistern. Dazu müssen sie aber den aktuellen, mentalen Verständniszustand des Studierenden zumindest ein primitives Modell entwickeln. Ich bin aber der Meinung, ein primitives Modell ist an dieser Stelle noch viel besser, als überhaupt kein Modell, wie eine ‚One sitze fits all’-Mentalität. Denn dass ist es, was wir aktuell machen.
Möchten Sie noch etwas Abschließendes sagen?
Was ich gerne noch sagen will: Man soll mit Optimismus in die Zukunft schauen. Denn wenn die Europäer nicht optimistisch sind, wird diese Technologie irgendwo anders entwickelt. Und zwar nicht unbedingt in den USA, sondern in Fernost oder Indien. Diese Leute sehen in einer ganz anderen Art und Weise die Notwendigkeit, neue Lösungen zu produzieren, weil sie unter den enormen Belastungen der heutigen Zeit noch viel stärker leiden als wir in Europa.
Bei uns ist das Gejammer auf sehr hohem Niveau. In diesen Ländern geht das aber schon drastisch an die Lebenserwartung, was Umweltverschmutzung und so weiter angeht. Ich habe letztes Jahr einen Vortrag bei der Schweiz-Chinesischen Wissenschaftsgesellschaft gehalten. Da waren junge Leute, für die war das, was ich erzählt habe, eine Selbstverständlichkeit. Und wenn man zu Europäern redet, bekommt man manchmal ein ungläubiges Staunen und dann heißt es ‚Schon wieder so ein Miesmacher.’ Der Zustand der Welt ist dramatisch schlecht, das muss man zur Kenntnis nehmen. Es kann sein, dass ich mich irre, aber die Wahrscheinlichkeiten sprechen nicht dafür. Und die Zeitskalen sollte man nicht außer Acht lassen. Wir reden von 1,5 Grad Erhöhungslimit. Das ist doch Augenauswischerei, wir werden auch nicht bei zwei Grad stoppen. Wenn wir Glück haben, werden wir unter 2,5 oder 3 Grad stoppen. Und was dann in zwei oder drei Generationen passiert, wenn die Gletscher verschwinden und der Nordpol anfängt zu schmelzen, Deltas mit Salzwasser überflutet werden und dort nichts mehr wächst und wir auch sonst nirgendwo in großem Stil Nahrungsmittel produzieren können.
Ich habe Kollegen, die sagen, dass diese enorme Bevölkerungexplosion durch das Haber-Bosch-Verfahren produziert wurde – also, dass wir Kunstdünger produzieren können. Wie sollen wir das machen, wenn Phosphor zu Ende geht? Die Leute denken immer, sie können nicht mehr so gut Autofahren, weil das Benzin zu teuer wird. Jetzt stellt man fest, man kann die Zitrone vielleicht nicht nur zusammendrücken, sondern auch noch pürieren, noch ein bisschen ausquetschen – mit Fracking. Toll. Das hilft einer Generation. Ich sage immer, die Ungeborenen werden uns verfluchen. Und wir brauchen bloß nicht hoffen, dass sie ungeboren bleiben.
Fragen Sie sich einfach einmal: Welches Gesellschaftssystem, das wir bis jetzt ausgetestet haben – da können Sie alle dazunehmen: Nationalsozialismus, die extreme Linksdiktatur in Russland oder Kambodscha und auch die Demokratie – ist ohne Wachstum ausgekommen? Keines.
Das heißt also, wir machen gerade ein Experiment, bei dem unsere Erfahrung uns gar nichts sagt. Das muss man sich auf der Zunge zergehen lassen. Das ist wie die erste Operation am offenen Herzen. Wenn mir etwas Angst macht, dann diese Aussicht. Aber ich denke, die Kreativität des Menschen ist groß genug. Wir müssen aber die Kurve kratzen. Wenn wir die nicht kriegen, dann geht’s dahin. Und das Schlimme ist – genau wie beim Brexit: Die, die Entscheidungen maßgeblich beeinflussen müssen die Zeche nicht zahlen.
Noch nie ist eine große technologische Revolution innerhalb von einer Generation abgelaufen. Das Internet mit den Social Networks ist in einer Generation abgelaufen – 25 Jahre. Aus welchem Grunde sind die Entscheidungsträger, die so eine technologische Revolution managen sollen, die typischerweise alten Leute, die in der Politik aktiv sind? Man kann mit Fug und Recht sagen: Die verstehen doch nichts davon. Das war früher anders. Früher wurde die technologische Entdeckung gemacht, dann hat die erste Generation sie als etwas Atemberaubendes bewundern können. Die nächste hat die technologie ‚customised’ und die dritte Generation hat sie verbreitet. Wir vergleichen das Internet immer mit dem Buchdruck. Bis das erste Buch tatsächlich den Mann auf der Straße oder den Bauern auf den Feld beeinflusst hat, hat es 150 Jahre gedauert. Das waren ganz andere Zeiträume.
Unsere Prozesse sind mit diesen sehr schnellen, kurzlebigen Zeiträumen nicht darauf abgestimmt. Das ist das massive Problem, das da ist. Ich verstehe die Jungen heute gut – warum sollen die Vertrauen zu uns Alten haben?
Die sollten sagen: Die verpulvern unsere Lebensgrundlage, damit sie noch ein paar schöne Jahre haben. Wenn man das rational erkenn kann, sollte man es auch emotional umsetzen und die Konsequenz daraus ziehen. Und dazu sehe ich heute zuwenig Leute, die dazu bereit sind. Es gibt sie schon, die wachsen vielleicht auch. Aber ich bin mir nicht im Klaren darüber, ob sie schnell genug wachsen, dass sie die Prozesse, die ja auch laufen, noch maßgeblich steuern können.
Das Interview stammt – in einer gekürzten, bearbeiteten Form – aus unserer Februar-Ausgabe mit dem Schwerpunkt „Künstliche Intelligenz“.
Fotocredits: Daniel Winkler, Wolfram Scheible / ETH Zürich