GEFÜHLE ERKENNEN

Die Forschung hat Emotionen lange Zeit außer Acht gelassen, weil sie sie als unwissenschaftlich betrachtete. Heute ist die emotionale Dimension bei komplexen kognitiven Aufgaben unbestritten. Forscher glauben, dass Computer, die Emotionen lesen können, den Menschen tatsächlich effektiver unterstützen können. Die Anstrengungen, eine „emotionale KI“ zu entwickeln sind also groß. Ein Unternehmen, das daran arbeitet, ist Affectiva. Das Spin-off  des MIT Media Lab wurde 2009 von zwei Wissenschaftlerinnen gegründet.

Die Frage, ob ein künstliches System in der Lage ist, menschliche Emotionen zu erkennen (und sie vielleicht selbst zu empfinden), ist nicht ganz neu. Abgesehen von philosophischen Überlegungen wird das Thema zumindest seit der Veröffentlichung eines Textes von Dr. Rosalind Picard mit dem Titel „Affective Computing" (von MIT Technical Report im Jahr 1955, Anm.) diskutiert. Damals behauptete Picard, dass Computer beginnen, Affekte erkennen zu können und vielleicht bald in der Lage sein werden, Emotionen zu haben. Das hat sich nicht so entwickelt, wie Picard es sich vorgestellt hat, da Computer bekanntlich noch nicht fähig sind, zu fühlen.

Es gibt allerdings eine Reihe von Unternehmen, die an der Entwicklung künstlicher Systeme arbeiten, die menschliche Emotionen erkennen können. Zwei dieser Unternehmen, in dem Gebiet der emotionalen KI wurden von Dr. Rosalind Picard mitbegründet: Affectiva im Jahr 2009 und Emotica im Jahr 2013. Affectiva ist ein Spin-off des MIT Media Lab mit Dr. Rana el Kaliouby als zweite Mitbegründerin. Die KI von Affectiva kann durch Analyse von Gesichts- und Stimmausdrücken menschliche Emotionen lesen. Das Unternehmen wurde ursprünglich entwickelt, um autistischen Kindern beim Verstehen und Kommunizieren von Emotionen zu unterstützen. Bis 2020 erreichte das Unternehmen ein Gesamtkapital von 53 Millionen US-$. Wie in einem Forbes-Artikel aus dem Jahr 2020 erwähnt, wird die Technologie des Unternehmens von 25% der Fortune Global 500-Unternehmen genutzt und in 90 Ländern eingesetzt.

Doch, warum ist es sinnvoll, dass Maschinen menschliche Emotionen erkennen können? Unsere Kommunikationsgewohnheiten sind nicht mehr dieselben wie in der jüngeren Vergangenheit. Auch wenn wir bei persönlichen Gesprächen mit Missverständnissen und Unsicherheiten konfrontiert sind, ist die Fehlerwahrscheinlichkeit höher, da unsere Kommunikation in Online-Umgebungen gefiltert wird. Angesichts neuer Trends und Konzepte wie Virtual-Reality-Technologien und Metaverse gehen weder Wissenschaftler noch Unternehmer davon aus, dass wir in Zukunft weniger online kommunizieren werden. Sie suchen daher nach Möglichkeiten, die Interaktion zwischen Mensch und Computer effizienter zu gestalten. Rana el Kaliouby spricht dieses Thema in einem TED-Talk aus dem Jahr 2015 an, der bereits 1,7 Millionen Mal aufgerufen wurde: „Ich habe mehr Stunden mit meinem Laptop verbracht als mit irgendeinem Menschen”, sagt  die ägyptische Wissenschaftlerin und Unternehmerin. „Trotz dieser Intimität hatte mein Laptop absolut keine Ahnung, wie es mir ging. Die heutige Technologie hat viel IQ, aber keinen EQ, viel kognitive Intelligenz, aber keine emotionale Intelligenz." Außerdem haben wir kein Instrument, mit dem wir unsere Gefühle ausdrücken können, wenn wir mit anderen Menschen aus der Ferne kommunizieren. „Ich habe das Gefühl, dass alle meine Gefühle im Cyberspace verschwunden sind", sagt el Kaliouby. Diese Überlegungen veranlassten sie zu der Frage, was passieren würde, wenn unsere Technologie Gefühle wahrnehmen könnte.

Mitbegründerin von Affectiva, Dr. Rana el Kaliouby

Der Ausgangspunkt für eine solche Analyse ist das Gesicht. Der Algorithmus von Affectiva erkennt das Gesicht einer Person und verfolgt die wichtigsten Merkmale wie Augenbrauen, Nase, Augen und Mund. Bei Vorhandensein vieler verschiedener Aktionseinheiten (einzelne Komponenten der Muskelbewegung, die zusammen einen Gesichtsausdruck ergeben, Anm.) entspricht jeder ihrer Messwerte einem Emotionsdatenpunkt. Diese Punkte zusammen stellen dann verschiedene Emotionen dar. Zum Beispiel sind hochgezogene Augenbrauen ein Indikator für Überraschung, eine Stirnfalte für Verwirrung und eine gerümpfte Nase für Abscheu. Die Software, die in Echtzeit läuft, verwendet eine Deep-Learning-Architektur und einen riesigen Datensatz von 7,5 Millionen Gesichtern aus 87 Ländern (laut der Affectiva-Website, Anm.).

Affectiva wurde 2021 von der schwedischen Technologiefirma „Smart Eye" übernommen, einem Unternehmen, das am Nasdaq First North Growth Market notiert ist. Nach Angaben von Affectiva werden die kombinierten Ressourcen auf dem Markt für Fahrerüberwachungssysteme und Innenraumsensoren mit fortschrittlicher künstlicher Intelligenz eingesetzt. Das Unternehmen ist damit in den Bereichen Medienanalytik und Mobilität (vor allem Verkehrssicherheit) unter dem Motto „Humanizing technology to bridge the gap between humans and machines" tätig.

Die neuen Technologien des „Affektiven Computings“ (oder Emotions-KI) werden bereits in zahlreichen Bereichen eingesetzt. Führungskräfte sind zunehmend dabei, über die Veränderungen nachzudenken, die solche Technologien für ihre Branchen und Unternehmen bringen könnten. Aber während wir uns immer mehr an die Personalisierung unserer Technologie gewöhnen und sogar das Bedürfnis danach verspüren, bleibt der ethische Aspekt des Verlusts der Privatsphäre ein noch weitestgehend unbearbeitetes Thema, das noch im Raum schwebt.

Text: Ekin Deniz Dere
Foto: Unsplash, Forbes US

Ekin Deniz Dere,
Redakteurin

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.