Innovation & Technologie
Emotionale KI: Was möglich ist, wenn Algorithmen Gefühle erkennen
Wie zeigt der Mensch ehrliche Gefühle wie Freude, Trauer, Wut, Angst oder Neugier? Mit dieser Frage beschäftigen sich mittlerweile viele Tech-Unternehmen und KI-Forschende. Das Ziel: Eine „emotionale KI” zu entwickeln, die die feinen Unterschiede in unserer Mimik deuten und Emotionen ableiten kann. Welche Anwendungen sind möglich, wenn eine KI Gefühle erkennt, und wie ist der Stand der Forschung?
Künstliche Intelligenz (KI) kann viele Dinge erleichtern: beispielsweise erkennen moderne Smartphones Gesichter und verstehen Sprachbefehle. Doch Forschende arbeiten längst an Technologien, die einige Schritte weitergehen und ein noch größeres Spektrum an Möglichkeiten eröffnen. Wie eine emotionale KI dem Menschen helfen kann, zeigen zum Beispiel Arbeiten am Fraunhofer-Institut. Hier haben Expert:innen für „Intelligente Analyse- und Informationssysteme” eine KI trainiert, die menschliche Gesichtsausdrücke deutet und Gefühle zuordnen kann.
KI und Gefühle: Woran erkennen Algorithmen Emotionen?
Forschende am Fraunhofer-Institut haben den humanoiden Roboter ERIK entwickelt, der bei der Therapie von Kindern mit Autismus unterstützt. Der KI-Roboter soll den Kindern helfen, die Gefühle ihres Gegenübers zu erkennen, oder ihnen zeigen, wie sie ihre eigenen Gefühle ausdrücken können. Was die Kinder mit Hilfe der KI lernen sollen, mussten die Forschenden zuvor auch erst den Algorithmen antrainieren. Dafür zeichneten sie mit Kameras verschiedene Gesichtsausdrücke von Menschen auf und ordneten der Mimik Emotionen zu. Um diese Emotionen zu unterscheiden, arbeitete das Team unter anderem mit sogenannten Actions Units, also „Bewegungseinheiten”, die auf unsere Stimmung und Gefühle schließen lassen. Als authentisches Lächeln deutet das KI-System zum Beispiel Bewegungen, bei denen sich die Mundwinkel und Wangen nach oben schieben und gleichzeitig Krähenfüßchen rund um die Augen bilden. Eine technische Herausforderung ist bislang die Unterscheidung von Emotionen mit sehr ähnlichen Gesichtsausdrücken. Ekel beispielsweise nutzt ähnliche Bewegungen wie Schmerz.
Was ist eine emotionale KI?
Die Arbeit am Fraunhofer-Institut ist eine von vielen Beispielen für KI-Technologien zur Emotionserkennung, die auch als „emotionale KI” (englisch: „Emotional AI”) oder „Affective Computing” bezeichnet werden. Die Begriffe stehen im Allgemeinen für Technologien, die biometrische Daten wie Gesichtsausdrücke, Körpersprache, die Stimme oder andere äußerliche Merkmale erfassen und Rückschlüsse über Gefühle zulassen sollen. Dabei werden in der Regel Kameras oder andere Messgeräte wie Sensoren mit KI-Algorithmen kombiniert. Ziel ist, über die reine Gesichtserkennung hinauszugehen und zum Beispiel die Motivation, Einstellung und inneren Gefühle eines Menschen zu erkennen.
Wo könnte die Emotionserkennung mit KI Anwendung finden?
Für KI-Programme mit Emotionserkennung gibt es schon eine ganze Reihe an Anwendungsideen. Am Fraunhofer-Institut ist aus der jahrelangen Arbeit zum Beispiel die Software SHORE hervorgegangen, die in ganz unterschiedlichen Bereichen Vorteile bringen könnte. Denkbar ist etwa der Einsatz in Fahrzeugen: Ein KI-gestütztes Programm könnte künftig während der Fahrt Deine Mimik analysieren und frühzeitig warnen, wenn es Anzeichen von Überlastung oder Müdigkeit erkennt. Grundsätzlich bietet die Technologie in vielen Bereichen neue Möglichkeiten, unter anderem in der Marktforschung, bei Produkt- und Usability-Tests, beim E-Learning oder für E-Health-Anwendungen.
KI-Einsatz in der Marktforschung, bei Workshops oder in Zoom-Meetings
Um Werbemaßnahmen zu optimieren, werden KI-Systeme zur Emotionserkennung schon heute eingesetzt. Wie das aussieht, zeigt das in Texas ansässige Unternehmen Zenus, deren KI bei Events und im Einzelhandel zum Einsatz kommt ist. Das System erfasst mit Kameras die feinen Gesichtsbewegungen von Besucher:innen oder Kund:innen, um herauszufinden, welche Produkte und Ausstellungsstücke ihr Interesse wecken.
Auf ähnliche Weise könnten KI-Programme auch bei Workshops hilfreich sein: Algorithmen können mittels Mikrofon und Kameras analysieren, ob Teilnehmer:innen die Schulung spannend und lehrreich finden oder eher gelangweilt sind. So eine Software könnte Dir bald auch bei einem Zoom-Meeting begegnen. In den USA planen erste Videocall-Anbieter, eine automatische Emotionserkennung in ihre Anwendung zu integrieren. Das Modul könnte während eines digitalen Meetings Deinen Gesichtsausdruck interpretieren und Projektleiter:innen oder Vorgesetzten Hinweise geben, wie Du Dich gerade fühlst. Auch anhand der Stimme können KI-Systeme bereits Aussagen über Dein Empfinden und Deine Emotionen treffen. Diese Technologie könnte künftig zum Beispiel im Hintergrund von Service- und Callcenter-Gesprächen laufen und bei der Auswertung der Beratung helfen.
Umstrittene Theorien als Grundlage: Was verrät die Mimik über unsere Gefühle?
Die Liste der Unternehmen, die KI-Systeme zur Emotionserkennung entwickeln, nutzen und für verschiedene Einsatzzwecke anbieten, ist schon ziemlich lang. Dennoch gibt es auch Kritik. Denn die meisten visuellen KI-Technologien, die Gefühle erkennen sollen, stützen sich auf der Theorie der Basisemotionen des Psychologen Paul Ekman. Diese beruht auf der Annahme, dass es weltweite universelle Ausdrucksformen für Emotionen gibt. Diese Theorie ist aber mittlerweile umstritten. Neuere Studien lassen daran zweifeln, dass es allgemeine Gesichtsausdrücke gibt, an denen der Mensch oder eine KI Gefühle erkennen kann. Es ist zum Beispiel nicht immer möglich, von einem Lächeln auf Freude zu schließen, von einem finsteren Blick auf Wut oder von einem Stirnrunzeln auf Neugier.
Herausforderungen für die KI: Gefühle erkennen ohne Vorurteile
Ein weiterer Haken: Die Datensätze, mit denen die KI trainiert wird, enthalten oft vorurteilsbehaftete Daten und Stereotype, die das maschinelle Lernen der Algorithmen beeinflussen. Kritiker:innen weisen darauf hin, dass die Software somit anfällig für rassistische, geschlechtspezifische oder kulturelle Vorurteile sei. Das könnte sich auf ohnehin benachteiligte Gruppen auswirken. Um keinen Raum für Missbrauch oder Manipulation zu lassen, fordern KI-Forschende feste Regeln und beschränkende Gesetze für den Einsatz von Software zur Emotionserkennung. Szenarien, in denen eine KI ein Bewusstsein entwickelt und sich selbstständig macht, werden wir also weiterhin nur in Science-Fiction-Filmen und Hollywood-Blockbustern erleben.
Dennoch haben KI-Systeme schon heute beeindruckende Fähigkeiten und ermöglichen teils verblüffende Anwendungen. Die Idee einer emotionalen KI fasziniert nicht nur große Tech-Firmen und Forschungsteams, sondern auch Hobby-Tüftler:innen. Vor kurzem stellte zum Beispiel ein amerikanischer Erfinder ein selbstgebautes technisches Gimmick vor, das mit Hilfe von KI Lachen erkennen und Fake-LOLs in Chats löschen kann. Dieses Spaß-Gadget ist jedoch nur auf das Lachen des Erfinders trainiert und zeigt vielmehr, dass es in dem Forschungsbereich „KI und Gefühle” noch viel zu tun gibt.
Was hältst Du von der Idee, dass eine KI Gefühle erkennen kann? Siehst Du in der Technologie eine Chance oder eher Gefahr? Teile Deine Meinung im Kommentarbereich!