Digital Life
Affective Computing – Wenn Smartphones Deine Gefühle verstehen
Wenn es um die Trends der Zukunft, insbesondere im Bereich Mobile Devices, geht, führt kein Weg an Affective Computing vorbei. Schon heute sorgen Technologien wie eine intelligente Sprachsteuerung dafür, dass Du Dein Smartphone noch bequemer bedienen kannst. Wearables wie Fitnessarmbänder helfen Dir, Deine Bewegung zu optimieren. Doch das ist erst der Anfang. Wagst Du mit uns einen kleinen Ausblick in die Zukunft?
Über viele Jahre hinweg warst Du es als Nutzer gewohnt, Deinen Computer und später auch Dein Smartphone oder Tablet durch Eingaben über eine Tastatur oder einen Touchscreen zu bedienen. Laut einer Studie von Gartner aus dem Jahr 2014 nutzt jedoch bereits knapp ein Viertel der befragten Personen Sprachassistenten wie Apples Siri oder Google Now. Verschiedene Unternehmen beschäftigen sich intensiv mit den nächsten Schritten. Beyond Verbal etwa hat sein Augenmerk auf die Stimmanalyse gelegt. Hierbei sollen die Geräte durch die Intonation der Stimme Rückschlüsse auf die Emotionen des Anwenders schließen und darauf entsprechend reagieren. Letztendlich geht es beim Affective Computing also darum, Emotionen und Gemütslagen des Nutzers zu erkennen und darauf einzugehen. Eine völlig neuartige Kommunikationsebene zwischen Computer und Benutzer könnte bald schon Alltag sein.
Möglichkeiten der Emotionsanalyse
Ein wichtiges Werkzeug im Bereich Affective Computing ist zweifellos die bereits angesprochene Spracheingabe. So wäre es zukünftig beispielsweis denkbar, dass Dein Smartphone erkennt, ob Du gerade fröhlich, traurig oder wütend bist. So könnte eine Interaktion auf einer emotionalen Ebene mit dem Gerät tatsächlich möglich werden. Kaum zu glauben, welche Möglichkeiten sich dadurch für diverse Apps und Wearables ergeben würden. Vielleicht kannst Du eines Tages mit dem einfachen Kommando „Musik abspielen“ dafür sorgen, dass eine entsprechende App einen genau zu Deiner momentanen Laune passenden Song auswählt und abspielt?
Einiges ist denkbar. Eine weitere wichtige Säule der Emotionsanalyse ist die Bildanalyse. Ein Auslösen der Kamera nach der Wahrnehmung eines Lächelns durch den entsprechenden Sensor ist da noch ein eher unspektakuläres Beispiel. Hochempfindliche Sensoren haben in einem anderen Test bereits unter Beweis gestellt, wie sie an Bord eines Wearables anhand von Pulsmessung und der Analyse galvanischer Hautreaktionen Angaben zum Stresslevel des Probanden machen können.
Affective Computing – ein Segen für aktive Menschen
Geht es um den Nutzen von Affective Computing im privaten Bereich, dann kannst Du Dich als sportlich aktiver Mensch ganz besonders freuen. Denn es ist davon auszugehen, dass die Wearables der Zukunft noch wesentlich umfangreichere Analysefunktionen mit an Bord haben werden. Immer mehr Sensoren, die immer mehr können – der Optimierung Deines individuellen Trainings werden kaum noch Grenzen gesetzt sein.
Mit Wearables verbundene Fitness-Apps sind heute schon erstaunlich ausgereift. Zukünftig werden sie dank Affective Computing allerdings noch mehr spannende Informationen über ihren Nutzer liefern, die dann beispielsweise auch dabei helfen können, maßgeschneiderte Diätprogramme zu erstellen. Auch ältere Menschen können durch solche Analysemöglichkeiten profitieren, um länger fit zu bleiben.
Einsatzgebiete im Business-Bereich
In vielen Unternehmenszentralen hat man längst die Möglichkeiten erkannt, die das Affective Computing mit sich bringt. So könnten entsprechende Technologien dabei helfen, die Arbeitssicherheit zu erhöhen. Vorstellbar wären etwa Wearables, die die Müdigkeit eines Maschinenbedieners oder auch LKW-Fahrers erkennen und diesen durch das Auslösen eines Alarms vor folgenschweren Unfällen bewahren.
Im Bereich Produkt-Marketing entstehen für Unternehmen neue Möglichkeiten, um die Bedürfnisse der Zielgruppe noch besser kennenzulernen. Jaguar Land Rover erprobte dies bereits im Rahmen von Wimbledon 2015, als der Puls aller mit einem Fitnessarmband oder einer Smartwatch ausgestatteten Besucher anonym gemessen und entsprechend analysiert wurde. Darüber hinaus schafft Affective Computing auch vollkommen neue Perspektiven, wenn es um das Coaching von Mitarbeitern geht. Die Emotionsanalyse als Bestandteil von Trainingsmodulen liefert wertvolle Erkenntnisse, was etwa hinsichtlich Kommunikationsstrategien noch optimiert werden kann.
Neuartige Fahrerassistenzsysteme und Smart-Home-Lösungen
Am Steuer Deines Autos könntest Du schon bald ebenfalls von den Errungenschaften des Affective Computings profitieren. So hat das Massachusetts Institute of Technology (MIT) zusammen mit dem Automobilkonzern Audi ein intelligentes Fahrassistenzsystem namens „Affective Intelligent Driving Assistance“ (kurz: Aida) entwickelt. Dieses soll Deine Gefühle als Fahrer analysieren und am Ende so auf sie reagieren, dass Dein Fahrerlebnis so angenehm und sicher wie möglich gestaltet wird. Ein weiterer Anwendungsbereich des Affective Computing ist der Bereich Smart Home.
Durch Stimm- oder Gesichtserkennung wird Dein Körper gewissermaßen zur Fernsteuerung für diverse mit dem Internet verbundene Haushaltsgeräte oder Funktionen. Eine Heizung, die automatisch aufgedreht wird, wenn Du zu frieren beginnst? Vielleicht sind solche und ähnliche Innovationen in einigen Jahren Wirklichkeit in nahezu jedem Haushalt.
Was hältst Du von Affective Computing? Schreib es uns in die Kommentare.