Drei der beliebtesten Missverständnisse über Emotionen im Affective Computing

    Emotionen spielen heute eine immer wichtigere Rolle in der Wirtschaft. Irgendwann begannen die Leute zu verstehen, dass der Käufer eine Kaufentscheidung trifft, die nicht nur darauf basiert, was er über das Produkt denkt, sondern auch darüber, was er darüber empfindet. Deshalb versuchen Unternehmen aktiv, ihrer Arbeit einen emotionalen Aspekt hinzuzufügen: Analyse, Service, Technologie.

    Die Ära des emotionslosen Rationalismus endete vor langer Zeit für einen Mann, aber für moderne Maschinen steht der Beginn ihrer emotionalen Intelligenz bevor. In den letzten zehn Jahren haben wir die rasante Entwicklung emotionaler Technologien erlebt, ein Bereich, der allgemein als "Affective Computing" (Affective Computing) bezeichnet wird. Aber wo es Emotionen gibt, gibt es viele Geheimnisse.

    Einige fehlerhafte Klischees sind besonders häufig. Wir werden die drei beliebtesten Mythen über Emotionen in Affective Computing betrachten, die aktiv im Geschäftsumfeld und im Medienraum verteilt werden.



    Mythos 1: Paul Ekmans Vermächtnis


    Zusammenfassend lässt sich die Theorie von Paul Ekman folgendermaßen beschreiben: Wenn es um Gesichtsausdrücke geht, können Menschen bestimmte Emotionen ausdrücken und erkennen, die er als „grundlegend“ bezeichnet. Unabhängig davon, wo wir sind und mit wem wir sprechen, können wir immer erkennen, wenn unser Gesprächspartner Emotionen zeigt: Wut, Angst, Ekel, Freude, Traurigkeit.
    * Nachdem die Theorie überarbeitet worden war, wurde die Überraschung von der Liste der grundlegenden Emotionen ausgeschlossen.


    Die grundlegenden Emotionen von Paul Ekman (plus einem neutralen Staat) wurden von Tim Roth, dem Schauspieler, der die Hauptfigur der Serie "Lie to Me" spielte, gespielt.

    James Russell, einer der ersten Kritiker von Ekmans Theorie, lehnte die Idee der Universalität von Emotionen ab.. Er glaubte, dass die Beziehung zwischen Gesicht und Emotionen nicht so einfach ist, wie Ekman ursprünglich glaubte, und Emotionen haben je nach Kontext eine bestimmte Bedeutung. Beatrice de Gelder schrieb später in ihrem Buch Emotions and the Body, dass sie als Ergebnis von Experimenten mit fMRI keine neurologischen Gründe für die Bestätigung der Universalität bestimmter Emotionen ausgemacht habe.

    Vor nicht allzu langer Zeit, einer der prominentesten Kritiker der Theorie der grundlegenden Emotionen, sagte die berühmte Neurobiologin Lisa Barrett, dass Emotionen nicht angeboren sind, sondern durch Erfahrung erworbene Qualität. Das Verständnis von Emotionen unterscheidet sich für verschiedene Menschen und Kulturen. Es gibt eine Reihe von StudienDas Forschungsteam reiste nach Namibia, um zu erforschen, wie der Stamm der Eremiten Himba freudige, traurige, wütende, verängstigte oder neutrale Gesichtsausdrücke erkennt. Die Wahrnehmung von Manifestationen positiver Emotionen trat nicht auf, jedoch wurde Himba oft mit Wut und Abscheu verwechselt. Ähnliche Experimente in anderen Stämmen zeigten ähnliche Ergebnisse. Dies erlaubte Barrett zu dem Schluss, dass unsere Erklärung und unser Verständnis von Emotionen in der Kultur liegen - wir geben den Dingen, die in Wirklichkeit unterschiedliche Konzepte bedeuten, ähnliche Namen.

    Trotz der Tatsache, dass im Jahr 2011Ekman änderte seine Definition von „Emotionen“, um kulturelle und individuelle Aspekte zu berücksichtigen, und selbst wenn eine der grundlegenden Emotionen ausgeschlossen wurde, stützen viele Unternehmen ihre Arbeit im affektiven Computing immer noch auf der alten Theorie. In ihren Datenbanken ist immer noch das Konzept der „Basis-Emotionen“ enthalten. Laut Lisa Barrett wird dieser Ansatz zu ihrer Achillesferse. Man fügt jedoch hinzu, dass diese Technologie angesichts des äußeren und inneren Kontextes ein großes Potenzial hat, die Emotionswissenschaft zu revolutionieren.

    Laboratorien und Unternehmen, die mit emotionaler Analyse arbeiten, sollten Emotionen nicht als etwas Universelles verstehen. Erstens müssen affektive Datensätze spezifisch sein, da sie zum Trainieren des Algorithmus verwendet werden und daher Informationen über Kultur, Sprache, Geschlecht und sogar Alter enthalten müssen, um die Emotion richtig zu bestimmen. Zweitens müssen Algorithmen zur Emotionserkennung kontextsensitiv sein. Es ist sehr wichtig anzumerken, dass einige Laboratorien versucht haben, den Kontext zu berücksichtigen (zum Beispiel hier ), aber kein einziges "großes" Unternehmen, das sich mit affektivem Computing beschäftigt, hat bisher solche Versuche unternommen.

    Mythos 2: Lächeln ist ein Indikator für Glück


    Andererseits führte Ekmans Theorie zu der natürlichen Schlussfolgerung, dass die geäußerte Emotion mit den Gefühlen zusammenhängen kann, die eine Person erlebt.
    Zum Beispiel kann ein Lächeln, das Algorithmen am einfachsten erkennen, unterschiedliche Bedeutungen haben: Glücksgefühle, Freude, Zufriedenheit, Unterstützung usw. Daher stellt sich die Frage: Was ist ihre Funktion?



    In einer kürzlich durchgeführten Studie [1] wurden die Probanden gebeten, neun schwierige Übungen zu machen, die auf einem Monitor angezeigt wurden. Als es den Teilnehmern gelang, auf diese schwierigen Aufgaben die richtige Antwort zu geben, lächelten sie, obwohl sie nur einen Computerbildschirm vor sich hatten. Zur gleichen Zeit die Theorie der sozialen Werkzeuge ( soziale Darstellungen) behauptet, dass die Funktion eines Lächelns davon abhängen kann, ob eine Person alleine ist oder sich in einem bestimmten sozialen Umfeld befindet.

    Moderne Erkennungstechnologien sind im affektiven Computing - zumindest in ihrer kommerziellen Version - in der Lage, Emotionen nur getrennt vom sozialen Kontext zu analysieren. Um die Bedeutung eines Lächelns wirklich zu verstehen, müssen wir die Maschine lehren, Emotionen in verschiedenen Situationen zu unterscheiden, sowohl sozial als auch nicht. Die Art und Weise, wie wir Emotionen des Glücks ausdrücken, hängt vom Kontext ab: Manchmal lächeln wir, manchmal nicht. Deshalb sollte man die Natur der Emotionen ernsthafter angehen. Die Analyse von Gesichtsausdrücken kann in Verbindung mit der Hinzufügung von akustischen Parametern, der Analyse von Körperbewegungen oder physiologischen Eigenschaften durchgeführt werden - dieser Ansatz wird als Multimodalität von Emotionen bezeichnet.

    Mythos 3: Körperzunge?


    Wir kamen daher zu dem Schluss, dass Emotionen nicht universell sind, der Begriff "grundlegende Emotionen" ist umstritten, und die Manifestation von Emotionen hängt direkt mit den kulturellen, individuellen und kontextuellen Aspekten zusammen. Da der Ausdruck von Emotionen nicht auf unser Gesicht beschränkt ist, sondern Stimme, Körperbewegungen, Distanz zwischen den Menschen und verschiedene physiologische Manifestationen umfasst, wird die Situation komplizierter.



    Da die Menschen oft zu verstehen versuchen, ob sie getäuscht werden und sich vom Gesicht des Gesprächspartners leiten lassen, beobachten sie auch den Körper. Körperbewegungen versuchten sich mit fast allem zu verbinden. Die bekanntesten Optionen - eine Person berührt den Mund beim Liegen oder nimmt eine offene Haltung ein, wenn sie sich ruhig und geborgen fühlt. Diese Theorie hat sich so weit verbreitet, dass ihr Echo in die Bereiche Stressbewältigung, Sicherheitsfragen und sogar Kino geraten ist.

    Zum Beispiel war die Flughafensicherheit schon immer eine Priorität. Die ersten automatischen Erkennungssysteme für Verhaltensmuster (Behavior Detection Systems) wurden Ende des 20. Jahrhunderts an US-amerikanischen Flughäfen installiert. Seitdem haben sie sich auf der ganzen Welt verbreitet. Normalerweise basiert die Berechnung der Wahrscheinlichkeit, ob ein Passagier potenziell gefährlich ist, auf den wesentlichen Merkmalen, die mit einem hohen Risiko verbunden sind. Bis heute argumentieren viele Wissenschaftler, dass bestimmte psychologische Merkmale der Person, die für Terroristen charakteristisch sein könnten, nicht gefunden wurden. [2] In ähnlicher Weise ist die Korrelation zwischen der Bewegung einer Person und der Lüge in diesem Moment nicht so einfach, wie es die populäre Psychologie behauptet.

    Das Vorhandensein einer populären Version der „Sprache“ des Körpers, die die wahren Gefühle eines Menschen offenbart, ist mehr als eine kontroverse Angelegenheit. Natürlich können Sie eine Verbindung zwischen nonverbalen Hinweisen und emotionalem Verhalten herstellen. Bis heute gibt es eine ganze Technologie zur Verfolgung von Körperbewegungen, Body-Tracking. Beim Affective Computing werden mit dem Tracking Statistiken über die Beziehung zwischen Bewegungen und bestimmten Emotionen erfasst.

    Abschließend


    Affective Computing ist sowohl für die Wissenschaft als auch für die Wirtschaft ein erstaunlicher, aber komplexer Bereich. Sie ist wirklich an der Wende der Spitzentechnologie. In vielen Fällen ist die Herangehensweise an die Verwendung der Technologie zur Emotionserkennung im Handel jedoch immer noch altmodisch. Jemand wird von der Autorität des Namens des Begründers des berühmten Ansatzes angezogen, jemandem, der begrenzte Ziele erreicht, die erreicht werden können.

    Natürlich möchte jeder die Fähigkeit haben, Emotionen zu "lesen", wie die Hauptfigur der Fernsehserie "Lie to Me". Wir sollten jedoch nicht vergessen, dass Emotionen viel komplizierter und mysteriöser sind, und Sie sollten sich nicht mit Phrenologie und Handlesen beschäftigen.

    Wir sprachen über die drei häufigsten Mythen über Emotionen im Affective Computing. Es ist wichtig, solche Missverständnisse auszurotten, damit diese Technologien mit Genauigkeit und Unparteilichkeit für das Wohl der Menschheit arbeiten können.

    Mitautor : Olga Perepelkina, Chefforscherin des Neurodata Lab.

    Referenzen :

    [1] Harry J. Witchel et al. Die 36. Europäische Konferenz für kognitive Ergonomie - ECCE'18 (2018). DOI: 10.1145 / 3232078.3232084

    [2] Profilierung von Fluggästen anhand von Fuzzy Deep Machine Learning (2016). Zheng, Yu-Jun et al. Doi: 10.1109 / TNNLS.2016.2609437

    Jetzt auch beliebt: