Computer erkennen menschliche Emotionen

03.09.14 (MDR INFO) – Computer und Emotionen – das klingt nach Zukunfsfilmen und Roboter-Dialogen aus „Krieg der Sterne“. Computer können keine Emotionen empfinden. Doch zumindest erkennen können sie diese jetzt. Eine App des Fraunhofer Instituts sorgt dafür. Das Programm weiß, ob jemand gerade glücklich oder nervös ist.

Er leitet beim Fraunhofer Institut die Gruppe „Intelligente Systeme“ – Jens-Uwe Garbas. Ihm bereitet sein Job deutlich Freude, das merkt man selbst ohne App – immerhin ist er eigentlich für die Elternzeit von seinem Arbeitgeber freigestellt. Doch über sein jüngstes Projekt redet er trotzdem gern.

Also, wir arbeiten natürlich mit Psychologen zusammen, die uns als Ingenieuren helfen, Emotionen richtig zu verstehen.

Und dieses Verständnis wird dann in Algorithmen gepackt, die die Ingenieure programmieren. Algorithmen sind kleine Arbeitsschritte, die den Computern exakt vorgeben, was sie in welchem konkreten Fall machen sollen. Und so wird aus einer Emotion quasi eine mathematische Formel. Doch dafür braucht man zunächst die Google-Brille – eine Sehhilfe mit eingebautem Computermonitor, wie Jens-Uwe Garbas erzählt.

Und jetzt ist es so: Die Google-Brille, die hat eine Kamera eingebaut und die hat ein kleines Display, das sie vor ihrem Auge tragen, wo Informationen in ihr Gesichtsfeld eingespiegelt werden. Mit dieser Kamera zeichnen Sie ihre Umgebung auf. Und wenn da ein Gesicht erscheint, wird über dieses Gesicht die Information gelegt: „Diese Person ist – meinetwegen – glücklich.

Die App in der Google-Brille macht in dem Moment nichts anderes, als das Gesicht, was sie erkannt hat, mit anderen Gesichtern zu vergleichen, die anonym auf einem Server des Fraunhofer Institutes abgespeichert sind. Die Verbindung dahin erfolgt drahtlos über das Internet. Die Ergebnisse sind erstaunlich: Sobald eine Person die Miene verzieht, ändert sich auch die Interpretation der Emotion. Das liegt daran, dass die App sechs Bilder pro Sekunde auswertet. Die jeweilige Emotion wird dadurch in Echtzeit angezeigt. Ein Witz würde also sofort durch das Lachen im Gesicht registriert. Das ganze ist nicht nur ein Spiel, sondern hilft konkret Autisten weiter.

Und das ist insbesondere interessant beispielsweise für Leute, die nicht in der Lage sind, Gesichtsausdrücke richtig zu interpretieren bei ihren Mitmenschen. Wenn man da an Krankheiten aus dem autistischen Spektrum denkt, dann kommt es immer wieder vor, dass die da Schwierigkeiten haben. Und wenn die so eine Brille haben, dann können sie Zusatzinformationen eingespiegelt bekommen in ihr Gesichtsfeld. Und das könnte denen natürlich helfen in der täglichen Kommunikation.

Diese App läuft so auf der Google-Brille. Doch das Programm wird auch bereits auf herkömmlichen Computern für die Marktforschung eingesetzt. So analysieren Geschäfte ihre Kunden, denn das Programm erkennt auch das Geschlecht und das Alter der Menschen. Gekoppelt mit den Emotionen können die Marktforscher so festzustellen, ob der Kunde zufrieden ist und wo ihm etwas besonders gefallen hat. Doch eines ist für Jens-Uwe Garbas wichtig:

Mit unseren Algorithmen ist es nicht möglich, Gesichter zu identifizieren, d.h. bestimmten Personen zuzuordnen.

So ist der Datenschutz gewährleistet.

Mehr Informationen gibt es auf der entsprechenden Seite des Fraunhofer Instituts.

Schreibe einen Kommentar