War der Witz nicht witzig? – Nein, sonst hätte ich doch gelacht
Ein Augsburger Roboter, der Humorpräferenzen des Nutzers versteht, sorgte bei der ICMI'18 für besondere Aufmerksamkeit
Augsburg/IA/KPP – Stellen Sie sich vor, ein Roboter erzählt Ihnen einen Witz – und sie lachen nicht. Und zwar nicht deswegen, weil Roboter gemeinhin nicht besonders humorbegabt sind, sondern weil dieser Roboter mit seinem Witz ihren ganz individuellen Humor nicht getroffen hat. Ein Roboter, der mit dem Witz, den er Ihnen erzählt, nicht an Ihrem individuellen Humor vorbeischießt, hat Klaus Weber und seinem Kollegen vom Augsburger Lehrstuhl für Multimodale Mensch-Technik-Interaktion bei der diesjährigen International Conference for Multimodal Interaction (ICMI’18) in Boulder (Colorado) eine Nominierung für den Best Paper Award eingebracht. Humor zu verstehen, ist eine Eigenschaft, die bislang den Menschen vorbehalten war, denn Robotern fehlt eigentlich die notwendige Empathieebene. Menschen verstehen es, andere zum Lachen zu bringen und vor allem zu erkennen, ob ihr Humor auch von anderen als witzig verstanden wird. Klaus Weber hat es mit seinen Kollegen Hannes Ritschel, Dr. Ilhan Aslan, Dr. Florian Lingenfelser am Lehrstuhl André nun geschafft, einem Roboter dieses "Verständnis" zu verschaffen: Sie haben die Ergebnisse der Analyse des Verhaltens und der Reaktionen des Nutzers dem Roboter als "Wissen" vermittelt haben, das dieser nutzt, um Witze zu erzählen, die der Nutzer als witzig empfindet und präferiert. Zum Einsatz kam dabei das am Augsburger Lehrstuhl entwickelte Tool SSI (Social-Signal-Interpretation). Es ermöglicht die Echtzeitanalyse sozialer Signale – hier speziell Lachen und Lächeln. Ein trainiertes Modell liefert die Wahrscheinlichkeiten für Lachen bzw. Lächeln der Nutzer, und der Roboter versucht auf Basis eines Algorithmus' des Bestärkenden Lernens, das emotionale Empfinden beim Nutzer zu maximieren, indem er diejenigen Witze präferiert, bei denen der Nutzer positivere Reaktionen zeigt. André und Ihr Team freuen sich darüber, dass sie gleich zwei gute Gründe hatten, sehr zufrieden von der ICMI'18 zurückzukehren. Denn auch Dr. Ilhan Aslan ist mit seiner Arbeit "Pen + Mid-Air Gestures: Eliciting Contextual Gestures" in Boulders für einen Best Paper Award nominiert worden. ________________________________ ________________________________ Prof. Dr. Elisabeth André
Die ICMI ist eine der international wichtigsten Konferenzen im Bereich der Human-Centered Multimedia. Die Forschungsarbeiten, die in diesem Jahr dort vorgestellt wurden, erstreckten sich von Untersuchungen neuartiger Interaktionsmodalitäten – u. a. Blick-, Gesten-, und Stiftbasierter Mensch-Technik Interaktion – über Interaktionen, die menschliches Wohlbefinden adressieren, bis hin zu sozialen Interaktionen mit Robotern. Gleich zwei der Arbeiten der Forscher des Augsburger Lehrstuhls von Prof. Dr. Elisabeth André wurden für den Best Paper Award nominiert, darunter diejenige von Klaus Weber zum Thema "How to Shape the Humor of a Robot – Social Behavior Adaptation Based on Reinforcement Learning".
Bislang dem Menschen vorbehalten
Echtzeitanalyse sozialer Signale und Bestärkendes Lernen
Doppelter Erfolg
Beide Papiere zum Download:
Wissenschaftliche Ansprechpartnerin:
Lehrstuhl für Multimodale Mensch-Technik-Interaktion
Universität Augsburg
D-86135 Augsburg
Telefon -49(0)821-598-2341
andre@informatik.uni-augsburg.de