Forschungsthemen

  Visualisierung der Forschungsthemen Urheberrecht: © iTec

Menschen und Roboter in Gruppen

In der Zukunft sollen uns Roboter in der Arbeit unterstützen. In der Produktion, im Büro, in der Pflege – in jedem Anwendungskontext müssen Roboter mit unterschiedlichen Personen zusammenarbeiten und sich in sozialen Gruppen zurechtfinden. Wir untersuchen daher Gruppenbildungsprozesse und soziale Dynamiken in Mensch-Roboter Gruppen.

Beispielhafte Publikationen

  • Abrams, A. M. H., & Rosenthal-von der Pütten, A. M. (2020). I–C–E Framework: Concepts for Group Dynamics Research in Human-Robot Interaction. International Journal of Social Robotics, 1-17. https://doi.org/10.1007/s12369-020-00642-z
  • Rosenthal-von der Pütten, A. M., & Abrams, A. M. H. (2020). Social Dynamics in Human-Robot Groups: Possible Consequences of Unequal Adaptation to Group Members Through Machine Learning in Human-Robot Groups. Poceedings of the 22nd International Conference on Human-Computer Interaction, Copenhagen, Denmark, 19-24 July 2020.

Artificial Social Cognition

Menschen analysieren soziale Situationen im Bruchteil einer Sekunde und wissen genau, wie sie sich verhalten sollen. Für Roboter ist dies eine sehr schwierige Aufgabe. Wir forschen daher dazu, wie ein Roboter sozial adäquates Verhalten zeigen kann und wie er dazu seine Umwelt analysieren kann.

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M., Lugrin, B., Steinhaeusser, S. C., & Klass, L. (2020). Context Matters! Identifying Social Context Factors and Assessing Their Relevance for a Socially Assistive Robot. Companion of the 2020 ACM/IEEE International Conference on Human-Robot Interaction (pp. 409-411). https://doi.org/10.1145/3371382.3378370
  • Lugrin, B., Rosenthal-von der Pütten, A. M., & Hahn, S. (2019). Identifying Social Context Factors Relevant for a Robotic Elderly Assistant. International Conference on Social Robotics (pp. 558-567). Springer, Cham. https://doi.org/10.1007/978-3-030-35888-4_52

Emotionen in Mensch-Roboter-Interaktion

Wir untersuchen emotionale Effekte in Mensch-Roboter-Interaktionen. Dazu gehören die Fragen, ob Menschen empathisch auf Roboter interagieren, wie viele Emotionen Roboter brauchen, wie künstliche Emotionsausdrücke von Menschen wahrgenommen werden und ob und wie Emotionsdarstellungen die Interaktion mit robotischen Systemen verbessern können.

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M., Krämer, N. C., Hoffmann, L., Sobieraj, S., & Eimler, S. C. (2013). An experimental study on emotional reactions towards a robot. International Journal of Social Robotics, 5(1), 17-34. https://doi.org/10.1007/s12369-012-0173-8
  • Rosenthal-von der Pütten, A. M., Schulte, F. P., Eimler, S. C., Sobieraj, S., Hoffmann, L., Maderwald, S., Brand, M., & Krämer, N. C. (2014). Investigations on empathy towards humans and robots using fMRI. Computers in Human Behavior, 33, 201-212. https://doi.org/10.1016/j.chb.2014.01.004

Verkörperung (Embodiment) & Morphologie von künstlich intelligenten Systemen

Wie künstlich intelligente Systeme auf uns wirken, und wie wir mit ihnen interagieren, wird unter anderem bestimmt durch ihr Aussehen und ihre Verkörperung. Welchen Unterschied macht es also, wenn die Künstliche Intelligenz, kurz KI, virtuell auf einem Bildschirm oder physisch verkörpert als Roboter vor mir steht? Welchen Einfluss haben unterschiedliche Formen von Robotern auf die Interaktion von Menschen mit ihnen?

Beispielhafte Publikationen

  • Hoffmann, L., Bock, N., & Rosenthal-von der Pütten, A. M. (2018). The Peculiarities of Robot Embodiment (EmCorp-Scale) Development, Validation and Initial Test of the Embodiment and Corporeality of Artificial Agents Scale. Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction (pp. 370-378). https://doi.org/10.1145/3171221.3171242
  • Rosenthal-von der Pütten, A. M., Straßmann, C., & Krämer, N. C. (2016). Robots or agents–neither helps you more or less during second language acquisition. International conference on intelligent virtual agents (pp. 256-268). Springer, Cham. https://doi.org/10.1007/978-3-319-47665-0_23

Mentale Modelle über und für künstlich intelligente Systeme

Wir beschäftigen uns mit der Frage, welche mentalen Modelle Menschen über künstlich intelligente Systeme haben. Wann sehen wir Roboter und virtuelle Figuren als intentionale Agenten an? Wie beeinflussen diese Modelle die Interaktion? Welche Faktoren führen zu Änderungen in unseren mentalen Modellen?

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M., & Hoefinghoff, J. (2018). The more the merrier? effects of humanlike learning abilities on humans’ perception and evaluation of a robot. International Journal of Social Robotics, 10(4), 455-472. https://doi.org/10.1007/s12369-017-0445-4
  • Bock, N., & Rosenthal-von der Pütten, A. M. (2019). „I think“ or “I compute” – How to communicate internal processes to users and its effect on trust. In Edwards, C., Edwards, A., Kim, J., Spence, P. R., de Graaf, M., Nah., S., & Rosenthal-von der Pütten, A. M. (Chair), Human-Machine Communication: What Does/Could Communication Science Contribute to HRI? Workshop conducted at the International Conference on Human Computer Interaction 2019 in Daegu, Korea.

Effekte des nonverbalen Verhaltens verkörperter Agenten

Viele virtuelle Assistenten und Roboter sind dem Menschen in seiner Form nachempfunden. Damit haben sie die Fähigkeit, sich nicht nur verbal, sondern auch nonverbal auszudrücken. Wir untersuchen den Einfluss nonverbalen Agentenverhaltens auf die Wahrnehmung dieser Agenten und die Interaktion mit ihnen.

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M., Straßmann, C., Yaghoubzadeh, R., Kopp, S., & Krämer, N. C. (2019). Dominant and submissive nonverbal behavior of virtual agents and its effects on evaluation and negotiation outcome in different age groups. Computers in Human Behavior, 90, 397-409. https://doi.org/10.1016/j.chb.2018.08.047
  • Rosenthal-von der Pütten, A. M., Krämer, N. C., & Herrmann, J. (2018). The effects of humanlike and robot-specific affective nonverbal behavior on perception, emotion, and behavior. International Journal of Social Robotics, 10(5), 569-582. https://doi.org/10.1007/s12369-018-0466-7

Methoden & Skalenentwicklung

Wir leisten einen Beitrag zur Entwicklung von methodischen Werkzeugen zur Untersuchung von Mensch-Technik-Interaktion. Dazu gehört beispielsweise die Entwicklung von geeigneten Messinstrumenten.

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M., & Bock, N. (2018). Development and Validation of the Self-Efficacy in Human-Robot-Interaction Scale (SE-HRI). ACM Transactions on Human-Robot Interaction (THRI), 7(3), 1-30. https://doi.org/10.1145/3139352
  • Rosenthal-von der Pütten, A. M., Bock, N., & Brockmann, K. (2017). Not your cup of tea? How interacting with a robot can increase perceived self-efficacy in HRI and evaluation. 2017 12th ACM/IEEE International Conference on Human-Robot Interaction HRI (pp. 483-492). IEEE. https://doi.org/10.1145/2909824.3020251
  • Hoffmann, L., Bock, N., & Rosenthal-von der Pütten, A. M. (2018). The Peculiarities of Robot Embodiment (EmCorp-Scale) Development, Validation and Initial Test of the Embodiment and Corporeality of Artificial Agents Scale. Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction (pp. 370-378). https://doi.org/10.1145/3171221.3171242

Uncanny-Valley-Hypothese

Die Uncanny-Valley-Hypothese ist als Erklärungsmodell für negative Reaktionen gegenüber Robotern weit verbreitet, obwohl es sich lediglich um ein nicht belegtes Gedankenmodell handelt. Unsere Forschung widmet sich deshalb der empirischen Untersuchung dieser Theorie. Die Forschung beinhaltet explorative Verhaltensanalysen von Mensch-Roboter Interaktionen mit Androiden im Feld, Untersuchungen zur Evaluation des Aussehens von Robotern, sowie Studien zur Testung von Erklärungsansätzen des Uncanny Valleys.

Beispielhafte Publikationen

  • Rosenthal-von der Pütten, A. M. (2014). Uncannily Human. Empirical Investigation of the Uncanny Valley Phenomenon (Doctoral dissertation). Available at: http://duepublico.uni-duisburg-essen.de/servlets/DocumentServlet?id=33254.
  • Rosenthal-von der Pütten, A. M., & Krämer, N. C. (2015). Individuals’ evaluations of and attitudes towards potentially uncanny robots. International Journal of Social Robotics, 7(5), 799-824. https://doi.org/10.1007/s12369-015-0321-z
  • Rosenthal-von der Pütten, A. M., & Krämer, N. C. (2014). How design characteristics of robots determine evaluation and uncanny valley related responses. Computers in Human Behavior, 36, 422-439. https://doi.org/10.1016/j.chb.2014.03.066
  • Rosenthal-von der Pütten, A. M., Krämer, N. C., Becker-Asano, C., Ogawa, K., Nishio, S., & Ishiguro, H. (2014). The uncanny in the wild. analysis of unscripted human–android interaction in the field. International Journal of Social Robotics, 6(1), 67-83. https://doi.org/10.1007/s12369-013-0198-7

Linguistic Alignment mit künstlich intelligenten Systemen

Wir untersuchen, unter welchen Umständen, zu welchem Ausmaß und warum sich Menschen an künstlich intelligente Systeme sprachlich anpassen und welche sozialen Effekte entstehen, wenn sich ein System an den Menschen anpasst.

Beispielhafte Publikationen

  • Klatt, J., Rosenthal-von der Pütten, A. M., Hoffmann, L., & Krämer, N. C. (2013). A Thousand Words Paint a Picture-Examining Interviewer Effects with Virtual Agents. Intelligent Virtual Agents: 13th International Conference, IVA 2013, Edinburgh, UK, August 29-31, 2013, Proceedings (Vol. 8108, p. 452). Springer.
  • Kühne, V., Rosenthal-von der Pütten, A. M., & Krämer, N. C. (2013). Using linguistic alignment to enhance learning experience with pedagogical agents: the special case of dialect. International Workshop on Intelligent Virtual Agents (pp. 149-158). Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-40415-3_13
  • Rosenthal-von der Pütten, A. M., Hoffmann, L., Klatt, J., & Krämer, N. C. (2011). Quid pro quo? Reciprocal self-disclosure and communicative accomodation towards a virtual interviewer. International Workshop on Intelligent Virtual Agents (pp. 183-194). Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-23974-8_20
  • Rosenthal-von der Pütten, A. M., Straßmann, C., & Krämer, N. C. (2016). Linguistic alignment with artificial entities in the context of second language acquisition. CogSci.
  • Rosenthal-von der Pütten, A. M., Straßmann, C., & Krämer, N. C. (2016). Robots or agents–neither helps you more or less during second language acquisition. International conference on intelligent virtual agents (pp. 256-268). Springer, Cham. https://doi.org/10.1007/978-3-319-47665-0_23
  • Rosenthal-von der Pütten, A. M., Wiering, L., & Krämer, N. (2013). Great minds think alike. Experimental study on lexical alignment in human-agent interaction. i-com Zeitschrift für interaktive und kooperative Medien, 12(1), 32-38. https://doi.org/10.1524/icom.2013.0005