25 Publikationen
-
2018 | Patent | PUB-ID: 2913087Stahl, M., Rüther, S., Kutscher-Lux, T., Ückermann, A., Neumann, A., Carlmeyer, B., Schade, M., et al. (15.02.2018). Verfahren zur Unterstützung einer Getränke- und/oder Speisenzubereitung und Assistenzsystem
-
-
2017 | Zeitschriftenaufsatz | Veröffentlicht | PUB-ID: 2905944Neumann, A., Elbrechter, C., Pfeiffer-Leßmann, N., Kõiva, R., Carlmeyer, B., Rüther, S., Schade, M., et al. (2017). "KogniChef": A Cognitive Cooking Assistant. KI - Künstliche Intelligenz, 31(3), 273-281. doi:10.1007/s13218-017-0488-6
-
2016 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2900169Pfeiffer, T., Renner, P., & Pfeiffer-Leßmann, N. (2016). EyeSee3D 2.0: Model-based Real-time Analysis of Mobile Eye-Tracking in Static and Dynamic Three-Dimensional Scenes. Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications, 189-196. New York, NY, USA: ACM Press. doi:10.1145/2857491.2857532
-
2015 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2779314Pfeiffer-Leßmann, N., Renner, P., & Pfeiffer, T. (2015). Analyzing Patterns of Eye Movements in Social Interactions. In T. Pfeiffer & K. Essig (Eds.), Proceedings of the 2nd International Workshop on Solutions for Automatic Gaze Data Analysis 2015 (SAGA 2015) (pp. 27-29). Bielefeld: eCollections Bielefeld University. https://doi.org/10.2390/biecoll-saga2015_10
-
2015 | Zeitschriftenaufsatz | Veröffentlicht | PUB-ID: 2771800Renner, P., Pfeiffer, T., & Pfeiffer-Leßmann, N. (2015). Automatic Analysis of a Mobile Dual Eye-Tracking Study on Joint Attention. Abstracts of the 18th European Conference on Eye Movements, 116-116.
-
-
2013 | Kurzbeitrag Konferenz / Poster | Veröffentlicht | PUB-ID: 2578929Pfeiffer-Leßmann, N., Pfeiffer, T., & Wachsmuth, I. (2013). A model of joint attention for humans and machines. In K. Holmqvist, F. Mulvey, & R. Johansson (Eds.), Book of Abstracts of the 17th European Conference on Eye Movements (Vol. 6, pp. 152-152). Lund, Sweden: Journal of Eye Movement Research.
-
2013 | Sammelwerksbeitrag | Veröffentlicht | PUB-ID: 2634903Pfeiffer-Leßmann, N., Kopp, S., & Wachsmuth, I. (2013). Verkörperte Kommunikation mit kognitiven virtuellen Agenten. In G. Görz, J. Schneeberger, & U. Schmid (Eds.), Handbuch der Künstlichen Intelligenz (5th ed., pp. 559-583). München: Oldenbourgh Verlag.
-
2012 | Kurzbeitrag Konferenz / Poster | Veröffentlicht | PUB-ID: 2509771Pfeiffer-Leßmann, N., Pfeiffer, T., & Wachsmuth, I. (2012). An operational model of joint attention - Timing of the initiate-act in interactions with a virtual human. In D. Dörner, R. Goebel, M. Oaksford, M. Pauen, & E. Stern (Eds.), Proceedings of KogWis 2012 (pp. 96-97). Bamberg, Germany: University of Bamberg Press.
-
2012 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2497069Pfeiffer-Leßmann, N., Pfeiffer, T., & Wachsmuth, I. (2012). An operational model of joint attention - timing of gaze patterns in interactions between humans and a virtual human. In N. Miyake, D. Peebles, & R. P. Cooper (Eds.), Proceedings of the 34th Annual Conference of the Cognitive Science Society (pp. 851-856). Austin, TX: Cognitive Science Society.
-
-
2009 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 1998826Pfeiffer-Leßmann, N., & Wachsmuth, I. (2009). Formalizing joint attention in cooperative interaction with a virtual human. In B. Mertsching, M. Hund, & Z. Aziz (Eds.), KI 2009: Advances in Artificial Intelligence (Vol. LNAI 5803, pp. 540-547). Berlin: Springer. https://doi.org/10.1007/978-3-642-04617-9_68
-
-
2008 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 1998820Pfeiffer-Leßmann, N., & Wachsmuth, I. (2008). Toward alignment with a virtual human - achieving joint attention. In A. R. Dengel, K. Berns, T. M. Breuel, F. Bomarius, & T. R. Roth-Berghofer (Eds.), KI 2008: Advances in Artificial Intelligence (Vol. LNAI 5243, pp. 292-299). Berlin: Springer.
-
-
2006 | Sammelwerksbeitrag | Veröffentlicht | PUB-ID: 2423438Fink, G., Fritsch, J., Leßmann, N., Ritter, H., Sagerer, G., Steil, J. J., & Wachsmuth, I. (2006). Architectures of situated communicators: From perception to cognition to learning. In G. Rickheit & I. Wachsmuth (Eds.), Situated Communication (pp. 357-376). Berlin: Mouton de Gruyter. https://doi.org/10.1515/9783110197747.357
-
2006 | Sammelwerksbeitrag | Veröffentlicht | PUB-ID: 2423413Leßmann, N., Kopp, S., & Wachsmuth, I. (2006). Situated interaction with a virtual human - perception, action, and cognition. In G. Rickheit & I. Wachsmuth (Eds.), Situated Communication (pp. 287-323). Berlin: Mouton de Gruyter. https://doi.org/10.1515/9783110197747.287
-
2006 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 1857807Becker, C., Leßmann, N., Kopp, S., & Wachsmuth, I. (2006). Connecting feelings and thoughts - modeling the interaction of emotion and cognition in embodied agents. Proceedings of the 7th International Conference on Cognitive Modeling, 32-37. Trieste: Edizioni Goliardiche.
-
-
2004 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2611059Leßmann, N., Kranstedt, A., & Wachsmuth, I. (2004). Towards a cognitively motivated processing of turn-taking signals for the embodied conversational agent Max. Proceedings Workshop Embodied Conversational Agents: Balanced Perception and Action, 57-64. New York: IEEE Computer Society.
-
2003 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2611107Leßmann, N., & Wachsmuth, I. (2003). A cognitively motivated architecture for an anthropomorphic artificial communicator. Proceedings of the Fifth International Conference on Cognitive Modeling (ICCM-5), 277-278. Universitäts-Verlag Bamberg.
-
2003 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2611068Fink, G. A., Fritsch, J., Leßmann, N., Ritter, H., Sagerer, G., Steil, J. J., & Wachsmuth, I. (2003). Architekturen situierter Kommunikatoren: Von Perzeption über Kognition zum Lernen. In K. Dittrich (Ed.), Beiträge der 33. Jahrestagung der Gesellschaft für Informatik e.V. (GI): Vol. 2. Informatik 2003 - Innovative Informatikanwendungen (pp. 29-44). Bonn: Gesellschaft für Informatik e.V.
-
2003 | Zeitschriftenaufsatz | Veröffentlicht | PUB-ID: 2001896Kopp, S., Jung, B., Leßmann, N., & Wachsmuth, I. (2003). Max - A multimodal assistant in virtual reality construction. KI - Künstliche Intelligenz, 4(03), 11-17.
-