Autonomie & Algorithmen
Gefühle im Datenstrom? Einsatz und Grenzen der Emotionserkennung durch KI.
Episode notes
Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!
Zur Umfrage geht es hier.
+++
Der empathische Roboter, der anhand von Mimik, Stimme oder Körperhaltung erkennt, wie man sich fühlt, um wahlweise aufzuheitern, zu loben, oder emotionale Unterstützung anzubieten – klingt sehr nach Science Fiction, oder? Tatsächlich wurden im Rahmen des sogenannten Affective Computing in den letzten Jahren enorme Fortschritte erzielt, sodass diese Vorstellung keine reine Zukunftsmusik mehr ist. KI-basierte Systeme zur Emotionsdetektion sind jedoch komplex und umstritten. Was können sie wirklich messen? Sind es wirklich Stimmungen, Emotionen oder lediglich beobachtbare Gefühlsausdrücke? Und darüber hinaus: wollen wir maschinelle Systeme, die uns anhand von Daten emotionale Zustände zuschreiben?
+++
Zur Umfrage geht es hier.
+++
Der empathische Roboter, der anhand von Mimik, Stimme oder Körperhaltung erkennt, wie man sich fühlt, um wahlweise aufzuheitern, zu loben, oder emotionale Unterstützung anzubieten – klingt sehr nach Science Fiction, oder? Tatsächlich wurden im Rahmen des sogenannten Affective Computing in den letzten Jahren enorme Fortschritte erzielt, sodass diese Vorstellung keine reine Zukunftsmusik mehr ist. KI-basierte Systeme zur Emotionsdetektion sind jedoch komplex und umstritten. Was können sie wirklich messen? Sind es wirklich Stimmungen, Emotionen oder lediglich beobachtbare Gefühlsausdrücke? Und darüber hinaus: wollen wir maschinelle Systeme, die uns anhand von Daten emotionale Zustände zuschreiben?
+++
Jana Bressem ist Linguistin und Wissenschaftliche Mitarbeiterin an der Professur für Germanistische Sprachwissenschaft, Semiotik und Multimodale Kommunikation an der Technischen Universität Chemnitz. Ihre Forschungsschwerpunkte sind u.a. Multimodalität, typologische Gestenforschung, Sprache und Kognition sowie Mensch und Technik. Im Wissenschaftspodcast “Talking Bodies” spricht Jana gemeinsam mit Silva Ladewig, Sprachwissenschaftlerin von der Uni Göttingen, zu Themen der Sprache, Gestik und Kommunikation.
Björn Schuller ist Professor für Health Informatics an der Technischen Universität München sowie Professor für Künstliche Intelligenz am Imperial College London. Darüber hinaus ist er Mitbegründer, CEO und derzeitiger Chief Scientific Officer der audEERING GmbH – einem Start-up im Bereich intelligenter Audiotechnik. Björns Forschungsschwerpunkte sind u.a. Maschinelles Lernen, automatische Spracherkennung und Affective Computing.
Björn Schuller ist Professor für Health Informatics an der Technischen Universität München sowie Professor für Künstliche Intelligenz am Imperial College London. Darüber hinaus ist er Mitbegründer, CEO und derzeitiger Chief Scientific Officer der audEERING GmbH – einem Start-up im Bereich intelligenter Audiotechnik. Björns Forschungsschwerpunkte sind u.a. Maschinelles Lernen, automatische Spracherkennung und Affective Computing.
+++
Linkliste
- Emotionstheorien
- Ekman & Friesen: Facial Action Coding System (FACS)
- Das Emotionswörterbuch für das FACS: "EMFACS" von Friesen & Ekman
- Feldman Barrett (2006), Are emotions natural kinds? Perspectives on Psychological Science.
- Feldman Barrett et al. (2019), Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest.
- Gendron et al. (2014), Perceptions of emotion from facial expressions are not culturally universal: Evidence from a remote culture. Emotion.
- „Whisper“ von OpenAI
- Plutchiks "Emotion Wheel"
- Sander et al. (2005), A systems approach to appraisal mechanisms in emotion. Neural Networks.
- Wagner et al. (2022), Dawn of the transformer era in speech emotion recognition: Closing the valence gap.
- Studie am KIT: AI Recognizes Athletes’ Emotions.
- Mehrabian & Weiner (1967), Decoding of inconsistent communications. Journal of Personality and Social Psychology.
- Schuller (2006), Automatische Emotionserkennung aus sprachlicher und manueller Interaktion. Dissertation.
- Buolamwini & Gebru (2018), Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research.
- Halberstadt et al. (2018), Preservice teachers’ racialized emotion recognition, anger bias, and hostility attributions. Contemporary Educational Psychology.
- Talking Bodies Folge # 33 – Zeigt der Körper an, wenn wir lügen?
- Bond & DePaulo (2006), Accuracy of deception judgments. Personality and Social Psychology Review.
- EMOBIO, Fraunhofer: KI-gestützte Emotionserkennung im Fahrzeug aus physiologischen Daten.
- Q for Sales-Software zur Emotionsanalyse von Kund*innen
- EU-Projekt iBorderCtrl: Kommt der Lügendetektor oder kommt er nicht?
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: [email protected]
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.