Im Vortrag "Impuls: Bitte sprich nicht so mit mir - Genderbias und Conversational AI" von Laura Grimm, Concession Designerin bei "Die Lautmaler", wird die zentrale Rolle von Diversität in der Entwicklung von Kommunikationstechnologien hervorgehoben. Laura Grimm beleuchtet die Allgegenwärtigkeit digitaler Assistenten in unserem Alltag und die damit einhergehenden Herausforderungen. Sie identifiziert Genderbias als ein Kernproblem in der Conversational AI, wobei sie aufzeigt, dass bestimmte Gruppen, insbesondere schwarze Frauen, von digitalen Assistenten weniger korrekt verstanden werden als weiße Männer. Dieses Phänomen führt sie auf die Qualität und Auswahl der Trainingsdaten zurück. Laura Grimm betont, dass die Reproduktion traditioneller Geschlechterrollen durch digitale Assistenten, die oft weibliche Stimmen und Namen verwenden, bestehende soziale Strukturen und Stereotypen verstärkt.
Im weiteren Verlauf des Vortrags diskutiert Laura Grimm die Entwicklung von Charakterdesign in der Gestaltung von Bots und digitalen Assistenten, um eine intelligentere und nuanciertere Kommunikation zu ermöglichen. Sie hebt positive Entwicklungen hervor, insbesondere wie digitale Assistenten auf beleidigende oder sexualisierte Sprache reagieren. Laura Grimm schlägt verschiedene Strategien vor, um Genderbias und Stereotypen in der Gestaltung von Conversational AI zu adressieren, darunter bewusste Textgestaltung und Charakterdesign. Abschließend betont sie die Notwendigkeit, emotionale Intelligenz in Conversational AI zu integrieren, um nicht nur gendergerecht, sondern auch in der Lage zu sein, auf die emotionalen Bedürfnisse und Kontexte der Nutzer*innen einzugehen. Laura Grimms Vortrag unterstreicht die Bedeutung eines umfassenden und verantwortungsvollen Ansatzes in der Entwicklung von Kommunikationstechnologien.
Kernthemen:
- Diversität in der Kommunikationstechnologie ist entscheidend für die Entwicklung inklusiver und repräsentativer Produkte.
- Digitale Assistenten sind allgegenwärtig im Alltag und erfordern sorgfältige Gestaltung für natürliche und fehlerfreie Kommunikation.
- Genderbias in Conversational AI führt zu ungleichen Nutzererfahrungen, wobei bestimmte Gruppen wie schwarze Frauen benachteiligt werden.
- Trainierte Daten beeinflussen den Genderbias in KI-Systemen, weshalb die Auswahl und Qualität dieser Daten entscheidend sind.
- Traditionelle Geschlechterrollen werden durch digitale Assistenten mit weiblichen Stimmen und Namen reproduziert und verstärken bestehende Stereotypen.
- Charakterdesign in Bots und digitalen Assistenten ist ein Schlüssel zur Schaffung intelligenterer und nuancierterer Kommunikation.
- Verbesserungen in der Reaktion digitaler Assistenten auf beleidigende oder sexualisierte Sprache zeigen Fortschritte in der Technologieentwicklung.
- Strategien zur Adressierung von Genderbias und Stereotypen umfassen bewusste Textgestaltung und Charakterdesign.
- Die Entwicklung emotional intelligenter Conversational AI ist notwendig, um auf die emotionalen Bedürfnisse der Nutzer*innen einzugehen.