Wer Siri fragt, bekommt eine immer freundliche Antwort. Zufall? Nein! Fast alle Sprachassistenten sind feminisiert: Namen, Stimme, Sprechmuster und Persönlichkeit können dem weiblichen Geschlecht zugeordnet werden. Was als technische Spielerei verkauft wird, ist in Wahrheit die Reproduktion von Vorurteilen. Damit werden jahrhundertealte Muster dargestellt, dass Frauen zuhören, Frauen dienen, Frauen immer zuvorkommend reagieren.
Sprachassistenten wie Alexa, Siri oder Cortana sind längst ein fester Bestandteil unseres Alltags. Sie beantworten Fragen, spielen Musik ab, erinnern uns an Termine und machen fast alles, was wir ihnen befehlen. Doch was wie eine einfache Design-Entscheidung wirkt, offenbart tief verwurzelte Rollenbilder. Seit Jahrhunderten werden Frauen in gesellschaftliche Rollen gedrängt, die auf Unterstützung, Fürsorge und Unterordnung ausgerichtet sind. Laut einer UNESCO – Studie („I´d blush if I could“, 2019) verstärken digitale Sprachassistenten stereotype Frauenbilder, indem sie weiblich klingenden Stimmen gehorsame, unterwürfige Antworten geben. Bis 2020 haben sie selbst auf sexistische Beleidigungen freundlich reagiert. Unglaublich. Vor allem, weil wir doch in dem Thema Gleichberechtigung vorgeschritten sind. Oder waren?
Damit sind die Auswirkungen keinesfalls trivial. Wenn Millionen Menschen täglich Befehle an „Alexa“ oder „Siri“ richten, prägt das unbewusst Frauen sind diejenigen, die zuhören, dienen und immer im Gehorsam reagieren müssen. Vor allem Kinder, die mit dieser Technologie aufwachsen, verinnerlichen die Eigenschaften besonders leicht.
Dadurch sind Sprachassistenten und wir als Gesellschaft, die diese nutzen, dafür verantwortlich, dass wir im Kampf um die Gleichberechtigung wieder rückläufig sind.
So sind Sprachassistenten dafür verantwortlich, dass das Bild von Frauen zu einer Art „sozialem Training“ wird, die fatale Folgen für das Bild von Frauen in Gesellschaft und Beruf mitbringt.
Doch es könnte auch anders sein. Erste Projekte wie die geschlechtsneutrale Stimme „Q“ oder die Möglichkeit, alternative Stimmlage zu wählen, zeigen, dass Technologie Diversität abbilden und bestehende Machtstrukturen hinterfragen kann.
Sprachassistenten sind mehr als nur praktische Helfer*innen. Sie tragen dazu bei, jahrhundertealte Rollenbilder zu reproduzieren und in der digitalen Welt abzubilden. Sie ist ein Spiegel unserer Gesellschaft und dies manchmal ziemlich verzerrt. Wenn wir wollen, dass sich etwas ändert, müssen wir bei den Stimmen anfangen. Mehr Vielfalt bedeutet mehr Freiheit für alle Geschlechter. Deshalb sollten Entwickler*innen, Politik und Nutzer*innen gleichermaßen hinterfragen, welche Stimmen wir eigentlich hören wollen. Statt ein Frauenbild zu stabilisieren, das dem 20. Jahrhundert entstammt, können Sprachassistenten ein Symbol für Diversität und Gleichberechtigung werden. Denk beim nächsten „Hey Siri“ mal darüber nach, wer da eigentlich antwortet und warum.





