Die leise Stimme des Patriarchats 

Was als technische Spielerei verkauft wird, ist in Wahrheit die Reproduktion von Vorurteilen.
veröffentlicht am 19. September 2025

Wer Siri fragt, bekommt eine immer freundliche Antwort. Zufall? Nein! Fast alle  Sprachassistenten sind feminisiert: Namen, Stimme, Sprechmuster und Persönlichkeit können dem weiblichen Geschlecht zugeordnet werden. Was als technische Spielerei  verkauft wird, ist in Wahrheit die Reproduktion von Vorurteilen. Damit werden  jahrhundertealte Muster dargestellt, dass Frauen zuhören, Frauen dienen, Frauen immer  zuvorkommend reagieren.  

Sprachassistenten wie Alexa, Siri oder Cortana sind längst ein fester Bestandteil unseres  Alltags. Sie beantworten Fragen, spielen Musik ab, erinnern uns an Termine und machen fast  alles, was wir ihnen befehlen. Doch was wie eine einfache Design-Entscheidung wirkt,  offenbart tief verwurzelte Rollenbilder. Seit Jahrhunderten werden Frauen in  gesellschaftliche Rollen gedrängt, die auf Unterstützung, Fürsorge und Unterordnung  ausgerichtet sind. Laut einer UNESCO – Studie („I´d blush if I could“, 2019) verstärken digitale Sprachassistenten stereotype Frauenbilder, indem sie weiblich klingenden Stimmen  gehorsame, unterwürfige Antworten geben. Bis 2020 haben sie selbst auf sexistische  Beleidigungen freundlich reagiert. Unglaublich. Vor allem, weil wir doch in dem Thema  Gleichberechtigung vorgeschritten sind. Oder waren?  

Damit sind die Auswirkungen keinesfalls trivial. Wenn Millionen Menschen täglich Befehle an  „Alexa“ oder „Siri“ richten, prägt das unbewusst Frauen sind diejenigen, die zuhören, dienen  und immer im Gehorsam reagieren müssen. Vor allem Kinder, die mit dieser Technologie  aufwachsen, verinnerlichen die Eigenschaften besonders leicht.  

Dadurch sind Sprachassistenten und wir als Gesellschaft, die diese nutzen, dafür verantwortlich,  dass wir im Kampf um die Gleichberechtigung wieder rückläufig sind. 

So sind Sprachassistenten dafür verantwortlich, dass das Bild von Frauen zu einer Art  „sozialem Training“ wird, die fatale Folgen für das Bild von Frauen in Gesellschaft und  Beruf mitbringt.  

Doch es könnte auch anders sein. Erste Projekte wie die geschlechtsneutrale Stimme „Q“  oder die Möglichkeit, alternative Stimmlage zu wählen, zeigen, dass Technologie Diversität abbilden und bestehende Machtstrukturen hinterfragen kann.  

Sprachassistenten sind mehr als nur praktische Helfer*innen. Sie tragen dazu bei,  jahrhundertealte Rollenbilder zu reproduzieren und in der digitalen Welt abzubilden. Sie ist  ein Spiegel unserer Gesellschaft und dies manchmal ziemlich verzerrt. Wenn wir wollen, dass  sich etwas ändert, müssen wir bei den Stimmen anfangen. Mehr Vielfalt bedeutet mehr  Freiheit für alle Geschlechter. Deshalb sollten Entwickler*innen, Politik und Nutzer*innen  gleichermaßen hinterfragen, welche Stimmen wir eigentlich hören wollen. Statt ein  Frauenbild zu stabilisieren, das dem 20. Jahrhundert entstammt, können Sprachassistenten  ein Symbol für Diversität und Gleichberechtigung werden. Denk beim nächsten „Hey Siri“  mal darüber nach, wer da eigentlich antwortet und warum.

 

Beitragsbild von HeikoAL

Ein Beitrag von:

Picture of Frieda Puppel

Frieda Puppel

ist 2006 geboren und Studentin für Publizistik, Kommunikation – und Politikwissenschaften. Ihr Wunsch ist es Themen sichtbar zu machen und Perspektiven zu erweitern.

Möchtst du auch für uns schreiben?

Das JUPMA ist das offene Magazin der Jugendpresse Berlin-Brandenburg. Hier können alle schreiben, die später einmal im Journalismus arbeiten wollen. Lerne mehr →

Für dich empfohlen:

Foto von Linda Lioe

Ist die Zukunft Second Hand?

Täglich überspülen neue Trends unsere Wahrnehmung. Es wird immer schwieriger, sich modebewusst zu kleiden, denn was bedeutet „modebewusst“ überhaupt noch in der Zeit von Fast