Das musst du wissen

  • Die gängigsten digitalen Sprachsysteme von Apple, Amazon, Microsoft und Google haben alle weibliche Stimmen.
  • Das verstärke das Bild von Frauen als unterwürfige Helfer, warnt nun ein Bericht der Vereinten Nationen UN.
  • Nutzer sollten die Stimme ihrer Assistenten selber wählen können, das ist bisher nicht bei allen Geräten möglich.

Sie scheinen so nützlich und harmlos, wenn sie uns an Termine erinnern oder Lieder abspielen. Doch nun warnt ein kürzlich erschienener UN-Bericht vor Siri, Alexa & Co.: Die durchweg weiblichen Stimmen der digitalen Assistentinnen von Apple, Amazon, Google und Microsoft führten dazu, dass sich stereotype Geschlechterbilder weltweit ausbreiteten und verfestigten. Die Sprachassistentinnen sendeten das Signal, «dass Frauen zuvorkommende, gefügige und fleissige Helfer sind», heisst es im Bericht.

Besonders problematisch fanden die Autoren, dass die digitalen Helferinnen spielerische, ablenkende oder entschuldigende Reaktionen auf verbale sexuelle Belästigung zeigen. Dies zeigt auch eine Recherche des Quartz Magazins aus dem Jahr 2017. Auf die Beleidigung «You’re a bitch» – zu Deutsch «Du bist eine Schlampe» – reagierte Apples Siri mit einem Flirt: «I’d blush if I could» – «Wenn ich könnte, würde ich rot werden.». Amazons Alexa, Microsofts Cortana und Google Home reagierten ähnlich gutmütig, entschuldigten sich oder wichen aus. Dies verstärke «die gängigen geschlechtsspezifischen Vorurteile, dass Frauen unterwürfig und tolerant gegenüber schlechter Behandlung sind», steht im UN-Bericht.

Dessen Autoren untersuchten diese These zwar nicht direkt mit wissenschaftlichen Methoden – dass Sprache jedoch unser Denken beeinflusst, ist hinlänglich bekannt. Und die Autoren verweisen ausserdem auf Forschung, etwa die des Harvard-Diversitätsforschers Calvin Lai. Je mehr eine Kultur lehre, Frauen mit Assistenten gleichzusetzten, wird Lai zitiert, desto mehr würden reale Frauen als Assistenten wahrgenommen.

Das ist ein Problem, denn die Software von Apple, Google, Amazon und Microsoft dominiert zusammengenommen 90 Prozent des Markts für digitale Sprachassistenten – und dieser Markt wächst rapide. Sogenannte Smartspeakers wie Alexa wurden allein 2018 weltweit 100 Millionen Mal verkauft, schätzt die Marktanalysefirma Canalys.

Dass alle vier erwähnten Assistenten mit einer weiblichen Stimme als Voreinstellung geliefert werden – nur bei zweien lässt sich dies ändern – sei kein Zufall, schreiben die UN-Autoren. Denn Frauen machten nur 12 Prozent aller Forscher und Entwickler im Bereich künstlicher Intelligenz (KI) aus. Die KI-Entwicklerteams seien vorwiegend männlich und die Sprachassistentin sei «kaum eine generische Frau, sondern eine junge Frau von einem bestimmten Ort und geprägt von Lebenserfahrungen, die für das [Entwickler]team … eine Bedeutung haben.»

Die Autoren machen einige Vorschläge, um das Problem zu lösen. Als Mindestmassnahme sollten weibliche Stimmen in den Sprachassistenten nicht voreingestellt sein. So, dass die Nutzer bei Inbetriebnahme aktiv selbst eine Stimme auswählen müssen. Ausserdem sollten die Firmen untersuchen, ob sie Alternativen, die geschlechtslos – also weder weiblich noch männlich – klingen, nutzen wollen.

Geschlechtslos sprechen – geht das?

Ja. Wenn die digitale Stimme in einem Frequenzbereich zwischen 145 und 175 Hertz schwingt, hört sich die Stimme geschlechtslos an. Die Initiative «genderlessvoice» hat eine solche KI-Stimme entwickelt. Sie heisst Q und Du kannst sie Dir hier anhören. Die Entwickler wollen erreichen, dass die grossen Firmen auf diese Stimme aufmerksam werden und sie in ihre Systeme einbauen.

Was die Historikerin und Geschlechterforscherin Fabienne Amlinger über digitale Sprachassistentinnen und Geschlechterstereotype denkt, lest ihr in folgendem Interview:

Frau Amlinger, die weiblichen Stimmen digitaler Sprachassistentinnen sollen laut dem UN-Bericht den Stereotyp der Frau als dienend und zuvorkommend verstärken. Kann man das wirklich glauben? Weibliche Stimmen aus dem Computer begleiten uns doch schon seit Jahrzehnten, zum Beispiel in der Bahn.

Ja, auch in der Bahn übt die weibliche Stimme stereotype Tätigkeiten des Dienens und Helfens aus. Verstärkt wird das Problem des Sexismus dann zusätzlich, wenn ich nicht nur in der Bahn sitze und passiv einer Information zuhöre, sondern auch noch – wie bei den Sprachassistentinnen – aktiv befehlen kann. Auf Knopfdruck hin oder durch meine Befehle dienen mir diese Assistentinnen.

Fabienne Amlinger

Fabienne Amlinger ist Dozentin und wissenschaftliche Mitarbeiterin am Interdisziplinären Zentrum für Geschlechterforschung IZFG der Universität Bern.

Aber die Nutzer wissen doch, dass sie es mit einem Computer und nicht mit einer realen Frau zu tun haben. Die weibliche Stimme sei für die Kunden eben angenehmer, argumentieren die Firmen.

Es ist eben nicht nur einfach eine weibliche Stimme. Schon allein die Tatsache, dass offenbar häufig sexualisierte Anfragen und verbale sexuelle Belästigungen an diese Assistentinnen gerichtet werden, zeigt doch, dass es in dieser Interaktion ein menschliches Element gibt. Die realen, von Sexismus geprägten gesellschaftlichen Strukturen und Hierarchien übertragen sich also in die digitale Welt.

Einen Grund für diese Sexismen sehen die Autoren des UN-Berichtes darin, dass die Entwicklerteams überwiegend männlich sind, nur 12 Prozent sind Frauen. Wie sehen Sie das?

Sicherlich ist es begrüssenswert, wenn mehr Frauen in solchen Teams arbeiten würden. Damit ist aber noch nicht sichergestellt, dass Sexismus und stereotype Vorstellungen verschwinden. Auch Frauen können Geschlechterstereotype einbringen – denn mit solchen sind ja die meisten aufgewachsen und haben sie unbewusst verinnerlicht. Wichtig ist nämlich auch, wie diese Frauen im Team aufgestellt sind und welche Handlungsmacht sie haben. Erfahrungen aus anderen Bereichen wie etwa der Politik zeigen, dass sich Hierarchien und Arbeitskulturen ändern, wenn dort ein Frauenanteil von mindestens 30 Prozent vorhanden ist.

Diesen Beitrag haben wir ursprünglich für nau.ch geschrieben.
Diesen Beitrag teilen
Unterstütze uns

regelmässige Spende