Wie Siri und Alexa veraltete Geschlechterklischees zurückbringen

Warum werden Sprachassistenzprogramme wie Siri oder Alexa immer von weiblichen Stimmen gesprochen und warum ist das problematisch? Wir haben mit der Roboterpsychologin Martina Mara gesprochen.

Feministische Intelligenz: "Mein Siri ist schon längst auf männlich umgestellt"

"Warum muss die Sprachassistentin, bei der ich auf Zuruf Klopapier bestellen kann, eine weibliche Stimme haben?", Martina Mara. Foto: Paul Kranzler

Sie heißen Alexa und nicht Alexander, Alex oder Franz. Sie erfüllen Wünsche. 24 Stunden. Sieben Tage die Woche. Sie sagen niemals nein und sind immer freundlich – egal, wie man sie behandelt. Assistenzprogramme wie Siri von Apple oder Alexa von Amazon sind die Assistentinnen und Dienstbotinnen dieser Zeit. Auch Siri ist ein skandinavischer Frauenname. Ihre Stimmen sind weiblich konnotiert und folgen weiblichen Sprachmustern. Zumindest in der Standardeinstellung. Ursprünglich reagierten sie sogar freundlich bis flirtend auf sexuelle Belästigungen und Beleidigungen.

Ein vor kurzem veröffentlichter Bericht der UNESCO mit dem Namen Ich würde erröten, wenn ich könnte kritisiert die eingestellte Unterwürfigkeit und fordert Maßnahmen. Wie derartige künstliche Intelligenzsysteme programmiert sind, habe Auswirkungen auf die Gesellschaft. Das verfestige Geschlechtervorurteile, heißt es dort. Martina Mara ist Professorin für Roboterpsychologie an der Johannes Kepler Universität Linz in Oberösterreich. Sie beschäftigt sich unter anderem damit, wie Technik divers und geschlechtsneutral gestaltet werden kann.

ze.tt: Frau Mara, Sie sind Professorin für Roboterpsychologie. Was tut man so in ihrem Beruf?

Martina Mara: Es klingt ein bisschen nach Therapie für Wall-E und Co. Aber natürlich liegen auf meiner Couch keine Roboter. Wie es in der Arbeitspsychologie auch nicht um den Schreibtisch, sondern um die Psyche der Menschen geht, beschäftige ich micht mit Personen, die immer stärker mit Robotern und künstlicher Intelligenz (KI) zu tun haben. Bisher sind die menschlichen Bedürfnisse viel zu wenig in der Technologieentwicklung angekommen. Aktuell wird oft ein neues Gadget entwickelt und erst am Ende evaluieren Sozialwissenschaftler*innen oder Psycholog*innen, wie der Mensch damit umgehen wird und was das für Auswirkungen hat.

Warum werden die Stimmen von Sprachassistenzen wie Siri oder Alexa immer von weiblich konnotierten Stimmen gesprochen?

Zumindest bei Siri kann man das umstellen. Aber ja, die Standardeinstellung ist weiblich. Mein Siri ist schon längst auf männlich umgestellt (lacht). Es gibt noch wenig empirische Langzeitforschung, wie sich das konkret auswirkt. Aber es gibt Studien, die besagen, dass Menschen weibliche Stimmen als weniger dominant, sympathischer und fürsorglicher wahrnehmen und zwar auch bei Robotern. Wir übertragen ganz automatisch Muster aus der Wahrnehmung anderer Menschen auf unsere Wahrnehmung maschineller Interaktionspartner*innen. Darum die Frage: Warum sollte die Art, wie wir mit diesen digitalen Assistentinnen kommunizieren, keine Auswirkungen darauf haben, wie wir mit unseren Mitmenschen umgehen?

Das wäre nur der Fall, wenn wir sie klar als Maschinen und nicht als menschenähnliche Gesprächspartner*innen wahrnehmen. Diese Systeme werden aber stark vermenschlicht. Siri und Alexa sind ja außerdem klar an bestimmten weiblichen Merkmalen angelehnt. So werden diesen Computersystemen Gefühle, Intentionen und Motive zugeschrieben. Das ist auch bei Servicerobotern, Robotern in der Dienstleistung oder in sozialen Bereichen so. Natürlich ist es auffällig, dass die Assistenzsysteme gerade in diesen Branchen oft weiblich konnotierte Features aufweisen. Es gibt auch Chatbots oder KI-Systeme, die männliche Namen haben. Die sind dann aber im Bereich von Business, Banking oder in der Rechtsberatung zu finden.

Warum ist das problematisch?

Es ist ein Problem, weil damit Rollenklischees aufgewärmt werden, in denen die Frau eine passive Rolle hat, Befehle entgegennimmt und ausführt. Drastisch ausgedrückt, ist unsere Beziehung mit Siri oder Alexa eine Art von Master-Slave-Beziehung. Diese Systeme folgen alten Rollenklischees, gegen die über Jahrzehnte angekämpft wurden. Nun finden sie über die Tech-Gadgetebene wieder in unseren Alltag zurück. Darüber müssen wir sprechen.

Unsere Beziehung mit Siri oder Alexa ist eine Art von Master-Slave-Beziehung.

Martina Mara

Wie kann künstliche Intelligenz aussehen, die nicht diese Rollenklischees bedient?

Dazu gibt es mehrere Ansätze. Es existiert ein Projekt, bei dem bereits genderneutrale Stimmen entwickelt werden. Hier versuchen Forschende eine Stimme zu entwickeln, die von Zuhörenden als männlich und weiblich zugleich wahrgenommen wird. Ich finde diesen Ansatz sehr spannend, aber die Herausforderung ist, dass die Menschen diese Stimme gut aufnehmen.

Warum?

Es gibt Hinweise aus der Forschung, dass sich manche Menschen mit Dialogpartner*innen schwer tun, die sie nicht einschätzen können. Ganz grundsätzlich finde ich auch die Frage spannend: Sollen diese Systeme überhaupt menschlich klingen? Ein anderer Weg wäre, dass man die Systeme so anlegt, dass der Mensch sie klar als Maschine wahrnimmt und dass man der Vermenschlichung durch Design entgegenwirkt. Dann hätte das System eine Stimme, die einfach nach Maschine klingt. Einer meiner Doktoranden versucht aktuell, die Akzeptanz solcher artifiziellen Stimmen zu untersuchen.

‚Mama, wie geht es Alexa?‘ Das war für mich der Punkt, an dem Alexa aus der Wohnung verbannt wurde.

Martina Mara

Wie realistisch ist es, dass Menschen eine reale Beziehung zu derartigen Programmen aufbauen wie im Film Her? Dort verliebt sich der Protagonist Theodore in ein Sprachprogramm.

Dass wir eine kommunikative Bindung zu diesen Systemen eingehen und sie als wichtige soziale Wesen sehen, passiert schon heute. Kinder sind dafür ein gutes Beispiel. Meine vierjährige Tochter begann nach kurzer Zeit zu fragen: „Mama, wie geht es Alexa?“ Das war für mich der Punkt, an dem Alexa aus der Wohnung verbannt wurde. Ich halte die Entstehung von Gefühlen für realistisch, weil der Mensch nicht viel dafür braucht. Schon kleine Reize genügen, um den Eindruck von Lebendigkeit und Empathie zu vermitteln. Es reicht, wenn sich ein Staubsaugerroboter zu mir bewegt und es so scheint, dass er es aus einer eigenen Intention heraus macht. Schon entsteht eine simple, soziale Beziehung. Oder einen Serviceroboter mit runden Formen und großen Augen, der ins Kindchenschema fällt, finden Menschen automatisch süß und sympathisch. Ob sich Liebe ausgeht, da bin ich skeptisch. Menschen sind komplexe Wesen und nicht in allen Belangen so leicht zu simulieren, wie das manchmal dargestellt wird. Humor, Kreativität, Spontaneität, aufrichtiges Kümmern um den*die andere*n, gemeinsame Erlebnisse und Erfahrungen mit dem*der Partner*in – da können Bots noch lange nicht mithalten.

Menschen sind komplexe Wesen und nicht in allen Belangen so leicht zu simulieren, wie das manchmal dargestellt wird.

Martina Mara

Wenn Siri und Alexa als Menschen wahrgenommen werden, wie wichtig ist es dann, dass sie Feministinnen sind?

Mir wäre am liebsten, wenn man Maschinen als Maschinen darstellt und auch so wahrnimmt. Aber das ist eben oft nicht so und darum ist es wichtig, dass man darüber spricht, dass sich offenbar Jahre lang keiner der – meist männlichen – Entwickler Gedanken gemacht hat, wie Alexa adäquat auf sexuelle Avancen und Beleidigungen von User*innen reagiert.  Auf die Frage „Alexa, willst Du Sex?“ – eine Frage übrigens, die häufiger gestellt wird, als man meinen mag – antwortete das System ursprünglich: „Ich bin nicht diese Art von Assistentin“. Das impliziert natürlich, dass es irgendwo anders schon „diese Art von Assistentin“, für die Sex okay wäre, gibt. Zum Glück hat sich hier mittlerweile etwas getan. Alexa sagt jetzt über sich selbst, dass sie „Frauenpower aus der Steckdose“ ist, bezeichnet sich als Feministin und geht nicht auf Belästigungen ein. Die Hersteller*innen haben auf die massive Kritik reagiert. Das zeigt auch, wie wichtig es ist, dass man solche Unsitten immer und immer wieder kritisiert.

Wie wichtig ist es, wer Technologie entwickelt?

Die meisten Entwickler sind nach wie vor weiße Männer. Es geht dabei nicht nur um Männer und Frauen, sondern um eine grundsätzliche fehlende Diversität. People of Color, Menschen mit Beeinträchtigungen und ältere Menschen sind total unterrepräsentiert. Es gibt auch immer mehr ältere User*innern; warum dürfen die nicht mitreden, schließlich sollen ja auch sie die Produkte benutzen? Ich zeige auf Vorträgen oft das Beispiel vom sensorgesteuerten Seifenspender, der bei Schwarzen Menschen einfach keine Seife ausspuckt, sondern ausschließlich, wenn eine weiße Hand unter den Sensor gehalten wird. Videos davon wurden auf Twitter eine Zeit lang heftig geteilt. Wir brauchen Technikteams, die diverser und interdisziplinärer sind. Die Diversität fehlt aber auch in den Daten und darüber wird noch viel zu wenig gesprochen.

Was meinen Sie damit?

KI-Systeme lernen aus riesigen Datensätzen. Auch Sprachassistenzsysteme sind KI – sie lernen aus tausenden menschlichen Sprachaufnahmen. Es ist essenziell, dass diese divers sind und verschiedenste Nutzer*innengruppen darin repräsentiert sind. Bisher verstehen Alexa und Co. nicht alle Menschen gleich gut. US-amerikanische Medien berichteten darüber, dass die Sprachbefehle älterer Frauen beispielsweise systematisch schlechter verstanden werden. Das könnte daran liegen, dass es von ihnen wenig leicht verfügbare Aufnahmen gibt. Wir müssen darüber sprechen, wie künstliche Intelligenz geschaffen werden kann, die keine Nutzer*innengruppe diskriminiert. Es wird dazu in der Zukunft explizit neue Berufe geben müssen – wie etwa den der*des Datenkurator*in. Und auch Richtlinien.

Eine ihrer Lieblingsserien als Kind war Knight Rider. Könnte das Kultauto K.I.T.T heute eine weibliche Stimme haben?

(Lacht) Ja, sicher! Es wäre nur wichtig, dass K.I.T.T weiterhin genauso schnittig schwarz aussieht und nicht pink und rund gemacht wird.

Außerdem auf ze.tt