Wie intelligente Lautsprecher-KIs wie Alexa und Siri geschlechtsspezifische Vorurteile verstärken
Unesco fordert Technologieunternehmen auf, geschlechtsneutrale Versionen ihrer Sprachassistenten anzubieten

Apples HomePod wird vom Sprachassistenten Siri angetrieben
Justin Sullivan/Getty Images
Laut einem neuen UN-Bericht verstärken intelligente Lautsprecher, die von Sprachassistenten mit künstlicher Intelligenz (KI) angetrieben werden und weiblich klingen, die geschlechtsspezifische Voreingenommenheit.
Untersuchungen der Unesco (United Nations Educational, Scientific and Cultural Organization) haben ergeben, dass KI-Assistenten wie Amazons Alexa und Apples Siri die Idee verewigen, dass Frauen unterwürfig und tolerant gegenüber schlechter Behandlung sein sollten, weil die Systeme zuvorkommend und begierig sind, zu gefallen. Der tägliche Telegraph berichtet.
Der Bericht - ich würde erröten, wenn ich könnte, in Anlehnung an einen Satz, den Siri nach einem sexuellen Kommentar geäußert hat - besagt, dass Technologieunternehmen, die ihre Sprachassistenten standardmäßig weiblich machen, darauf hindeuten, dass Frauen fügsame Helfer sind, die auf Knopfdruck verfügbar sind eines Knopfes, fügt die Zeitung hinzu.
Die Agentur wirft Technologieunternehmen auch vor, keine angemessenen Sicherheitsvorkehrungen gegen feindselige, beleidigende und geschlechtsspezifische Sprache getroffen zu haben, berichtet Der Rand .
Stattdessen reagieren die meisten KIs auf aggressive Kommentare mit einem durchtriebenen Witz, so die Tech-News-Site. Wenn Siri zum Beispiel aufgefordert wird, ein Sandwich zu machen, sagt er: Ich kann nicht. Ich habe keine Gewürze.
Unternehmen wie Apple und Amazon, die von überwiegend männlichen Ingenieurteams besetzt sind, haben KI-Systeme entwickelt, die ihre feminisierten digitalen Assistenten dazu bringen, verbalen Beschimpfungen mit Fang-mich-wenn-du-kannst-Flirt zu begegnen, heißt es in dem Unesco-Bericht.
Was hat andere Forschung herausgefunden?
Der Unesco-Bericht zitiert eine Vielzahl von Studien, darunter Untersuchungen des US-amerikanischen Technologieunternehmens Robin Labs, die darauf hindeuten, dass mindestens 5 % der Interaktionen mit Sprachassistenten eindeutig sexuell explizit sind.
Und das Unternehmen, das digitale Assistenten entwickelt, geht davon aus, dass die Zahl aufgrund von Schwierigkeiten, sexuell anzügliche Sprache zu erkennen, wahrscheinlich viel höher sein wird. Der Wächter berichtet.
Die UN-Agentur verweist auch auf eine Studie des Forschungsunternehmens Gartner, die prognostiziert, dass Menschen bis 2020 mehr Gespräche mit dem Sprachassistenten in ihrem Smart Speaker führen werden als mit ihren Ehepartnern.
Bereits heute erledigen Sprachassistenten schätzungsweise eine Milliarde Aufgaben pro Monat, vom Abspielen von Liedern bis hin zur Kontaktaufnahme mit dem Rettungsdienst.
Obwohl einige Systeme Benutzern erlauben, das Geschlecht ihres Sprachassistenten zu ändern, aktivieren die meisten standardmäßig weibliche Stimmen, die BBC berichtet.
Der Unesco-Bericht kommt zu dem Schluss, dass dieser offensichtlichen geschlechtsspezifischen Voreingenommenheit dringend Aufmerksamkeit geschenkt werden muss.
Wie könnten Technologieunternehmen das Problem angehen?
Die Unesco argumentiert, dass Unternehmen verpflichtet sein sollten, ihre Sprachassistenten ankündigen zu lassen, dass sie keine Menschen sind, wenn sie mit Menschen interagieren, berichtet Die Sunday Times .
Die Agentur schlage außerdem vor, dass Benutzern die Möglichkeit gegeben werden soll, das Geschlecht ihres Sprachassistenten zu wählen, wenn sie ein neues Gerät bekommen, und dass eine geschlechtsneutrale Option verfügbar sein sollte, fügt die Zeitung hinzu.
Darüber hinaus sollten Technologieunternehmen Sprachassistenten programmieren, um verbalen Missbrauch oder sexuelle Belästigung mit Antworten wie „Nein“ oder „Unangemessen“ zu verurteilen, sagt die Unesco.
Tech-Unternehmen müssen noch auf die Studie antworten.