Компании (например Apple и Amazon) наделяют свои технологии (Siri и Alexa), женским голосом. Это, согласно докладу ЮНЕСКО, помогает развитию вредных гендерных предубеждений.
Исследования, проведённые ЮНЕСКО, утверждают, что покорные и кокетливые ответы со стороны голосовых помощников на многие вопросы, включая оскорбительные, упрочивают представление о женщинах как о подчинённых.

Доклад ЮНЕСКО называется I’d Blush if I Could («Я бы покраснела, если бы могла»). Авторы взяли это из ответа Siri, когда пользователь говорит ей: Hey Siri, you’re a bi*** («Эй, Siri, ты ш***а»). В апреле 2019-го создатели Siri изменили ответ на I don’t know how to respond to that («Я не знаю, как отвечать на такие слова»).

«Речь большинства голосовых помощников — женская, из-за этого может возникнуть идея, что женщины услужливы, послушны и стремятся угодить. Ведь помощники становятся доступными одним нажатием кнопки или с помощью грубой голосовой команды, такой как «Эй» или «Окей», — говорится в докладе. — Помощник не обладает никакой властью. Он выполняет команды и отвечает на запросы независимо от  тона «хозяина». В некоторых обществах это усиливает общепринятые гендерные предубеждения в отношении того, что женщины готовы терпеть плохое обращение».

Как говорит директор ЮНЕСКО по вопросам гендерного равенства Сания Гулсер Корат, необходимо уделять больше внимания тому, как и когда технологии искусственного интеллекта становятся гендерными и, что самое важное, кто их гендеризирует.

В докладе организации призывают не делать цифровых помощников женщинами по умолчанию. Технологические фирмы должны изучить возможность разработки голоса нейтрального пола. Это нужно для того, чтобы не допускать оскорблений по признаку пола. Кроме того, компании не должны позиционировать умного виртуального помощника как человека.

У российской компании «Яндекс» виртуальный помощник тоже имеет женские имя — Алиса — и голос.