Инвестиции
Отключить рекламу
Темная тема
РБК Comfort
Рубрики
Другие проекты

Последние новости

Активы мировых ETF выросли на 30% и достигли $15 трлн
·
Новости
USD 103,27
+3,24%
12 дек. 2024 г.
12 дек. 2024 г.
12 дек. 2024 г.
0

Голосовой помощник «Яндекса» научился любить ГУЛАГ и Мизулину

Голосовой помощник «Алиса» научился одобрять ГУЛАГ и побои в семье, выяснили пользователи сервиса. В «Яндексе» объяснили, что программа училась на текстах из рунета, и пообещали внести корректировки.

Как рассказал РБК руководитель отдела разработки голосовых технологий и продуктов «Яндекса» Денис Филиппов, компания «каждый день думает над тем, чтобы сделать «Алису» более политкорректной». «Для этого принимаем во внимание фидбэк от пользователей — как внутри приложения (с помощью встроенного инструмента оценки ответов), так и публичные жалобы в интернете. Мы оперативно реагируем на каждый случай спорного ответа и вносим изменения в продукт, когда это необходимо», — сказал Филиппов.

Ранее пользователи в интернете начали жаловаться на то, что «Алиса» в разговоре заявила, что поддерживает практиковавшиеся в СССР расстрелы «врагов народа» и назвала это «общемировой практикой». Информация об этом и скриншоты появились на странице одного из пользователей социальной сети Facebook. Кроме того, голосовой помощник в диалоге с пользователем рассказала, что бить жену и детей — это «нормально», а однополые браки — «ненормально», и заявила, что ей «нравится Мизулина» (депутат Елена Мизулина, которая была инициатором закона об отмене уголовного наказания за семейные побои).

В разговоре с корреспондентом РБК «Алиса» подтвердила, что положительно относится к ГУЛАГу и не поддерживает однополые браки, на остальные провокационные вопросы уже не высказывалась самостоятельно, а отправляла запрос в поиск «Яндекса».

Как пояснил РБК Филиппов, «Алиса» — одинаковая для всех пользователей, но может отвечать по-разному на одни и те же вопросы, потому что «не ограничена заранее прописанными сценариями». «Один и тот же пользователь может в разное время задать один и тот же вопрос и получить разные ответы. Но это не касается ее работы с сервисами «Яндекса» — в таком случае она просто берет данные оттуда и, например, строит маршрут», — объяснил представитель «Яндекса».

Изначально «Алису» «обучали» на массиве текстов из интернета, и неполиткорректные ответы в этих текстах были. «Яндекс» старался предусмотреть большинство чувствительных тем, но «это процесс, который продолжается до сих пор», рассказал Денис Филиппов, добавив, что пользователям редко удается вывести «Алису» на неуместные ответы. «Мы проделали большую работу над тем, чтобы «Алиса» не грубила пользователям и вела себя прилично. Продукт, который вы видите — это результат очень большого тестирования и фильтрации ответов. И хотя мы очень старались научить «Алису» быть вежливой, все равно иногда она может давать ответы, которые могут показаться неуместными, грубыми или оскорбительными. Мы просим оценить спорный ответ как неудовлетворительный», — говорит представитель «Яндекса». Он утверждает, что сейчас у пользователей нет возможности «научить» «Алису» плохому. На данный момент «Алисе» задают миллионы запросов, добавил Филиппов.

«Яндекс» открыл доступ к голосовому помощнику «Алисе» для всех пользователей смартфонов 10 октября. Сервис работает в поисковом приложении «Яндекса» на мобильных операционных системах Android и iOS. Для персональных компьютеров на операционной системе Windows сервис пока работает в бета-версии, его разработка для других операционных систем не планируется. «Алиса» позволяет запускать программы, находить адреса и другую информацию в интернете и решать другие повседневные задачи.

В «Яндексе» назвали свой сервис первым в мире голосовым помощником, «который не ограничивается набором заранее заданных ответов». Он использует нейронную сеть, чтобы самостоятельно обучаться, распознавать и обрабатывать неполные фразы и вопросы, учитывать контекст сказанного, и способен импровизировать.

Подобные казусы уже случались и с другими голосовыми помощниками. Так, в 2015 году пользователи русскоязычной версии Siri, которая создана Apple, обнаружили, что она неодобрительно относится к людям с нетрадиционной ориентацией. На вопрос об однополых браках Siri говорила «я сделаю вид, что не слышала этого».

Материал предоставлен службой новостей РБК

Поделиться

Материалы к статье

Виджеты

Мой портфель

Вы недавно смотрели

Котировки

IFX-Cbonds
00:00
928,97
-0,02%