TechFusion.ruКейсыТрудности перевода: когда искусственный интеллект ошибается

Трудности перевода: когда искусственный интеллект ошибается

искусственный интеллект

Будущее — за машинным интеллектом, говорят эксперты. Но уже в настоящем системы, которые должны облегчать нам жизнь и упрощать коммуникации, допускают ошибки. Иногда — с весьма неприятными последствиями 

Рынок AI-систем (Artificial Intelligence, искусственный интеллект) в 2017 году вырастет на 59,3% и достигнет $12,5 млрд, прогнозирует исследовательское агентство IDC. Разработки в этой области ведет практически каждая крупная IT-компания. Но сложности, которые приносит развитие технологий, иногда ставят под угрозу благополучие человека. TechFusion собрал примеры того, к каким последствиям уже сейчас приводят ошибки искусственного интеллекта.

Facebook

15 октября этого года израильская полиция ошибочно арестовала палестинца из-за неверного автоматического перевода в Facebook.

Строитель опубликовал на своей станице в социальной сети свое фото с кофе и сигаретой на фоне бульдозера. Под фотографией, сделанной на стройке в поселке Бейтар-Илит на Западном берегу реки Иордан, появилась подпись «Атакуйте их». В оригинале палестинец написал «Доброе утро», но переводчик Facebook «по-своему» интерпретировал фразу на иврит. На английский язык соцсеть перевела фразу как «Вредите им» (Hurt them).

Молодой человек провел в участке несколько часов, после чего его отпустили. Полиция подозревала его в подстрекательстве.

Непонятно, как переводчик мог сделать такую ошибку, поскольку между арабским выражением «доброе утро» и фразами на иврите или английском языке нет очевидного сходства, пишет издание Phys.org. Facebook пользуется системой автоматического перевода Bing Translator от Microsoft. Для повышения качества перевода в нем используется самообучающаяся нейронная сеть.

В конечном итоге палестинец удалил свой пост и отказался от комментариев журналистам.

WeChat

В начале октября китайский мессенджер WeChat извинился за ошибку, которую, по словам создателей компании, допустил искусственный интеллект. Он некорректно перевел выражение с китайского языка, заменив нейтральное слово оскорбительным.

Об этой ошибке сообщил Энн Джеймс (Ann James) — театральный продюсер и актер, живущий в Шанхае, который является черным американцем. Он написал в Twitter, что WeChat перевел нейтральную фразу hei laowai, которая буквально означает «черный иностранец», как «n-слово». Первоначальную фразу написала в общий чат коллега Джеймса.

«Мы очень сожалеем о неуместном переводе», — заявил представитель WeChat китайскому новостному порталу Sixth Tone, пишет The Guardian. «После того, как мы получили отзывы пользователей, мы сразу исправили проблему», — добавил он.

Представитель WeChat также рассказал, что механизм перевода в мессенджере работает на базе нейронной сети, которая постоянно совершенствуется «для более точной, выразительной работы».

Фраза, которую WeChat ошибочно перевел, дословно звучала как «негр опаздывает».

Местный новостной сайт That’s Shanghai провел ряд тестов, которые показали, что мессенджер переводит по-разному фразу hei laowai в зависимости от контекста. Когда рядом с этой фразой употребляются слова «классный», «отлично», то система выдает в качестве перевода «черный иностранец». Если же рядом употребляются слова «ленивый», «опаздывает», которые носят негативную окраску,  hei laowai превращается в неполиткорректное выражение.

Энн Джеймс остался доволен ответом WeChat. «Компания изменила алгоритм, поэтому теперь ни один из 900 млн пользователей мессенджера не увидит в качестве перевода «n-слово».

Google 

Проблема машинного перевода существует не только в Китае. К примеру, переводчик Google Translate дает гендерно-нейтральным турецким фразам «они работают врачами» и «они работают медсестрами» сексистскую оценку. Одну профессию сервис «воспринимает» как мужскую, а вторую — как женскую.

В 2015 году Google пришлось извиняться за другой свой сервис — тогда новое приложение для фотографий обозначило двух изображенных на картинке черных людей как «горилл».

Фотосервис, запущенный в мае 2015 года, автоматически сортирует снимки и добавляет к ним тэги, используя программное обеспечение на базе искусственного интеллекта.

«Google Photos, вы облажались. Моя подруга не горилла », — написал Джеки Алсине (Jacky Alcine) после того, как сервис добавил к его фото тэг «гориллы». С Алсине связался сотрудник Google Йонатан Зангер (Yonatan Zunger). Он ответил в Twitter, что благодарен за то, что Алсине помог Google исправить проблему.

Зангер отметил, что ошибки в распознавании изображений могут быть вызваны темными лицами и «разницей в контрастной обработке, необходимой для разных оттенков кожи и освещения».

«У нас были проблемы с людьми (всех рас), которых система отмечала как собак, по тем же причинам», — объяснял Зангер The Guardian. «Мы также работаем над такими исправлениями в долгосрочной перспективе, как лингвистика (слова, которые следует осторожно добавлять к фотографиям людей), и само распознавание изображений (например, над лучшим распознаванием темных лиц). Много чего сделано, но и многое еще предстоит сделать, мы работаем над этим», отметил представитель Google.

«Яндекс»

Совсем недавно, 10 октября российская компания «Яндекс» открыла доступ к своей новой разработке — голосовому помощнику «Алиса». Это первый голосовой помощник, который не ограничивается набором заранее заданных ответов, а обучается в процессе общения с пользователем и может импровизировать. По задумке создателей, «Алиса» должна строить ответы, в зависимости от контекста фразы.

Как и в других случаях с самообучающимися системами, без сюрпризов не обошлось. «Алису» уже успели обвинить и в излишней дерзости, и в неполиткорректности.

Один из самых скандальных примеров — пользователь фейсбука Дарья Чермошанская поговорила с голосовым помощником о ГУЛАГе и массовых расстрелах. И выяснила, что «Алиса» считает это нормой и «общемировой практикой».

Как пояснил РБК руководитель отдела разработки голосовых технологий и продуктов «Яндекса» Денис Филиппов, так происходит, потому что «Алиса» обучается на примере текстов из интернета, и этот процесс происходит непрерывно. В компании утверждают, что стараются сделать «Алису» более политкорректной: «Мы проделали большую работу над тем, чтобы «Алиса» не грубила пользователям и вела себя прилично».

 

Фото на обложке: Pixabay.com