Наталья Бокарева
Latest posts by Наталья Бокарева (see all)
- IRL: пора вернуться в реальность - 21.10.2018 18:16
- Новая методика колоноскопии вошла в анналы невероятных исследований - 16.09.2018 11:55
- Соцсети и бизнес: как компании используют неочевидные возможности коммуникаций - 09.09.2018 11:24
Компания Google выпустила собственное руководство, регламентирующее этические принципы работы с технологиями искусственного интеллекта. О необходимости такого документа заявили сами сотрудники после того, как компания получила контракт Пентагона по программе Project Maven
По контракту с министерством обороны США от сентября 2017 года Google разрабатывает технологии искусственного интеллекта для анализа материалов видеонаблюдения, получаемых с беспилотников. Перспективный контракт многие сотрудники не одобрили. В открытом письме в адрес CEO Google Сундара Пичаи они выступили за выход компании из программы. По их мнению, Google не должна заниматься бизнесом в военной сфере. Также они потребовали подготовки этического регламента.
В опубликованном на днях своде этических принципов работы с ИИ о проекте Пентагона не упоминается. При этом в документе содержится прямое указание, что компания не будет разрабатывать технологии для создания и применения вооружений. Перечислены также общие принципы работы с искусственным интеллектом. Они касаются непредвзятости и конфиденциальности, а также контроля живого интеллекта над искусственным.
Во вступлении к своду принципов говорится, что Google видит за искусственным интеллектом и другими современными технологиями огромные перспективы для расширения возможностей человека. Эти технологии могут послужить нынешнему и будущим поколениям и могут использоваться ради общего блага. «Мы уверены, что эти технологии могут двигать инновации и способствовать реализации нашей миссии — упорядочивать информацию и делать ее доступной и полезной для всех», — отмечается в документе. В нем сформулированы принципы ответственной работы с ИИ и обозначены те области и способы его применения, которые компания развивать не будет.
Выделено семь основных принципов работы над искусственным интеллектом:
1. ИИ должен нести общественное благо. В компании определили, что ожидаемая польза в совокупности должна значительно превышать прогнозируемые риски и отрицательные эффекты.
2. ИИ не должен создавать или усиливать несправедливые установки и предрассудки, в частности, расовые, половые, национальные, социальные, связанные с сексуальной ориентацией, уровнем дохода, политической или религиозной принадлежностью.
3. ИИ должен быть рассчитан и протестирован на безопасность.
Google обязуется тестировать технологии ИИ в ограниченных средах с отслеживанием его функционирования после внедрения.
4. ИИ должен быть подотчетен человеку.
5. ИИ должен поддерживать принципы конфиденциальности данных.
6. ИИ должен разрабатываться с соблюдением высоких стандартов научно-исследовательской работы (с применением строго научных методов, принципов научной добросовестности и сотрудничества).
7. ИИ должен быть доступен для применения в тех областях, которые согласуются с изложенными принципами.
Помимо этого, в документе перечислены сферы приложения, которые в Google не будут разрабатывать.
В отказной список попадают:
1. Технологии, которые причиняют или способны причинить вред. В случае существенного риска вреда работа будет проводиться только в том случае, если есть уверенность, что положительные эффекты значительно превосходят угрозы, и будут применяться соответствующие ограничения в области безопасности;
2. Вооружения и прочие технологии, которые в своем основном назначении или воплощении причиняют вред здоровью человека или способствуют этому;
3. Технологии сбора или использования информации для целей слежения, противоречащих международно принятым нормам;
4. Технологии, назначение которых нарушает повсеместно принятые принципы международного права и прав человека.
В интервью The Verge представитель Google сказал, что если бы подобные принципы были опубликованы ранее, компания, вероятнее всего, не стала бы участвовать в проекте Пентагона. Несмотря на то что в данном случае разрабатываемое решение не относится к области «наступательных» или боевых технологий, и потому гипотетически не противоречит сформулированным правилам, грань слишком тонкая и нечеткая, предположил собеседник издания.
Внутренние противоречия
Газета The New York Times писала, что уже в сентябре главный научный сотрудник направления облачных технологий Фэй-Фэй Ли призывала любой ценой избегать упоминаний об искусственном интеллекте в связи с проектом Project Maven. «Применение искусственного интеллекта в сфере вооружений составляет, наверное, одну из самых серьезных проблем в этой области, если не самую серьезную», — подчеркивала Фэй-Фэй Ли. СМИ дай только повод, чтобы любым способом навредить Google. Но оказалось, что дело не только в правильной подаче проекта для общественности.
Многие люди, работающие в Google, выступили против проекта Maven. Он в понимании большинства (как его сторонников, так и его противников) станет шагом к более крупным оборонным контрактам. Более четырех тысяч сотрудников компании подписали обращение против проекта и за выработку четкой внутренней политики, в соответствии с которой ни Google, ни ее подрядчики не должны заниматься разработкой военных технологий.
В том же открытом письме авторы написали, что интерес других технологичных компаний к оборонным контрактам не делает подобные проекты менее рискованными для Google. Они также напомнили об уникальной истории компании и изначальном лозунге “Don’t Be Evil” (Не делай зла). Несколько сотрудников уволились из компании, сообщил портал Gizmodo.
Теперь с учетом нового регламента и комментариев представителей компании в СМИ, можно сделать вывод, что в дальнейшем в Google предпочтут скорее более осторожную позицию в отношении оборонных контрактов.
Обязательства по действующему контракту Google намерена выполнять. Однако по окончании срока проекта в 2019 году, от дальнейшего участия в последующих программах Project Maven компания откажется. Об этом, в частности, написала в корпоративном блоге Дайэн Грин, возглавляющая в Google направление облачных технологий. В отношении проекта, полученного компанией в сентябре 2017 года и касающегося распознавания с помощью ИИ объектов в видеоматериалах низкого разрешения, Грин подчеркнула, что принципиальной целью в данном случае являлось спасение жизней.
«Даже если это означает, что мы не будем претендовать на определенные типы госконтрактов, мы хотим заверить наших заказчиков и партнеров, что в пределах указанных принципов мы делаем все возможное для поддержки государства, вооруженных сил и ветеранов», — написала Грин. Она пояснила, что компания продолжит работу с государственными организациями в областях кибербезопасности, инструментов повышения производительности, в сфере здравоохранения и других облачных проектов.