TechFusion.ruКейсыGoogle написала этический кодекс об искусственном интеллекте

Google написала этический кодекс об искусственном интеллекте

Искусственный интеллект

Компания Google выпустила собственное руководство, регламентирующее этические принципы работы с технологиями искусственного интеллекта. О необходимости такого документа заявили сами сотрудники после того, как компания получила контракт Пентагона по программе Project Maven

По контракту с министерством обороны США от сентября 2017 года Google разрабатывает технологии искусственного интеллекта для анализа материалов видеонаблюдения, получаемых с беспилотников. Перспективный контракт многие сотрудники не одобрили. В открытом письме в адрес CEO Google Сундара Пичаи они выступили за выход компании из программы. По их мнению, Google не должна заниматься бизнесом в военной сфере. Также они потребовали подготовки этического регламента.

В опубликованном на днях своде этических принципов работы с ИИ о проекте Пентагона не упоминается. При этом в документе содержится прямое указание, что компания не будет разрабатывать технологии для создания и применения вооружений. Перечислены также общие принципы работы с искусственным интеллектом. Они касаются непредвзятости и конфиденциальности, а также контроля живого интеллекта над искусственным.

Во вступлении к своду принципов говорится, что Google видит за искусственным интеллектом и другими современными технологиями огромные перспективы для расширения возможностей человека. Эти технологии могут послужить нынешнему и будущим поколениям и могут использоваться ради общего блага. «Мы уверены, что эти технологии могут двигать инновации и способствовать реализации нашей миссии — упорядочивать информацию и делать ее доступной и полезной для всех», — отмечается в документеВ нем сформулированы принципы ответственной работы с ИИ и обозначены те области и способы его применения, которые компания развивать не будет.

Выделено семь основных принципов работы над искусственным интеллектом:

1. ИИ должен нести общественное благо. В компании определили, что ожидаемая польза в совокупности должна значительно превышать прогнозируемые риски и отрицательные эффекты.

2. ИИ не должен создавать или усиливать несправедливые установки и предрассудки, в частности, расовые, половые, национальные, социальные, связанные с сексуальной ориентацией, уровнем дохода, политической или религиозной принадлежностью.

3. ИИ должен быть рассчитан и протестирован на безопасность.

Google обязуется тестировать технологии ИИ в ограниченных средах с отслеживанием его функционирования после внедрения.

4. ИИ должен быть подотчетен человеку.

5. ИИ должен поддерживать принципы конфиденциальности данных.

6. ИИ должен разрабатываться с соблюдением высоких стандартов научно-исследовательской работы (с применением строго научных методов, принципов научной добросовестности и сотрудничества).

7. ИИ должен быть доступен для применения в тех областях, которые согласуются с изложенными принципами.

Помимо этого, в документе перечислены сферы приложения, которые в Google не будут разрабатывать.

В отказной список попадают:

1. Технологии, которые причиняют или способны причинить вред. В случае существенного риска вреда работа будет проводиться только в том случае, если есть уверенность, что положительные эффекты значительно превосходят угрозы, и будут применяться соответствующие ограничения в области безопасности;

2. Вооружения и прочие технологии, которые в своем основном назначении или воплощении причиняют вред здоровью человека или способствуют этому;

3. Технологии сбора или использования информации для целей слежения, противоречащих международно принятым нормам;

4. Технологии, назначение которых нарушает повсеместно принятые принципы международного права и прав человека.

В интервью The Verge представитель Google сказал, что если бы подобные принципы были опубликованы ранее, компания, вероятнее всего, не стала бы участвовать в проекте Пентагона. Несмотря на то что в данном случае разрабатываемое решение не относится к области «наступательных» или боевых технологий, и потому гипотетически не противоречит сформулированным правилам, грань слишком тонкая и нечеткая, предположил собеседник издания.

Внутренние противоречия

Газета The New York Times писала, что уже в сентябре главный научный сотрудник направления облачных технологий Фэй-Фэй Ли призывала любой ценой избегать упоминаний об искусственном интеллекте в связи с проектом Project Maven. «Применение искусственного интеллекта в сфере вооружений составляет, наверное, одну из самых серьезных проблем в этой области, если не самую серьезную», — подчеркивала Фэй-Фэй Ли. СМИ дай только повод, чтобы любым способом навредить Google. Но оказалось, что дело не только в правильной подаче проекта для общественности.

Многие люди, работающие в Google, выступили против проекта Maven. Он в понимании большинства (как его сторонников, так и его противников) станет шагом к более крупным оборонным контрактам. Более четырех тысяч сотрудников компании подписали обращение против проекта и за выработку четкой внутренней политики, в соответствии с которой ни Google, ни ее подрядчики не должны заниматься разработкой военных технологий.

В том же открытом письме авторы написали, что интерес других технологичных компаний к оборонным контрактам не делает подобные проекты менее рискованными для Google. Они также напомнили об уникальной истории компании и изначальном лозунге “Don’t Be Evil” (Не делай зла). Несколько сотрудников уволились из компании, сообщил портал Gizmodo.

Теперь с учетом нового регламента и комментариев представителей компании в СМИ, можно сделать вывод, что в дальнейшем в Google предпочтут скорее более осторожную позицию в отношении оборонных контрактов.

Обязательства по действующему контракту Google намерена выполнять. Однако по окончании срока проекта в 2019 году, от дальнейшего участия в последующих программах Project Maven компания откажется. Об этом, в частности, написала в корпоративном блоге Дайэн Грин, возглавляющая в Google направление облачных технологий. В отношении проекта, полученного компанией в сентябре 2017 года и касающегося распознавания с помощью ИИ объектов в видеоматериалах низкого разрешения, Грин подчеркнула, что принципиальной целью в данном случае являлось спасение жизней.

«Даже если это означает, что мы не будем претендовать на определенные типы госконтрактов, мы хотим заверить наших заказчиков и партнеров, что в пределах указанных принципов мы делаем все возможное для поддержки государства, вооруженных сил и ветеранов», — написала Грин. Она пояснила, что компания продолжит работу с государственными организациями в областях кибербезопасности, инструментов повышения производительности, в сфере здравоохранения и других облачных проектов.