bts merchandisebts shopbts sweatshirtbts clothesarmy bombbts official army bombbangtan bombbts army bomb ver 4bts army bomb ver 3bts army bombbts light stickbts official light stickbts light stick ver 4bts light stick ver 3bts dollsbt21 plushiesbts hoodiebts jacketbt21 hoodiebts shirt
TechFusion.ruКейсыGoogle написала этический кодекс об искусственном интеллекте

Google написала этический кодекс об искусственном интеллекте

Искусственный интеллект

Компания Google выпустила собственное руководство, регламентирующее этические принципы работы с технологиями искусственного интеллекта. О необходимости такого документа заявили сами сотрудники после того, как компания получила контракт Пентагона по программе Project Maven

По контракту с министерством обороны США от сентября 2017 года Google разрабатывает технологии искусственного интеллекта для анализа материалов видеонаблюдения, получаемых с беспилотников. Перспективный контракт многие сотрудники не одобрили. В открытом письме в адрес CEO Google Сундара Пичаи они выступили за выход компании из программы. По их мнению, Google не должна заниматься бизнесом в военной сфере. Также они потребовали подготовки этического регламента.

В опубликованном на днях своде этических принципов работы с ИИ о проекте Пентагона не упоминается. При этом в документе содержится прямое указание, что компания не будет разрабатывать технологии для создания и применения вооружений. Перечислены также общие принципы работы с искусственным интеллектом. Они касаются непредвзятости и конфиденциальности, а также контроля живого интеллекта над искусственным.

Во вступлении к своду принципов говорится, что Google видит за искусственным интеллектом и другими современными технологиями огромные перспективы для расширения возможностей человека. Эти технологии могут послужить нынешнему и будущим поколениям и могут использоваться ради общего блага. «Мы уверены, что эти технологии могут двигать инновации и способствовать реализации нашей миссии — упорядочивать информацию и делать ее доступной и полезной для всех», — отмечается в документеВ нем сформулированы принципы ответственной работы с ИИ и обозначены те области и способы его применения, которые компания развивать не будет.

Выделено семь основных принципов работы над искусственным интеллектом:

1. ИИ должен нести общественное благо. В компании определили, что ожидаемая польза в совокупности должна значительно превышать прогнозируемые риски и отрицательные эффекты.

2. ИИ не должен создавать или усиливать несправедливые установки и предрассудки, в частности, расовые, половые, национальные, социальные, связанные с сексуальной ориентацией, уровнем дохода, политической или религиозной принадлежностью.

3. ИИ должен быть рассчитан и протестирован на безопасность.

Google обязуется тестировать технологии ИИ в ограниченных средах с отслеживанием его функционирования после внедрения.

4. ИИ должен быть подотчетен человеку.

5. ИИ должен поддерживать принципы конфиденциальности данных.

6. ИИ должен разрабатываться с соблюдением высоких стандартов научно-исследовательской работы (с применением строго научных методов, принципов научной добросовестности и сотрудничества).

7. ИИ должен быть доступен для применения в тех областях, которые согласуются с изложенными принципами.

Помимо этого, в документе перечислены сферы приложения, которые в Google не будут разрабатывать.

В отказной список попадают:

1. Технологии, которые причиняют или способны причинить вред. В случае существенного риска вреда работа будет проводиться только в том случае, если есть уверенность, что положительные эффекты значительно превосходят угрозы, и будут применяться соответствующие ограничения в области безопасности;

2. Вооружения и прочие технологии, которые в своем основном назначении или воплощении причиняют вред здоровью человека или способствуют этому;

3. Технологии сбора или использования информации для целей слежения, противоречащих международно принятым нормам;

4. Технологии, назначение которых нарушает повсеместно принятые принципы международного права и прав человека.

В интервью The Verge представитель Google сказал, что если бы подобные принципы были опубликованы ранее, компания, вероятнее всего, не стала бы участвовать в проекте Пентагона. Несмотря на то что в данном случае разрабатываемое решение не относится к области «наступательных» или боевых технологий, и потому гипотетически не противоречит сформулированным правилам, грань слишком тонкая и нечеткая, предположил собеседник издания.

Внутренние противоречия

Газета The New York Times писала, что уже в сентябре главный научный сотрудник направления облачных технологий Фэй-Фэй Ли призывала любой ценой избегать упоминаний об искусственном интеллекте в связи с проектом Project Maven. «Применение искусственного интеллекта в сфере вооружений составляет, наверное, одну из самых серьезных проблем в этой области, если не самую серьезную», — подчеркивала Фэй-Фэй Ли. СМИ дай только повод, чтобы любым способом навредить Google. Но оказалось, что дело не только в правильной подаче проекта для общественности.

Многие люди, работающие в Google, выступили против проекта Maven. Он в понимании большинства (как его сторонников, так и его противников) станет шагом к более крупным оборонным контрактам. Более четырех тысяч сотрудников компании подписали обращение против проекта и за выработку четкой внутренней политики, в соответствии с которой ни Google, ни ее подрядчики не должны заниматься разработкой военных технологий.

В том же открытом письме авторы написали, что интерес других технологичных компаний к оборонным контрактам не делает подобные проекты менее рискованными для Google. Они также напомнили об уникальной истории компании и изначальном лозунге “Don’t Be Evil” (Не делай зла). Несколько сотрудников уволились из компании, сообщил портал Gizmodo.

Теперь с учетом нового регламента и комментариев представителей компании в СМИ, можно сделать вывод, что в дальнейшем в Google предпочтут скорее более осторожную позицию в отношении оборонных контрактов.

Обязательства по действующему контракту Google намерена выполнять. Однако по окончании срока проекта в 2019 году, от дальнейшего участия в последующих программах Project Maven компания откажется. Об этом, в частности, написала в корпоративном блоге Дайэн Грин, возглавляющая в Google направление облачных технологий. В отношении проекта, полученного компанией в сентябре 2017 года и касающегося распознавания с помощью ИИ объектов в видеоматериалах низкого разрешения, Грин подчеркнула, что принципиальной целью в данном случае являлось спасение жизней.

«Даже если это означает, что мы не будем претендовать на определенные типы госконтрактов, мы хотим заверить наших заказчиков и партнеров, что в пределах указанных принципов мы делаем все возможное для поддержки государства, вооруженных сил и ветеранов», — написала Грин. Она пояснила, что компания продолжит работу с государственными организациями в областях кибербезопасности, инструментов повышения производительности, в сфере здравоохранения и других облачных проектов.