TechFusion.ruНовостиНейросеть AlphaGo перевели на самообучение

Нейросеть AlphaGo перевели на самообучение

AlphaGo

Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы

Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама с собой. За три дня нейросеть одержала абсолютную победу над всеми своими предшественниками. Результаты работы самообучения искусственного разума были опубликованы в журнале Nature.

AlphaGo — продукт DeepMind, выделенного Google в отдельное подразделение в 2015 году. Нейросеть изначально была нацелена только на игру «Го». Эта азиатская настольная игра характерна своим простым принципом процесса и неисчислимым количеством комбинаций ходов. Первая версия ИИ работала с использованием двух нейросетей: одна вычисляла вероятность ходов, а вторая — оценивала позицию камня на доске.

Искусственный интеллект показал свою эффективность практически сразу же, обыграв профессионального игрока Фаня Хуэя. Затем разработчики DeepMind улучшили алгоритм, применив машинное обучение. Тогда AlphaGo смогла обыграть еще одного чемпиона «Го» — Ли Седоля.

В отличие от своих предшественников, новая версия AlphaGo Zero работает только благодаря самообучению, не используя информацию, полученную от игроков-людей. ИИ берет в качестве входных данных положения камней на доске и начинает со случайной игры. На каждом шаге алгоритм подключает поиск методом Монте Карло, высчитывая вероятность следующего шага. Потом нейросеть подбирает следующий за ним наиболее эффективный ход.

Zero обучалась около трех дней и успела за это время сыграть около пяти миллионов партий. После этого разработчики сравнили работу последней версии со всеми предыдущими, обыгравшими ведущих игроков-людей. Все старые версии проиграли ей со счетом 0:100.

Фото на обложке: deepmind.com