- CES 2020: Segway представила кресло-капсулу S-Pod для комфортных поездок - 06.01.2020 14:14
- CES 2020: Seagate показала, как работать с данными - 06.01.2020 13:42
- CES 2020: очень «умная» бытовая техника и изогнутые игровые мониторы Odyssey - 05.01.2020 14:22
Искусственный интеллект ИИ-подразделения Google DeepMind начал играть в Starcraft II с лета этого года. За несколько месяцев нейросеть заняла одно из ведущих мест в рейтинге игры и стабильно и успешно обыгрывает лучших геймеров
Нейросети прекрасно играют в игры, в том числе и против человека. Например, искусственный интеллект Pluribus смог обыграть сразу пятерых чемпионов мира в игре в покер, а самообучаемая нейросеть DeepMind уже неоднократно обыгрывала игроков-чемпионов в игру «Го» и Quake III Arena. Теперь AlphaGo смогла обыграть почти всех — 99,8% — сильнейших игроков в компьютерную стратегию Starcraft II.
Как говорится в статье Grandmaster level in StarCraft II using multi-agent reinforcement learning в журнале Nature, в освоении компьютерной игры искусственным интеллектом использовалось обучение с подкреплением. По словам разработчиков, использование нескольких агентов позволило расширить вариативность решений нейросети и адаптировать ее для противодействия противникам.