11.08.07
ШІ AlphaStar від DeepMind зміг перемогти 99,8% гравців-людей в StarCraft II, досягнувши рівня гросмейстера
      Підрозділ DeepMind, що входить до складу Google і займається дослідженнями в сфері штучного інтелекту, розповіло про чергові успіхи своїх ШІ-агентів, навчених грати в гру StarCraft II. ПО AlphaStar досягло неймовірних успіхів і тепер здатне обіграти в змаганні 99,8% всіх гравців-людей.

Відзначається, що з метою зрівняти в можливостях ШІ і гравців людей, ПО AlphaStar було відповідним чином модифіковано. Зокрема, ШІ був навчений грати всіма трьома доступними в StarCraft II рассами. Крім того, огляд карти був обмежений таким же рівнем, що доступний людині. Нарешті, діяло обмеження в кількості кліків кнопками мишки - не більше 22 недубльованих дії кожні 5 секунд гри. Це відповідає кількості стандартних рухів при грі людиною.

Навіть незважаючи на всі зазначені обмеження, ШІ зміг обіграти 99,8% всіх гравців-людей, які взяли участь в онлайн-змаганні, і досягти рівня гросмейстера. Це максимально можливий онлайн-рейтинг, і AlphaStar стала першою ШІ-системою, що досягла такого результату в StarCraft II.

DeepMind розглядає це досягнення як ще один доказ того, що використовуваний командою спосіб машинного навчання може одного разу бути використаний для тренування самонавчальних роботів, самоврядних автомобілів і створення більш досконалих систем розпізнавання зображень і об'єктів.

Мета досліджень AlphaStar і інших подібних ігрових агентів (наприклад, OpenAI Dota 2) полягає не просто в тому, щоб знищити людей в різних іграх, просто щоб довести, що це можливо. Ці дослідження дозволяють довести, що при достатньому часу, зусиль і ресурсах складне програмне забезпечення для штучного інтелекту може перевершити людину практично в будь-якій конкурентній когнітивній задачі, будь то настільна гра або сучасна відеогра. Це також показує переваги методу машинного навчання з підкріпленням. Цей метод дозволяє агентам самостійно зрозуміти, як потрібно грати, і іноді це призводить до появи неймовірних тактик.

OpenAI і DeepMind прискорено навчають своїх агентів ШІ в іграх проти своїх же версій і в прискореному темпі. Таким чином, агенти можуть награвати сотні років ігрового процесу на протязі декількох місяців. Це і дозволило даному типу програмного забезпечення перевершити найталановитіших гравців в Го, а тепер і в більш складних іграх, таких як StarCraft II і Dota 2. Хоча таке ПО все ж обмежене вузькою дисципліною, і агент для Го не може грати в Dota 2 і навпаки.
Переглядів: 513 | Додав: dvi | Рейтинг: 0.0/0
Всього коментарів: 0
der="0" width="100%" cellspacing="1" cellpadding="2" class="commTable">
Ім'я *:Email:WWW:
Код *:
close