19.17.59
Штучний інтелект Google вперше в історії переміг професійного гравця в го

      Компанія DeepMind, яка з недавніх пір є структурним підрозділ Google і займається розробкою систем штучного інтелекту, досягла вражаючогорезультату. Її система під назвою AlphaGo вперше в історії виграла матч в го у триразового чемпіона Європи Фань Хуея.

Сьогодні вже нікого не здивувати новиною про те, що комп'ютер виграв шахову партію у професійного гравця, оскільки ця «вершина» була взята ще в далекому 1996 році (поєдинок комп'ютера Deep Blue проти Каспарова), але гра го до недавнього часу залишалася свого роду неприступною фортецею для комп'ютерів у світі логічних ігор.

Го - логічна настільна гра, що зародилася в Древньому Китаї, за різними оцінками, від 2 до 5 тисяч років тому. У неї грають на дошці зі стандартною разлиновкою 19х19 ліній. Гра розрахована на двох гравців, один з яких отримує чорні камені, інший - білі (повний комплект для гри повинен містити 361 камінь - 180 білих і 181 чорний). Мета гри - відгородити на ігровій дошці каменями свого кольору більшу територію, ніж супротивник.

Незліченну безліч сценаріїв розвитку подій зумовлюється величезною кількістю можливих ходів. Цими та іншими особливостями і обумовлена ​​складність навчання штучного інтелекту грі в го. За обчисленнями математика Джона Тромпа, кількість можливих комбінацій в го вимірюється числом, що складається з 171 цифр, і перевищує число атомів в спостережуваному Всесвіті. Сподіваємося, ці факти дозволять краще усвідомити важливість цієї події.

Система AlphaGo заснована на пошуку Монте-Карло, нейромереж і глибокому машинному навчанні. Нейромережі пропускають опис стану дошки го через 12 різних верств з мільйонів штучних нейронів. Кожна мережа грає свою роль. Так, «мережа політики», вибирає наступний хід, а на «мережу цінності» покладено завдання визначення переможця.

Раніше ми вже писали про досягнення нейронних «майстрів» в мистецтві, докладно описуючи методику навчання нейронних мереж. Тут процес навчання проходив схожим чином. Тільки як приклад для навчання були обрані люди. Як стверджується, система вивчила 30 млн ходів партій реальних людей і навчилася передбачати результат наступного ходу з рекордною точністю - 57%. До AlphaGo кращий результат становив 44%. Само собою, весь процес навчання вимагав величезних обчислювальних ресурсів, які люб'язнобули наданіхмарноюплатформоюGoogle Cloud Platform.

Матчу з Фанем передувала «розминка» з іншими програмами по грі в го - AlphaGo виграла 494 матчів з 495. Фань був сильно здивований, дізнавшись, що програв комп'ютеру в першій грі, і списав поразку на власний неагресивний стиль. Але наступні чотири партії, незважаючи на більш агресивний стиль гри Фаня, залишилися за AlphaGo. Таким чином, алгоритм, для запуску якого потрібен обчислювальний кластер з 170 відеокарт і 1200 процесорів, виграв всі п'ять матчів.

Напевно, не зайвим буде сказати, що Фань є кращим тільки в Європі, де рівень володіння го не дуже високий. Наступним великим випробуванням стане матч в Сеулі в березні проти легендарного корейського професіонала в го Лі Седоля - кращого гравця в го за останнє десятиліття. Рівень гри цієї людини в рази вище, так що попереду у команди розробників AlphaGo важкі робочі будні.

Компанія Google в свою чергу заявила, що це ще один крок на шляху до створення повноцінного ШІ.

У компанії Марка Цукерберга, який нещодавно публічно визнав створення ШІ своєю метою на 2016 рік, також займаються розробкою подібної системи. Якщо вірити Цукербергу, співробітники Facebook AI Research вже близькі до мети. До слова, Марк особисто в буквальному сенсі пильно стежить за процесом розробки, так як стіл керівника проекту розташований в шести метрах від столу виконавчого директора Facebook.

Джерело: engadget і GT
Переглядів: 332 | Додав: dvi | Рейтинг: 0.0/0
Всього коментарів: 0
der="0" width="100%" cellspacing="1" cellpadding="2" class="commTable">
Ім'я *:Email:WWW:
Код *:
close