игровые новости

Новость

Google DeepMind обыграл чемпиона игры в Го

 китайская игра в Го

Компьютеры давно научились обыгрывать мастеров игры в нарды, шахматы и шашки. Но одна игра всегда ускользал от них - это китайская настольная игра по названием "Го", изобретенная более 2500 лет назад. Этим заинтересовались разработчики искусственного интеллекта таких гигантов как Google и Facebook, и поисковый гигант недавно сделал прорыв.

Го играют на квадратной 19-на-19 доске, где игроки пытаются захватить пустые области и окружают фигуры противника. Китайская игра считается немного сложнее ее японских аналогов Рэндзю и Гомоку (подробнее renju.su), хотя последние рекомендуются для начинающих проявлять интерес к тематике таких игр.

Google разработала первое программное обеспечение ИИ (AI), который учится играть в Го и способен победить профессиональных игроков из числа людей, согласно статье из научного журнала Nature искусственная машина Google DeepMind AlphaGo, лондонской исследовательской группы,  теперь получило программное обеспечение готовое к конкуренции в Сеуле с Ли Седолем, лучшим в мире игроком в Го.  

Нынешняя серия игр "AlphaGo" началась в Сеуле 9 марта и завершится 15 марта, победитель получит один миллион долларов США призовых денег. Если AlphaGo победит, призовой фонд будут передан в Детский фонд (ЮНИСЕФ) и другие благотворительные организации.

Первым подобным мероприятием был разрекламированный шахматный матч в 1996 году, когда Deep Blue, компьютер компании IBM, победил чемпиона мира по шахматам. Тем не менее, Го является гораздо более сложной игрой. В то время как шахматы предлагает около 20 возможные вариантов на каждый ход, Го имеет около 200, сказал Демис Хассабис, соучредитель Google DeepMind.

Рейтинг@Mail.ru Яндекс.Метрика