Нейросеть AlphaGo Zero обыграла в го предыдущие версии со счетом 100:0
Искусственный интеллект AlphaGo, неоднократно побеждавший сильнейших игроков в го, вчистую проиграл новой версии алгоритма AlphaGo Zero. Разработчики подразделения Google DeepMind сделали систему самообучаемой, и невмешательство человека пошло ей только на пользу.
Как это работает?
Предыдущие версии предварительно обучались на тысячах партий, сыгранных любителями и профессиональными игроками. В AlphaGo Zero исследователи загрузили только правила игры и условия победы, после чего искусственный интеллект в произвольном порядке размещал камни на доске, фиксировал удачные ходы и на основании предыдущего опыта вырабатывал успешную стратегию против самого себя.
После трех дней обучения без участия человека AlphaGo Zero смогла обыграть версию AlphaGo Lee, которая в марте 2016 года победила чемпиона мира Ли Седоля со счетом 4:1. На 21 день она уже могла потягаться с более совершенным алгоритмом AlphaGo Master, одолевшим лучшего в мире игрока в го Кэ Цзе этой весной, а спустя 40 дней нейростеть превзошла всех своих предшественников.
В конечном итоге самый продвинутый вариант AlphaGo проиграл AlphaGo Zero со счетом 0:100.
Почему это важно?
В DeepMind показали, что искусственный интеллект способен достичь небывалых высот, не опираясь на человеческие знания. Новый способ обучения также сильно ускоряет процесс, поскольку не требует обработки больших объемов данных.
Возможно, в будущем на основе таких систем удастся создать универсальный искусственный интеллект, но сейчас AlphaGo Zero умеет только играть в го.
Источник: DeepMind