AlphaGo又進化了: 現(xiàn)在還學(xué)會國際象棋智能

新浪科技 2017-12-07 17:10
分享到:
導(dǎo)讀

年初時,曾有消息說DeepMind取得重大技術(shù)突破。DeepMind引入一種名叫“強化學(xué)習”(reinforcement learning)的AI技術(shù),增強AlphaGo,不需要人類數(shù)據(jù),它就可以自己獲得超人一般的圍棋技法。只…

AlphaGo

年初時,曾有消息說DeepMind取得重大技術(shù)突破。DeepMind引入一種名叫“強化學(xué)習”(reinforcement learning)的AI技術(shù),增強AlphaGo,不需要人類數(shù)據(jù),它就可以自己獲得超人一般的圍棋技法。只需要劃定下棋規(guī)則,AI就會隨機對弈,制定出色的戰(zhàn)略。谷歌將增強后的AlphaGo取名叫作AlphaGo Zero,因為它不需要人類輸入信息。

現(xiàn)在DeepMind在arXiv發(fā)表論文,說AlphaGo Zero已經(jīng)具備很強的通用性,可以學(xué)著完成其它任務(wù)。團隊舉了兩個例子,說它可以學(xué)習國際象棋和將棋,將棋是日本的一種游戲,與國際象棋類似。在兩個案例中,AlphaGo Zero 24小時內(nèi)就能獲得超人一般的棋藝,達到擊敗世界冠軍的水平。

為什么在兩個游戲中AI可以獲得卓越的技能呢?因為國際象棋與將棋沒有圍棋復(fù)雜。DeepMind有能力讓AlphaGo Zero具備通用性,這樣它就可以掌管不同的游戲,這說明機器學(xué)習的能力越來越強。

當然,還有一些游戲是AI目前無法掌握的。最大的挑戰(zhàn)可能是復(fù)雜的線上策略游戲,比如《星際爭霸》,在這款中人類仍然占據(jù)上風。如果機器想打敗人類,必須學(xué)會新技能,比如記憶、規(guī)劃。還要多久才能戰(zhàn)勝人類呢?可能不用等太久。

來源:新浪科技     作者:德克

人類 AlphaGo 游戲 AI DeepMind
分享到:

1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控熑危?br> 3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。


觀點約架