關(guān)于alphago是什么團(tuán)隊開發(fā)的,alphago是什么這個問題很多朋友還不知道,今天小六來為大家解答以上的問題,現(xiàn)在讓我們一起來看看吧!
1、谷歌AlphaGo是什么?作為一種人工智能的AlphaGo,和IBM 在上個世紀(jì)打敗國際象棋大師卡斯帕羅夫的深藍(lán)超級計算機(jī),以及當(dāng)代的蘋果Siri、Google Now有著顯著的區(qū)別。
2、要解讀AlphaGo,首先我們需要了解AlphaGo背后到底是一個什么東西。
3、其實谷歌AlphaGo背后是一套神經(jīng)網(wǎng)絡(luò)系統(tǒng),由 Google 2014 年收購的英國人工智能公司 DeepMind 開發(fā)。
4、這個系統(tǒng)和深藍(lán)不同,不是一臺超級計算機(jī),而是一個由許多個數(shù)據(jù)中心作為節(jié)點相連,每個節(jié)點內(nèi)有著多臺超級計算機(jī)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)。
5、就像人腦,是由 50-100 億個神經(jīng)元所組成的,這也是為什么這種機(jī)器學(xué)習(xí)架構(gòu)被稱為神經(jīng)網(wǎng)絡(luò)。
6、你可以將AlphaGo 理解為《超驗駭客》(Transcendence) 里約翰尼·德普飾演的人工智能,而它所控制的超級計算機(jī),就像影片里被人工智能心控的人類一樣,共同為一種蜂群思維 (Hive Mind) 服務(wù)。
7、《超驗駭客》中,被人工智能控制的工人馬丁。
8、馬丁沒有所想,但他的所見將會被人工智能直接獲取。
9、AlphaGo 是在這個神經(jīng)網(wǎng)絡(luò)系統(tǒng)上,專為下圍棋 (Go) 而開發(fā)出的一個實例。
10、然而,雖然名字已經(jīng)介紹了它的功能,AlphaGo 背后的神經(jīng)網(wǎng)絡(luò)系統(tǒng)卻適合用于任何智力競技類項目。
11、這個系統(tǒng)的基礎(chǔ)名叫卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Network, CNN) ,這是一種過去在大型圖像處理上有著優(yōu)秀表現(xiàn)的神經(jīng)網(wǎng)絡(luò),經(jīng)常被用于人工智能圖像識別,比如 Google 的圖片搜索、百度的識圖功能都對卷積神經(jīng)網(wǎng)絡(luò)有所運用。
12、這也解釋了為什么AlphaGo 是基于卷積神經(jīng)網(wǎng)絡(luò)的,畢竟圍棋里勝利的原理是:對弈雙方在棋盤網(wǎng)格的交叉點上交替放置黑色和白色的棋子。
13、落子完畢后,棋子不能移動。
14、對弈過程中圍地吃子,以所圍“地”的大小決定勝負(fù)。
15、AlphaGo Logo / DeepMindAlphaGo 背后的系統(tǒng)還借鑒了一種名為深度強(qiáng)化學(xué)習(xí) (Deep Q-Learning, DQN) 的技巧。
16、強(qiáng)化學(xué)習(xí)的靈感來源于心理學(xué)中的行為主義理論,即有機(jī)體如何在環(huán)境給予的獎勵或懲罰的刺激下,逐步形成對刺激的預(yù)期,產(chǎn)生能獲得最大利益的習(xí)慣性行為。
17、不僅如此,AlphaGo 借鑒了蒙特卡洛樹搜索算法 (Monte Carlo Tree Search) ,在判斷當(dāng)前局面的效用函數(shù) (value function) 和決定下一步的策略函數(shù) (policy function) 上有著非常好的表現(xiàn),遠(yuǎn)超過上一個能夠和人類棋手旗鼓相當(dāng)?shù)膰宄绦颉?/p>
18、DeepMind 訓(xùn)練AlphaGo 的步驟說明:10 萬盤高手棋譜作為初始數(shù)據(jù),進(jìn)行分類后用于訓(xùn)練策略函數(shù);然后跟自己下棋;強(qiáng)化學(xué)習(xí)訓(xùn)練策略函數(shù),繼續(xù)下棋;下了 3000 萬步后進(jìn)行回歸分析,整合蒙特卡洛樹搜索模型,訓(xùn)練效用函數(shù)。
19、AlphaGo 所采用的 DQN 是一種具有廣泛適應(yīng)性的強(qiáng)化學(xué)習(xí)模型,說白了就是不用修改代碼,你讓它下圍棋它能下圍棋,你讓它在紅白機(jī)上玩超級瑪麗和太空侵略者,它也不會手生。
20、作為一個基于卷積神經(jīng)網(wǎng)絡(luò)、采用了強(qiáng)化學(xué)習(xí)模型的人工智能,AlphaGo 的學(xué)習(xí)能力很強(qiáng),往往新上手一個項目,玩上幾局就能獲得比世界上最厲害的選手還強(qiáng)的實力。
21、2014 年,已經(jīng)被 Google 收購的 DeepMind,用五款雅達(dá)利 (Atari) 游戲 Pong、打磚塊、太空侵略者、海底救人、Beam Rider 分別測試了自己開發(fā)的人工智能的性能,結(jié)果發(fā)現(xiàn):在兩三盤游戲后,神經(jīng)網(wǎng)絡(luò)的操控能力已經(jīng)遠(yuǎn)超世界上任何一位已知的游戲高手。
22、DeepMind 用同樣的一套人工智能,不調(diào)整代碼就去測試各種各樣的智力競技項目,取得了優(yōu)異的戰(zhàn)績,足以證明今天坐在李世石面前的AlphaGo ,擁有多強(qiáng)的學(xué)習(xí)能力。
23、李世石執(zhí)黑子,AlphaGo 執(zhí)白子。
24、大約進(jìn)行了 85 分鐘時進(jìn)入休息階段在此之前,DeepMind 進(jìn)行過的無數(shù)虛擬棋局訓(xùn)練,以及去年擊敗歐洲圍棋冠軍樊麾二段的經(jīng)驗讓AlphaGo 已經(jīng)訓(xùn)練出了頂尖的弈技,極有可能高于世界上任何已知的圍棋高手。
25、AlphaGo 的水平大約在專業(yè)六段左右。
26、再和其他圍棋程序的 495 盤較量中勝 494 盤;在讓 4 子的前提下仍有 75% 的勝率。
27、盡管棋盤上風(fēng)云變化,早在本次開戰(zhàn)前,AlphaGo 跟李世石就已不在同一起跑線上了。
28、根據(jù) DeepMind 透露的情況,從去年 10 月 5-0 擊敗樊麾二段到現(xiàn)在,AlphaGo 已經(jīng)在神經(jīng)網(wǎng)絡(luò)容量(數(shù)據(jù)容量)以及自己跟自己下棋用于訓(xùn)練的數(shù)據(jù)質(zhì)量上有了較大的提升。
29、而且神經(jīng)網(wǎng)絡(luò)的分布式計算延遲也得到了優(yōu)化,最終使得AlphaGo 能夠在兩小時的限定時間內(nèi)擊敗了李世石九段。
30、AlphaGo 只是 DeepMind 證明自己的一個工具。
31、你也可以將這次和李世石的對局理解為 Google 的公關(guān)策略。
32、2014 年,這家公司曾經(jīng)在其官網(wǎng)上寫道: DeepMind 致力于用研究深度學(xué)習(xí)的方式去真正了解智慧 (solve intelligence) 。
33、但對于 DeepMind 和 Google 來說,打造AlphaGo 以及其他人工智能神經(jīng)網(wǎng)絡(luò)不是終點。
34、DeepMind 三位聯(lián)合創(chuàng)始人將機(jī)器學(xué)習(xí)和神經(jīng)科學(xué)進(jìn)行結(jié)合,打造出一種“一般用途的學(xué)習(xí)算法”。
35、通過這種算法,DeepMind 和 Google 希望能夠?qū)⒅悄堋岸ㄐ突保斫庵悄苁鞘裁?,進(jìn)而更好的幫助人類理解大腦。
36、DeepMind 聯(lián)合創(chuàng)始人之一的 Demis Hassabis 曾經(jīng)寫道:用算法將智慧提煉出來,有可能成為理解人類思維最神秘原理的最佳方式。
37、attempting to distil intelligence into an algorithmic construct may prove to be the best path to understanding some of the enduring mysteries of our minds.作為一種決策樹巨大的游戲,圍棋本來適合人腦思考,不適合機(jī)器運算。
38、但 DeepMind AI 的方向就是模仿人腦思考,用神經(jīng)網(wǎng)絡(luò)“重現(xiàn)”智慧。
本文分享完畢,希望對大家有所幫助。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!