search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

AlphaGo戰勝柯潔,人類在人工智慧面前還能夠堅守多久?

人工智慧一直是一個很熱門的話題。

從1952年電腦攻克了井字遊戲以來,遊戲及棋類比賽一直是軟體工程師用來測試電腦運算能力與人工智慧的最好方法。

人類對於人工智慧的態度是複雜的,他們欣喜於科技的發展,卻又悲哀於一次次對於人類智力的打擊。

2006年,電腦擊敗了人類最頂尖的國際象棋選手,而那個時候,人類悲觀的預言,國際象棋已經失守,或許人類唯一能堅持的,就是東方古老的圍棋了。

長久以來,圍棋的人工智慧一直發展的很慢,甚至幾乎看不到成果。

在2015年10月以前,人工智慧的圍棋能力都只與業餘高手相當,無法擊敗職業選手。

人類鬆了一口氣,至少,我們還有圍棋。

人工智慧的發展和人類是不一樣的,人類或許千年以來,在棋類方面的進步都是線性發展,而人工智慧的進步,卻是J型曲線。

誰都知道,圍棋早晚有一天會被人工智慧攻克,可誰都沒有想到,這一天來的這麼早。

2015年10月,AlphaGo忽然出現在大眾視野內,以5比0的成績擊敗了歐洲圍棋冠軍二段職業棋手樊麾。

這是計算機程序第一次在未受讓子的情況下,在19X19的棋盤上擊敗職業棋士。

那個時候主流觀點還認為,樊麾的棋力與國際頂尖棋手(九段)相距甚遠,不認為AlphaGo真的俱備了擊敗頂尖選手的實力,甚至還有人指出了AlphaGo在棋盤上的失誤,人類都認為,沒關係,這還差得遠呢。

然而,在2016年3月,AlphaGo在對弈世界頂尖職業棋士李世乭時,4:1的結果讓人大跌眼眶。

從這一刻起,AlphaGo正式宣布了人工智慧已經在圍棋方面與世界頂尖選手相當的能力,甚至一度在圍棋排名Go Ratings網站中打破柯潔記錄,位列世界第一。

沒有人再敢小覷AlphaGo,即使它很長一段時間都偃旗息鼓,安靜地消失在人們的視野里。

它下一次出現的時候,換了一個名字。

2016年底,一個叫做Master的賬號在網路圍棋快旗對戰上,挑戰中韓日台的頂尖高手,驚人棋力轟動棋壇。有人甚至懸賞10w元給第一位戰勝他的人。

可是,沒有人拿到這筆錢,Master整整60戰全勝。

從一開始就有人通過它的風格猜測,Master就是AlphaGo,而在最後,AlphaGo的創始人黃世傑也承認了這一點。

那個時候人們說,沒關係,人類還有慢棋。

先放著AlphaGo,來說一說柯潔。1997年出生,2015年便成為圍棋世界冠軍。

年少輕狂的天才少年,然而他的狂妄在連續24個月霸佔世界圍棋榜第一,當之無愧的世界圍棋第一人面前,的確很有資本了。

他在最初面對AlphaGo的時候,曾經在微博上說,「就算阿法狗戰勝了李世石,但它贏不了我。」

然而在第三局之後,對AlphaGo有了最初認識,分析了棋局,作為世界頂尖棋士,他立刻對這個素未蒙面的選手肅然起敬。

在2016年底第一次與AlphaGo交手,在人類不佔優勢的快棋中落敗。

他是世界圍棋第一人。

在與AlphaGo 5月23日的對戰上,依然,第一局惜敗。

圍棋棋盤為19X19,一共361個交叉點。黑棋與白棋各佔一方,最後按照雙方所佔點的數量判定勝負。

需要注意的是,黑棋因為有先手,所以按照圍棋規則,黑棋佔地超過一半(180.5)是不夠的,需要佔到184.25以上,才能算贏。

而最後,柯潔佔了184子。

——敗。

在賽后新聞上,柯潔說,我很早就知道自己要輸1/4子,AlphaGo每步棋都是勻速,在最後單官階段也是如此。所以我就有時間點目,看清自己輸1/4子。

在人工智慧面前,人類在自己所擅長的項目上一再失守。

人類下棋,是經驗、思考與靈感在決定著每一步。

而人工智慧,則是純粹的演算法。

記得最開始所說,人工智慧是J型曲線發展的嗎?

從教人工智慧下圍棋,到讓他成為業餘選手,需要六十年。

而從業餘選手,到擊敗世界第一人,卻只需要兩年。

在一開始,所有棋類遊戲都用的是暴力窮舉法手段。這種非常簡單粗暴的方式可以很好的剋制井字棋,然而在圍棋與國際象棋的這種超大棋盤下,卻是行不通的。

研究者沒有嘗試,150步圍棋,每一步250種可選演算法,乘出來是一個多大的數字。

他們模仿了人類大師的下棋方式——機器學習。

AlphaGo使用的演算法是從第一步開始,每一步都作為一個結點,而他要做的,就是盡量讓每一步,都走向更可能贏的選項。

核心有二,「走棋網路」(policy network)和 「估值網路」(value network)。

其中,走棋網路負責減少搜索範圍,哪些地方明顯不應落子,不能送子給別人,就直接拋棄掉這一步。而在剩下的可選範圍內,估值網路負責減少搜索步數:如果一步棋後走下去后劣勢明顯,就不再考慮之後可能。

作為監督學習(supervised learning),研究者用了許多過往棋譜來訓練AlphaGo,它模仿人類玩家,嘗試著職業棋手的過往棋局,在資料庫中的3000萬步棋里慢慢學習著人類的技巧與思路。

而後,他開始與自己對弈。

在每一次與自己對弈的強化學習(reinforcement learning)中,他都會更強一點。而後,更強的自己又通過對弈,又進步了一些,直到達到一個人類夠不到,想象不到的高度。

即使每日都勤學苦練,人類一生也不過能對弈幾萬局。然而人工智慧,一天就能和自己玩數萬局,更可怕的是,他每一局,都會進步。

可以說,現在的AlphaGo,與一年前與李世乭對弈的AlphaGo,已經不在一個水平線上了。如果讓人類來學習,或許窮盡一生,都無法進步出這個水平。

人類會犯錯,可人工智慧不會。

無情無欲無貪念,一子一著看全局。

研究者說,它只看勝負,如果贏兩目勝率是90%,而贏1/4目勝率是98%,那麼它會毫不猶豫的選擇後者。

柯潔說,AlphaGo已經越來越接近他所理解的,圍棋上帝。

可能你沒有意識過,你正在見證一個時代。

1997年,人工智慧第一次在國際象棋上戰勝人類。

2006年,人類最後一次在國際象棋上戰勝人工智慧。

2015年,人工智慧第一次在圍棋上戰勝人類。

而人類在棋類上最後的陣地,還能夠堅持多久?

http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

https://en.wikipedia.org/wiki/AlphaGo

https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol

https://zh.wikipedia.org/wiki/%E6%9F%AF%E6%B4%81

https://en.wikipedia.org/wiki/Monte_Carlo_tree_search

https://en.wikipedia.org/wiki/Deep_Blue_(chess_computer)



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦