谷歌人工智慧成功挑戰人類圍棋!下一個目標竟然是《星際爭霸2》!

從信心滿滿到麻木絕望,這是有「不敗少年」之稱的南韓棋士李世乭,在2016年與Google開發的人工智慧AlphaGo對弈的心情轉折。

從李世乭敗給人工智慧(AI)開始,一般大眾逐漸正視AI的潛在發展性,而相較于雙方都能掌握賽局全面資訊的圍棋,在電競中,因為僅能掌握視野裡的片段訊息,且是動態進行、反應時間短暫、複雜度遠遠高出許多,這也是為什麼像DeepMind、OpenAI這些人工智慧公司都紛紛將AI與電競結合,不論是訓練選手,或是擊敗選手,AI讓我們看見電競的另一種可能。



今夏挑戰團體戰,OpenAI再度獲勝

「如果你不關心AI的安全性,現在應該要這麼做,AI造成的威脅比北韓更高。」特斯拉執行長馬斯克(Elon Musk)會這麼說,是因為由他創辦的非營利人工智慧組織OpenAI,開發出的AI機器人,2017年成功在電競游戲《Dota 2》中擊敗人類選手。



OpenAI技術長葛瑞格.布洛克曼(Greg Brockman)表示,OpenAI完全是透過自學,訓練出一套專屬的戰略玩法,且整個訓練過程僅花了兩週,賽后馬斯克表示,「這是OpenAI首次在比圍棋更複雜的電競項目中擊敗人類。」一席話暗指OpenAI的成就勝于AlphaGo。

不過這麼說或許不全然公平,曾在Google大腦團隊工作過的研究員丹尼.布里茲(Denny Britz)認為,OpenAI擊敗人類并沒有實質上的重大突破,因為這場比賽採一對一的模式,并非一般電競比賽的多人團體戰,在戰術規劃、協作能力等,複雜度根本不能相比。

此外,OpenAI是由《Dota 2》的API(應用程式介面)製作,因此機器可以事先掌握像是準確攻擊距離數值,這些人類選手無法得到的游戲資訊,因此在基礎上本身就不公平。布里茲認為AI并未有突破性的進展,只是研究人員用正確的方式繞過現有技術的限制來解決問題,并直言AI要在電競中擊敗人類,還需要至少一、兩年的時間。

然而OpenAI採自主學習模式,有可能發展出人類不曾使用的玩法,而最終人類可以向AI選手學習新的戰略玩法,來精進自己的技能。2018年六月,OpenAI團隊已經成功製作一款能夠在《Dota 2》中以「團體戰」形式,擊敗5名頂尖業馀玩家的AI軟體「OpenAI Five」;AI與AI之間能夠相互配合,被認為是電腦科學領域的新里程碑。

既能給人類新戰略,也能讓AI更聰明

就在擊敗李世乭后,Google的AI團隊DeepMind與暴雪娛樂(Blizzard Entertainment),于2017年合作一項結合游戲《星際爭霸2》的研究計畫,不過跟OpenAI與人類競賽的目的不同,DeepMind是要把游戲當成訓練AI的工具,讓AI變得更聰明、更精準。



《星際爭霸2》是專業電競比賽中的比賽項目之一,是一款高度複雜的游戲,玩家必須兼顧建構防御、採集資源、發展武器等工作,任務復雜且多樣,不同玩法也會導致不同的結果。



看中這款游戲的複雜性,DeepMind推出將《星際爭霸2》用于訓練AI的介面API,資料庫中集合了高達6萬5千場的電競比賽影像,讓AI學習人類的戰術,團隊也將游戲中的特定元素,像是地圖探索、資源收集分拆出來,讓AI可以針對弱項單獨訓練,并將這些數據反饋給研究人員。

DeepMind研究員奧里歐.凡尼爾斯(Oriol Vinyals)認為,比起圍棋,《星際爭霸2》的複雜度更接近現實生活中的情況。圍棋落點的可能性是10的170次方,而《星際爭霸2》的複雜度至少要再加上100個零,不過目前AI在《星際爭霸2》的探索仍處在早期階段,反應能力仍不夠準確。

與此同時,Google也開源了一個新的AI開源項目,AIY Projects,AIY 全稱是 Artificial Intelligence Yourself,顧名思義就是利用 AI 來進行的 DIY 功能套件。套件包含人工智能語音識別開發套件和人工智能圖像識別開發套件兩個產品,目的是讓人人都可以使用人工智能進行開發工作,將AI技術由淺入深的應用到游戲電競等各個人類稱霸的領域。



然而透過DeepMind、OpenAI的例子,已可以看到「AI+電競」邁出關鍵性一步,不論是用來訓練選手,或測試新的AI技術,也許未來AI科學家可以跟游戲發行商合作,在高度複雜的游戲中,結合AI科技來提升游戲本身以外的價值,加速AI整體發展速度。或許正如同DeepMind顧問大衛.邱吉爾(David Churchill)說的:「我們正在替未來可以用于真實世界的科技,打造一個測試的溫床。」

Comments

Popular posts from this blog