美國谷歌開發出了一種初具自我學習能力的人工智慧(AI)系統。該人工智慧系統在玩「打磚塊(Breakout)」等遊戲的過程中能自主總結攻略,從而獲得比人類玩家更高得分。這一研究成果為無需指導也能自主學習的人工智慧開闢了道路,將來人工智慧系統有望勝任原本被認為只有人類才能完成的複雜工作。谷歌在2月26日的英國科學雜誌《自然》(電子版)上公佈了這一研究成果。
谷歌開發的是模倣人類大腦神經回路、具有學習能力的人工智慧「DQN」。谷歌為人工智慧準備了太空侵略者(Space Invaders)和打磚塊(Breakout)等49款老遊戲。即使並未提前輸入遊戲玩法,人工智慧系統仍像人類一樣在反覆玩遊戲的過程中自主掌握了遊戲玩法,並總結出了獲得最高分的秘訣。
以打磚塊遊戲為例,谷歌人工智慧系統在玩到約100次的時候,無法打好飛回來的球,陷入了苦戰,但是當玩到400次的時候,就幾乎不會丟球。當超過600次之後,人工智慧發現了集中擊打頂端的磚塊,打開一個口,甚至可以將球打入磚塊背面的攻略,從而獲得了最高分。
據稱讓參與遊戲實驗開發的專業玩家和人工智慧進行比賽,結果在49款遊戲中,人工智慧在29款遊戲中的得到了與人類玩家相當的得分甚至高出人類玩家的得分。在打磚塊遊戲中,人工智慧獲得了人類玩家13倍的得分,在最擅長的「彈球(Pinball)」遊戲中,人工智慧的得分達到人類玩家的25倍。
人工智慧涉及的被稱為「深層學習「的最尖端的研究領域。即電腦通過自主學習掌握判斷標準,從而變的越來越聰明。即使沒有人類進行指導,也能夠通過大量的數據來提高精度,獲得超出人類的能力。將來有望廣泛應用於機器人和自動駕駛車等新一代技術。
(川合智之 華盛頓報道)
版權聲明:日本經濟新聞社版權所有,未經授權不得轉載或部分複製,違者必究。