美国谷歌开发出了一种初具自我学习能力的人工智能(AI)系统。该人工智能系统在玩“打砖块(Breakout)”等游戏的过程中能自主总结攻略,从而获得比人类玩家更高得分。这一研究成果为无需指导也能自主学习的人工智能开辟了道路,将来人工智能系统有望胜任原本被认为只有人类才能完成的复杂工作。谷歌在2月26日的英国科学杂志《自然》(电子版)上公布了这一研究成果。
谷歌开发的是模仿人类大脑神经回路、具有学习能力的人工智能“DQN”。谷歌为人工智能准备了太空侵略者(Space Invaders)和打砖块(Breakout)等49款老游戏。即使并未提前输入游戏玩法,人工智能系统仍像人类一样在反复玩游戏的过程中自主掌握了游戏玩法,并总结出了获得最高分的秘诀。
以打砖块游戏为例,谷歌人工智能系统在玩到约100次的时候,无法打好飞回来的球,陷入了苦战,但是当玩到400次的时候,就几乎不会丢球。当超过600次之后,人工智能发现了集中击打顶端的砖块,打开一个口,甚至可以将球打入砖块背面的攻略,从而获得了最高分。
据称让参与游戏实验开发的专业玩家和人工智能进行比赛,结果在49款游戏中,人工智能在29款游戏中的得到了与人类玩家相当的得分甚至高出人类玩家的得分。在打砖块游戏中,人工智能获得了人类玩家13倍的得分,在最擅长的“弹球(Pinball)”游戏中,人工智能的得分达到人类玩家的25倍。
人工智能涉及的被称为“深层学习“的最尖端的研究领域。即计算机通过自主学习掌握判断标准,从而变的越来越聪明。即使没有人类进行指导,也能够通过大量的数据来提高精度,获得超出人类的能力。将来有望广泛应用于机器人和自动驾驶车等新一代技术。
(川合智之 华盛顿报道)
版权声明:日本经济新闻社版权所有,未经授权不得转载或部分复制,违者必究。