AI思维进化,姿势分子游戏,欢乐何在?
2
0
人工智能的围棋突破:AlphaGo的崛起
2016年1月28日,人工智能领域迎来了一个里程碑。国际知名科技期刊《自然》杂志封面论文《通过深度神经网络和搜索树精通围棋》引发了计算机界和围棋界的广泛关注。Google DeepMind开发的AlphaGo以5:0的成绩击败了欧洲围棋冠军樊麾,尽管樊麾只是职业二段,但AlphaGo的胜利仍然震惊了世界。AlphaGo的强大之处在于,即使不升级算法,也能在不断的对弈中提升实力,这种进化方式让人联想到玩家熟悉的虫族:吞噬,进化。围棋的特别之处
为什么在围棋上计算机战胜人类会引起如此大的轰动?这项成果又能用到哪些方面?让我们回顾19年前的1997年,IBM公司研发的超级国际象棋电脑“深蓝”战胜了国际象棋大师卡斯帕罗夫,宣告计算机在国际象棋项目上完成对人类的超越。人类在棋类游戏中的堡垒,仅剩围棋一座。为什么是围棋而不是象棋,也不是陆战棋?围棋到底有何特别之处? 围棋有着极为丰富的下法,棋盘上没有任何的限制,棋子也不受特定方向和步数的限制。这种自由的下法带来了恐怖的局面可能性,仅从明面上看,就有3的361次方种下法,远超宇宙的原子总数。围棋的局面走势可以用“无限”来形容,这也就让“算出所有的局势并挑选最佳路线”的计算机下棋方式在围棋面前一筹莫展。深度学习与AlphaGo
既然人可以下好围棋,也就证明,围棋虽然没什么易于直接总结的规则,但冥冥之中还是有规律可循,只是不容易总结而已。于是研究人员就想到,只要让计算机也学会人类的思考方式,照样可以下得好。DeepMind的研究人员就祭出了“深度学习”技术,即是让计算机用人类的方式来下棋,在不断下棋中评估局面,抛弃那些送子的自杀式下法,同时估计在未来20步中下在哪里取得优势的概率更高,每局下来都可以积累更多的经验,从而让自身的概率估计更为精准。 在经过无数高手棋局的训练和自己跟自己对弈500万局之后,AlphaGo的实力就达到了职业水准,而且还可以进一步提高。深度神经网络与游戏AI
啊,好像是扯得有点远了,既然是游戏网站,那接下来就该说一下这项技术除了用来下围棋以外,还能跟游戏扯上什么关系。要理解这点,我们就首先要知道现在我们玩的游戏里的AI是什么机制,这样我们才能知道深度神经网络能让AI发生什么改变。今天我们玩的电子游戏,无论是星际2、War3、老滚4、文明5,不管游戏方式再千奇百怪,其AI用的都是同一套行为逻辑——“有限状态机”。 听起来很高大上的样子,不过实际上我们也用不着深入剖析,简单而言,就是让游戏AI对于一定的情况选择一种应对方式。比方说,LOL和Dota的电脑AI会设置为,当其血量低于玩家一套技能伤害时就会自动往后退或者回城,FIFA的AI会自动传球给当前状况下得分成功率最大的球员。如果说一场游戏里可能出现的所有状况就是一张试卷的题库,那么有限状态机就是参考答案库,一旦出现某种“题型”,就挑选出相应的“答案”。虽然实际情况复杂得多,要用上很多层的状态机环环相扣,不过究其本质,都是这个机制。 这套机制的确实用又好用,以至于电子游戏业界数十年如一日地坚持使用,一路欣欣向荣,在这套原理的基础上发展出更多更好更复杂的AI。盛世之下也潜伏着危机,有限状态机始终有几个与生俱来的缺陷并限制了游戏内容的发展。