close
当前位置: 物联网在线 > 人物观点 >

欢聚时代高扬:游戏 NPC 里有多少 AI 的套路?

<div> <p> 大家好,我是欢聚时代的高扬,这次跟大家分享的内容是<a href="http://www.zishu010.com/z/search.html?searchkey=%e6%b7%b1%e5%ba%a6%e5%ad%a6%e4%b9%a0" target="_blank">深度学习</a>在<a href="http://www.zishu010.com/z/search.html?searchkey=%e6%b8%b8%e6%88%8f" target="_blank">游戏</a>&nbsp;AI 中的应用这样一个话题。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13260Y1V_0.jpg" /> </p> <p> NPC 的驱动粗分可以分成低级、中级、高级、特高级,这样几个类别。当然,按照其它的方式分也未尝不可,这里主要是针对实现方式和应用场景的一个粗略划分。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1326403F8_0.jpg" /> </p> <p> 低级 NPC 通常说的是一些游戏中所谓的杂兵,不涉及什么情节,也没有什么所谓的策略作为驱动。基本上就是按照一定的设计好的路线行进,并直接攻击游戏主角。这类游戏很常见,尤其是老的单机游戏中,绝大部分就是这类 NPC。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/132F94S8_0.jpg" /> </p> <p> 中级 NPC 常见于游戏群战中的配合型 NPC。这类机器人会有一定的事先编号的策略作为驱动,并且有简单的应变能力。当然,这些都是人类事先设定好的策略内容。比如优先攻击血量较低的游戏主角,比如在自己血量过少的时候会优先进行回血等等,通过这些行为完成一定的活动序列差异。但是场景非常单一而且确定。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/132J0L41_0.jpg" /> </p> <p> 高级 NPC 是指网游中的高级团战中的配合。像王者荣耀、或者英雄联盟一类的游戏有着丰富的走位、加血、加防御、减速……等等复杂的影响盘面的因素。这些因素对于人来说都是需要长期摸索和练习才能在不同场景中得以良好配合的,所以这类 NPC 的策略是比较难编写的,至少很难找到一个相对确定的能够保证较高胜率的策略编写思路。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/132U0H38_0.jpg" /> </p> <p> 特高级 NPC 泛指那些带有较强的博弈性的对抗策略。在这种 NPC 需要对长期的盘面演变有较好的全局能力,通常更难直接编写。如果尝试使用穷举的方式去做搜索来充当策略的话,其时间复杂度通常也是普通的计算单元难以承受的。所以,如果期望 NPC 在复杂环境中有比较好的表现那么就需要有更合适的方式,例如让 NPC 自己在大量的游戏过程中自己学习最好的方式并逐步进化。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13291c418_0.jpg" /> </p> <p> 这种情况下<a href="http://www.zishu010.com/z/search.html?searchkey=%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd" target="_blank">人工智能</a>在游戏 AI 中的应用就越来越受到人们的关注。当然,人工智能的差距主要是体现在游戏环境的差距上。不同的游戏的 NPC 训练其难度是不一样,当然是越简单的场景越容易训练,体现出来的就是输入的维度差距。少的游戏只有几个维度,而一些较复杂的场景就有数万个维度抑或更多。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1329512962_0.jpg" /> </p> <p> 除此之外,人工智能的差距还体现在另一方面,那就是在这个过程中,人对训练过程的参与程度的高低,我们当然是期望人为参与程度越低越好。越低说明这种模型或者方式的“自主性”越强,那么未来其自己进化的场景泛化性也就会越大。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1330205947_0.jpg" /> </p> <p> 对于这一类需要使用训练(自学习)的方式来进化的 NPC 来说,基本套路是固定的。如果能够在全局范围内,将模型转化成为一个求最大值或者最小值的问题那么就可以通过凸优化或者凹优化的方式来解决。那么在这个建立模型的过程中就要设定好整个模型的评价函数,并在策略的调整中使得评价函数取得极值。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1330459210_0.jpg" /> </p> <p> 在落地的过程中可以使用经典的统计方法来做,也可以用神经网络来拟合策略,当然也可以使用人工智能中比较经典的强化学习的套路来做实现,这些都是可以选择的路径。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13313V207_0.jpg" /> </p> <p> 可以使用经典的统计模型的多为概率性的博弈游戏,例如德州扑克、二十一点等等这些。不过这些模型在规则确定的情况下是几乎只能按照静态概型的情况通过排列组合来做计算的,所以局限性也比较强。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13321143b_0.jpg" /> </p> <p> 如果使用神经网络算法(深度学习)来做游戏 AI 也是可以的,由于神经网络拥有很高的 VC 维,也就本身超强的拟合能力,所以是可以用来应对复杂场景的。那么在这其中最容易想到的就是使用卷积神经网络作为落地工具。卷积神经网络有着很好的特征提取的特性,收敛快,适合输入为大量像素的情形。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13324c047_0.jpg" /> </p> <p> 这里简单介绍一下卷积网络,卷积网络是一种很常见的深度学习网络构建方式。其中拥有卷积层、池化层和最终的输出层。卷积层用来提取特征,池化层用来做降采样,提高泛化能力,输出层则是用来做分类或者预测,在这样一个场景中则可以用来表示 NPC 的输入,或者动作。也就是说,场景数据向量作为输入,NPC 动作作为输出,网络在训练的过程中被投以大量的正样本——也就是那些在游戏中行为正确的样本。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133320RG_0.jpg" /> </p> <p> 例如在象棋对弈中,象棋棋盘就可以描述成为一个9*9的向量,向量上的每个维度可以用线性无关的编码描述有没有棋子,有哪个棋子——这些作为整个盘面的描述信息输入给卷积网络。网络的输入部分则给一个“好棋”的描述,就类似于“车三进一”,“炮二平七”这样的动作的向量化描述。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1333351915_0.jpg" /> </p> <p> 请注意,在这个过程中,一定要给卷积网络大量的正样本,也就是那些比较靠谱的动作,这样才能让卷积网络在这个过程中学到正确的动作。而如果相反,如果你给到网络的是一些不太好的行棋动作,那么网络同样会把这些臭棋都学下来。显然,这根本不是我们想要的东西。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13340455P_0.jpg" /> </p> <p> 卷积网络的优点就如刚才我们说的那样,收敛速度快,泛化能力好,应用场景广。这就使得它可以在很多种不同的游戏中得以应用,用来当做 NPC 的大脑来训练。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13344M557_0.jpg" /> </p> <p> 但是同样,卷积网络也是有着自己的缺点,它需要大量的正样本和人工干预。就以刚才的象棋来说,每一个盘面在输入网络的时候,都需要给定其一个人为标注过的“好棋”的描述。这样训练成本就大大增加了,所以这一点也就使得无法低成本获得正样本评价的场景中直接这样使用卷积网络成为了不可能。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1335191J1_0.jpg" /> </p> <p> 综上所述,直接使用卷积网络仅仅适合那些输入数据量偏小,而且动作简单,容易获得正样本的游戏。而其它局势复杂的游戏通常都需要做一些改进才可以。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13353c4J_0.jpg" /> </p> <p> 目前比较先进的游戏 AI 的训练方式是以2013年 NIPS 发表的关于 DQN 的论文为理论基础的神经网络和强化学习的结合方式。先抛开 DQN 不管,我们先来说强化学习的基本概念。在强化学习的范畴中,通常有这样几个研究对象,一个是机器人,也叫本体,就是我们要训练的对象;一个是环境,也就是机器人所处的场景;一个是动作,是机器人所发出的行为(Action);从环境中,机器人会不断地得到两种东西,一个是状态(State),一个是奖励(Reward)。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1336094047_0.jpg" /> </p> <p> 一旦这个场景建立之后,其实就可以开始训练了,作为机器人我们将获得什么呢?当然是时间序列上的一系列 State、Action、和 Reward。请注意,这个 Reward 不一定只是奖励,如果是一个正数,那么就表示奖励,如果是一个负数就表示惩罚。在一个事件序列上我们将连续不断地获得 State、Action 和 Reward 串。不过这里的 Reward 不是表示当前你的 State 和 Action 的奖励,而是表示在前一个 State 的状态下,由于你做了一个 Action 所带来的奖励值。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133A052B_0.jpg" /> </p> <p> 既然有了这样一系列的数据,其实通过简单的统计我们就能得到这样一张表。如图所示,纵列都是 State,横列都是 Action,通过统计可以在表中填写一个 Reward 值。也就是表示在某个 State 下,发出某个 Action 后所获得的 Reward 值,这就是一个认知。那么在使用的时候,机器人可以通过查表,在一个 State 下,找到那个 State 下最大的 Reward,和它对应的 Action,然后做这个 Action 就可以获得最大的奖励值了。 </p> <p> 不过这样也有一个显而易见的问题,那就是短时问题。因为 State 是连续的,前后之间也是有着一些潜在影响的。就像在玩沙罗曼蛇这种游戏的时候,如果为了吃个枪而在下一秒撞墙的话,那么吃枪的意义就不存在了。所以,即便在当前 State 下找到一个最大 Reward 的 Action 并不意味着它能够在未来保证长期的 Reward 比较大。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133F11952_0.jpg" /> </p> <p> 这种情况我们就需要这样来看了,其实就像这样一颗树。时序上靠近前面的State就是树根,时序上偏后的就是下面的树枝树叶的节点。下一层上所有的 Action 中 Reward 最大的其实并不意味着能引导一条全局 Reward 最大的路径。换句话说,下一秒笑得最开心不代表能笑到最后。从这个图上也能看出来,1-4-1这条路径的总收益是没有右侧的1-1-5更好的。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133K3U16_0.jpg" /> </p> <p> 这种时候就需要这样一种叫做 Q-Learning 算法的东西,公式就这样写。Q(s,a)表示的就是前面那张表的内容,a 和 s 分别是横纵坐标。一个 Q(s,a)就表示一个具体的值,这个值就是一个 Reward。在这个算法中需要对整个表中的 Q(s,a)不断更新,更新的原则就像公式上所写,其中 alpha 和 gamma 是一个权重系数。定性来说,Alpha 代表对未来收益的重视程度,0就表示完全不考虑,1则表示当前的收益取决于下一个可以转移到的状态中那个 Reward 值最大的。 </p> <p> 也就是可以这样理解,如果把 alpha 配置成1的话,整个 Q(s,a)的更新过程就是不断把后一个状态中 Reward 最高的值向前赋予。也就是可以解释成,一个状态被评价为“比较靠谱”是因为它后一个状态“比较靠谱”,而这后一个状态“比较靠谱”也是由于它的后一个状态“比较靠谱”。这样进行向前传递,也就容易解决短视问题了。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133R2D52_0.jpg" /> </p> <p> 来看这张图,在这种假设前提下,基本我不能获得每一个 State 下每一个 Action 的具体评价,也能够在整个棋局最终结束的时候对胜利一方给一个正值的 Reward,并通过这种方式进行传递,最终把整个一条完整的“靠谱”的行为链找到。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133T35314_0.jpg" /> </p> <p> 深度学习在这个场景中也是有应用的,现在用的比较多的是 DQN,全称叫做 Deep Q-Network。这是强化写出和深度学习的一种结合,网络的输入是一个盘面的信息,中间通过卷积层和全连接层,最后是一个 SOFTMAX 来拟合一个 Q 值也就是 Action 和其对应的 Reward 值的评价。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1339151T7_0.jpg" /> </p> <p> DQN 的损失函数是比较特殊的。在训练的过程中,需要做两件事:1、不断把后面状态的 Reward 向前部去做更新,就像刚才我们写的那样。2、在这个过程中让一个状态 Statet 和它的下一个状态 Statet+1通过网络,让他们产生的 Reward 评价差异最小。在整个算法最后收敛的时候,会有这样一种现象,那就是那条最靠谱的路径上所有的 Statet 和 Statet+1 的 Reward 值都一样大。并且,Statet 和 Statet+1状态的评价规则是一样的。因此,这种情况下,任何一个 State 输入网络,都可以顺着这个 State 下面最靠谱的那条路径走下去。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13393032G_0.jpg" /> </p> <p> 除此之外,其实也可以对这种机器人进行扩展。也就是说,评价函数不是让它胜率最高,而是让它在跟玩家游戏的过程中,使得玩家的游戏时长加大。这个技巧就比较多了,是需要把玩家的游戏节奏也作为训练条件输入的。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/133959E01_0.jpg" /> </p> <p> 总体来说,对于很多流量不充足的游戏平台还是会需要这样一种机器人来陪伴玩家进行游戏的。不管是连续赢、连续输、没有对手、没有队友,任何一种引起玩家不悦感觉的情况,机器人理论上都应该可以破解。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/13404C5R_0.jpg" /> </p> <p> 对于一些更为复杂的模型,单纯依靠普通的 DQN 已经不能很好地解决问题了。因为维度过高,所以很可能导致模型收敛速度不理想。有时候可能需要借助一些其它的手段来进行决策,例如随机决策森林等。也就是说可以建立多个精度较差的模型,让它们各自根据自己的判断来进行策略投票,最终通过表决的方式来决定策略。其实就是一个“三个臭皮匠顶个诸葛亮”的用法。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1341164c2_0.jpg" /> </p> <p> 最后进行一下游戏市场的展望,2016年中国的游戏市场大约1700亿的盘子,这个规模还是很大的。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1341341E5_0.jpg" /> </p> <p> 目前据我们估算在众多的游戏中,大概有30%在长尾中的用户是由于“失配”的原因导致的流失或不活跃。那么机器人的作用就非常明显了,就是希望通过它们与用户的磨合最终弥补这30%的失配情形,最大程度提高长尾用户的活跃程度。 </p> <p> <img title="" alt="" src="http://www.iot-online.com/uploads/allimg/170502/1342042L4_0.jpg" /> </p> <p> 据推测在这长尾的容积中大概有700亿左右的市场空间是可以由游戏机器人来弥补的,也就是刚才估算的那30%。其中棋牌类游戏的保守估算大约80亿,所以说市场规模还是非常值得期待的。这也是我们逐步努力的目标。 </p> <p> <strong><span>答疑环节 </span></strong><span>&nbsp;</span> </p> <p> Q1:机器学习和深度学习在文本日志分析领域有做得比较好的案例吗?面对这么庞大的日志,貌似目前都没有一个很好的解法,这个相信很多同学都碰到类似的问题,不管监督还是非监督学习,对于未知文本分析都起不了很好的作用,总不能人肉长期来分析,也不是特别合适,不知道老师对这方面的看法是如何的? </p> <p> <strong>高扬</strong>:关于文本挖掘是有专门的领域来研究的,如果是形态比较好的日志,那么分析的手段就比较多了,因为里面会有大量的带有强烈的提示性的 ERROR 或者 WARNING 等。如果是文字比较多,那么也是 NLP 研究的一个范畴。这类应该还是比较典型的监督学习。目前如果使用深度学习做文本分析,还是需要由人来大量标定样本,进而让分类器识别相应的文本分类。如果是 NLP,那么主要也是靠分词以及文章类别的标定等方法。聚类也是可以用的,不过聚类只能找出那些彼此近似的日志,这种情况下研究离群点可能更合适,看看这些点是不是代表着典型的且严重的问题,拿这些作为样本来训练。 </p> <p> Q2:高老师,请问,深度学习应用于游戏的最大特点和难点是什么? </p> <p> <strong>高扬</strong>:深度学习的特点是可以 End-to-End,那么在以图片或者视频作为输入的场景中,显然巨大的样本维度是一个非常难以应付的问题。所以在这种情况下,我们通常都会考虑采用降采样的方法来降维,来让网络收敛快一些。其次,对于一些演化太过复杂的游戏来说,越丰富的信息也就意味着需要越多的样本进行训练,而且数量是几何级的,这个也是比较大的问题。当然,卷积网络肯定是非常好的选择,因为它的降采样功能本身有着很好的抗过拟合,和收敛快的效果,只不过在不同的游戏中,网络的设计需要多种尝试才能确定,没有固定的套路来一步到位。这个也是比较麻烦的事情。 </p> <p> Q3:AI 如何在游戏中自动进化? </p> <p> <strong>高扬</strong>:这个比较容易,简单说就是随着样本越来越多,那么 AI 在这其中就能学到越来越多,越来越靠谱的决策方法。 </p> <p> Q4:像星际这样的游戏,如何把大量的状态映射到一定的矩阵中? </p> <p> <strong>高扬</strong>:FC 游戏的强化学习,我的 TEAM 已经在尝试中了,其实原理是一样的,只不过显然星际争霸这样的游戏更为复杂。所以第一肯定是考虑采用带有池化层的卷积网络来进行降维以及特征提取,其次的话可以考虑人为做一些降采样的功能,比如可以通过多个网络来进行不同的动作。有的网络用来标定其中的 NPC 或者 PLAYER 的位置以及分类,这个可以考虑用 RCNN 来做;有的网络用来获取当前处于整个大地图的位置;有的用来获取玩家当前的各种资源状态等等……这些网络都是有着极好的而且极大效率的降维功能,对于整个算法的训练收敛是有帮助的。所以,这些方式都应该是我们优先尝试的对象。 </p> <p> <strong><span>作者介绍 </span></strong> </p> <p> 高扬,著有《白话大数据与机器学习》、《白话深度学习与Tensorflow》、《数据科学家养成手册》。其中《白话大数据与机器学习》已经上市一年,在京东取得了400+的好评以及99%的好评度;《数据科学家养成手册》是刚刚上市的作品,有吴甘沙先生以及 CSDN 创始人蒋涛先生等众多名家的赞誉。重庆工商大学管理科学与工程专业硕士研究生事业导师。北京邮电大学计算机专业毕业,从事数据库、大数据、数据挖掘、机器学习、人工智能等相关工作研究,有3年海外工作经验。曾任金山软件西山居大数据架构师,现任欢聚时代资深大数据专家。 </p> </div>
(责任编辑:ioter)

用户喜欢...

物联网中的大数据架构、应用案例以及带来的好处

近年来物联网和大数据是两个最受瞩目的话题。在物联网的概念里,有关任何开和关切换到网络的设备皆会彼此连接...


人工智能、数据挖掘、机器学习和深度学习的关系

一、人工智能 人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的...


工业4.0时代!生产线的重要变革

从18世纪的第1次工业革命到现在,人类有可能进入第4次工业革命吗?德国政府提出的工业4.0,就展现了这样的雄心,...


量子计算机将如何改变AI/机器学习/大数据?更快更强

据福布斯杂志报道,我们每天能产生2.5EB(约合10亿GB)数据,这相当于25万个美国国会图书馆或500万台笔记本电脑记录的内容。我们有32亿个全球互联网用户,他们每分钟在Pinterest上发布9722个...


“边缘”与“雾”加速无人便利店落地 释放数据价值

在万物智能互联时代,随着物联网和人工智能技术在各个领域的部署,继美国亚马逊推出Amazon Go无人便利店概念之后...


云计算推动数据中心技术升级

云计算已经成为公认的大趋势,由此带来的数据中心软硬件建设等方面的技术进步和升级需求。国金证券认为,互联...


ADT7420 温度传感器 - 模拟和数字输出

数据列表 ADT7420 Series; 标准包装 1,500 类别 传感器,变送器 产品族 温度传感器 - 模拟和数字输出 系列 - 其它名称 ADT7420UCPZ-RL7-ND ADT7420UCPZ-RL7TR 规格 传感器类型 数字,本地 检测温度 - 本地 -40...


技术牛逼也要懂点社交:数据科学家公司生存指南TOP30秘诀

作者:SeattleDataGuy 数据科学家老司机的30个经验之谈,教你如何在公司内获得认同,带你绕过他们曾经踩过的坑。 作...


2017年全球大数据正在朝这七个趋势发展

2016年发生了许多事情。谷歌的阿尔法算法在围棋比赛中击败了李世石,区块链实现了快速发展,全球各地的政府都在大举投资智慧城市。和往年一样,我将为你提供未来一年的大数据趋势,...


20个数据可视化工具点评

第一部分:入门级工具 1.Excel Excel的图形化功能并不强大,但Excel是分析数据的理想工具,上图是Excel生成的热力地图...