更新时间:2024-11-04 GMT+08:00
分享

大数据分析

人工智能应用

  • 场景概述

    2016年AlphaGo横空出世,4:1战胜李世石,17年又以3:0战胜世界围棋冠军柯洁,此后三年,星际,Dota2,德州扑克等均涌现出超高水平AI。人工智能应用在其中起到了不可替代的作用。

    游戏智能体通常采用深度强化学习方法,从0开始,通过与环境的交互和试错,学会观察世界、执行动作、合作与竞争策略。每个AI智能体是一个深度神经网络模型,主要包含如下步骤:

    1. 通过GPU分析场景特征(自己,视野内队友,敌人,小地图等)输入状态信息(Learner)。
    2. 根据策略模型输出预测的动作指令(Policy)。
    3. 通过CPU单线程模拟玩家,每个玩家(Actor)执行不同的策略。
    4. 不同策略对应不同结果,不同结果产生不同的Reward(奖励分数)。
    5. 该奖励分数作为参数用来更新策略模型,再进行新一轮学习。
  • 客户瓶颈
    1. 实时性与长期性:AI不仅要做出实时的操作决策,还要做出长期的规划决策,通常对于游戏时间30分钟左右的STG游戏,对应的决策步数(Policy)超过7000步,这意味着Actor执行Policy的时间成本较高。
    2. 复杂的动作空间:玩家需要同时操作移动方向、视角方向、攻击、姿态(站、蹲、趴、跳、跑)、交互(救人、拾取、换弹)等操作,产生复杂的组合动作空间,可行动作数量在10^7量级。对于CPU计算能力要求较高。
    3. 训练任务快速部署:客户进行AI强化学习时,需要短时间(10mins)拉起上万核CPU,对动态扩容能力要求较高。
  • 竞享实例的应用

    该AI学习引擎采用竞享实例提供CPU资源。得益于竞享实例的快速扩容与成本优势,引擎可以短时间生成超大规模AI(Actor)同时执行更多的策略,缩短模拟时间。而凭借竞享实例的强劲性能(全系C类型)该引擎训练一天相当于人类玩家打10万年。

图1 人工智能应用架构图

Learner:学习集群,一般是多个GPU显卡组成训练集群

Actor:采用竞享实例提供CPU,每个线程作为一个AI玩家,用于测试策略的执行效果

Policy:Learner的输出结果,游戏AI的策略

Reward:Actor的执行结果的反馈,提供给Learner

重定向广告推广

  • 场景概述

    重定向广告(Retargeting)是一种基于应用、网页广告的定向技术,即针对广告受众(Audience)的浏览行为进行分析,在同一个广告位,推送为该用户定制的广告,实现千人千面。

  • 客户瓶颈

    重定向广告推广最终目的是将访问者转变为下单客户,是带动全球在线企业营收的主要因素之一。为了有效服务于广告,在极快的响应时间内实时中标,并通过自动化确保系统迅速响应竞价,广告推广商必须能够根据业务压力灵活快速并且成本可控地增加容量。

  • 竞享实例的应用

    客户使用包周期实例作为常规容量提供服务,在业务高峰时,得益于竞享实例低成本及快速扩缩容特性,竞享实例为系统提供可变容量以应对流量洪峰。自动化是这项业务的关键,所以客户需要进行业务容错性改造,实现任何一个或一些实例出现故障(被回收)时,可自行替换并继续运行,无需任何人工干预。

实时数据分析

  • 场景概述

    实时数据分析是指用适当的统计分析方法实时对收集来的大量数据进行分析,主要包含数据采集,加工,清洗,分析等环节。实时数据分析应用十分广泛,在车联网、金融保险、舆情分析、智慧城市等场景均有应用。

  • 客户瓶颈
    1. 收集大数据时需要快速添加大量实例,并在收集结束后删除实例。
    2. 随着数据量不断增大,企业要高效准确地处理实时数据,需要运行越来越多的CPU资源来提供充足算力。采用按需实例会在成本可控上遇到较大挑战。
  • 竞享实例的应用

    客户通过使用竞享实例来降低用云成本,并在预算范围内尽可能的扩大集群规模,提升业务效率。客户要面对的最大挑战是一定概率的实例终止情况,通过保留一定量的按需实例作为竞享实例的BackUP可实现在竞享实例被回收时业务的平滑切换。

    【竞享实例购买入口】https://activity.huaweicloud.com/ceci.html

相关文档