8月12日下昼,华为正式宣布AI推理“黑科技”UCM(推理印象数据经管器),助力处分AI推理服从与用户体验的困难。
AI推理是AI财产鄙人一阶段的生长重心。AI财产已从“找寻模子才智极限”转向“找寻推理体验最优化”,推理体验直接相干用户中意度、贸易可行性等中心需求,成为量度AI模子价钱的黄金标尺。
据悉,华为盘算正在9月开源UCM。届时,华为将正在魔擎社区首发,后续慢慢功勋给业界主流推理引擎社区,并共享给悉数Share Everything(共享架构)的存储厂商和生态伙伴。
UCM是一款以KV Cache(键值缓存)为核心的推理加快套件,调和众类型缓存加快算法器械,可能分级经管推理经过中发生的KV Cache印象数据,增加推理上下文窗口,以告终高含糊、低时延的推理体验,从而低浸每个Token(词元)的推理本钱。
KV Cache是一种用于优化估量服从、删除反复运算的枢纽本事,可是须要占用GPU(图形执掌器)的显存存储史籍KV(键值)向量,天生的文本越长,缓存的数据量越大。
跟着AI财产的生长迈入署理式人工智能期间,模子领域化扩张、长序列需求激增,以及推理职业并发量拉长,导致AI推理的KV Cache容量拉长,逾越了显存的承载才智。
目前,海外领先芯片厂商通过从硬件迭代到软件优化,再到生态绑定,修建起AI推理期间的“铁三角”,短期内难以被取代。中邦企业正在单点硬件本事上有所冲破,但邦产软件及生态适配仍有较大差异。
跟着新闻本事行使立异财产的邦产化改制提速,各行业慢慢认识到须要加快构开邦产推理生态。UCM的中心价钱正在于供应更疾的推理反映、更长的推理序列等。
以供应更长的推理序列为例,UCM通过动态KV逐层卸载、处所编码扩展等组合本事,将超长序列的Cache(缓存)分层卸载至外置专业存储,诈欺算法冲破模子和资源节制,告终10倍级推理上下文窗口扩展。
据悉,UCM可依照印象热度正在HBM、DRAM、SSD等存储介质中告终按需滚动,同时调和众种疏落注意力算法告终存算深度协同,使长序列场景下TPS(每秒执掌token数)提拔2至22倍,从而低浸每个Token的推理本钱。
Token是AI模子中的根基数据单元。正在陶冶经过中,AI大模子会进修符号Token之间的联系,从而施行推理并天生确实、相干的输出。
数据显示,海外主流AI大模子的单用户输出速率已进入200 Tokens/s区间(时延5ms),而我邦主流AI大模子的单用户输出速率广泛小于60 Tokens/s(时延50至100ms)。
同时,跟着AI行使向百般实质场景深度渗出,用户领域和哀告量快速攀升,模子判辨和天生的Token数出现指数级拉长态势。
重大的Token执掌量意味着昂扬的运营本钱,囊括供职器保卫、电力破费延续攀升等,而保护畅达推理体验须要加大算力加入。
最大化的单Token智能承载力和优化本钱,成为浩繁厂商的中心宗旨,而且Token经济期间到临,陶冶、推理服从与体验量纲都以Token为外征。
目前,华为AI推理加快计划集合UCM与华为AI存储(OceanStor A系列)本事,与中邦银联发展机灵金融AI推理加快行使试点,三大落地营业场景划分是客户之声、营销计议、办公助手。
以办公助手场景为例,通过行使华为AI推理加快计划,可接济用户输入领先17万Tokens的超长序列推理,避免超长序列模子推不动的题目。