11月12日,中国东谈主工智能产业定约第十三次全会在北京召开,华为数据存储磋磨中国信通院、工信部东谈主工智能要津技艺和应用评测执行室、工商银行、中国迁徙(600941)、中国联通、百度、阿里云、腾讯云、蚂王人集团等认真发起“大模子基础设施高质料发展步履策划”,该策划从需求角度开拔,以普及大模子基础设施的质料与效率为主义,共同加速布局“高效计较交流+高性能AI存储+高通量采集+高效率缔造平台+智能化运维平台”,助力大模子工程化落地。
华为闪存存储规模总裁黄涛参与运转庆典,并手脚鼓动策划代表发表《构建先进AI存储,助力AI大模子高质料发展》主题演讲。
东谈主类行使数据在AI规模取得长足发展,数智时期是数据的黄金时期,跟着数据范畴爆炸式增长、数据价值继续攀升,但同期咱们靠近xPU与存储的带宽不及、算力集群可费用低、推理时延迟等挑战,这对存储提议更高要求。黄涛提议,具备极致性能、高推广性、数据韧性、可握续发展、新数据范式以及数据编织身手的新一代AI存储是通往AI数智时期的必由之路。
以存强算,AI集群可费用普及30%
跟着AI集群范畴的扩大,故障率也随之变高,现在业界千卡以上的AI集群可费用常常不及50%,这意味着,即使咱们继续增多xPU的数目,其可费用却呈反比质问,这关于老本昂贵的AI集群来说是极大的资源残害,而普及查考集群存储性能不错大幅裁减数据集加载时分,达成秒级CKPT(查验点)保存,分钟级断点续训,有用普及算力集群可费用。
数据编织,达成跨域数据高效归集,数据全局可视可管
跟着大模子的范畴礼貌(Scaling Law)继续演进,无论是在进行CKPT的并行保存与加载、多模态数据的采集与清洗、全局数据的Shuffle(混洗)与模态对王人,如故AI算法的调优以及大范畴集群的运维会诊追踪,都进犯需要一个全局平等分享、单一定名空间、且具备高性能并行读写身手的大型文献系统。这么的系统大约幸免多文献系统和多集群之间联邦式的低效堆叠,从而权臣简化大范畴集群环境下的数据交流和数据束缚历程,进而握续提高数据供应的后果。
以存代算,长缅思内存型存储普及推理体验并质问系统老本
AI推理是企业达成AI应用贸易化的先决条目,长高下文处理技艺不仅权臣普及了模子在种种化任务中的施展,况且为模子在内容应用中的粗鄙应用打下了坚实的基础。较着,Long Context(长高下文)处理技艺仍是成为推理技艺未来发展的主要趋势。联系词,在内容应用中,长高下文处理靠近着老本昂贵和体验欠安的双重挑战,尤其是在推理过程中KV-Cache存不下问题尤为越过。进犯需要科罚KV-Cache的全局分享和推理缅思的握久化问题。因此,将KV-Cache达成分层缓存,并确保其高性能访谒,通过长缅思内存型存储以存代替算来普及推感性能和老本效益,已成为技艺发展的主流标的。
中国的AI存储快速发展,华为与清华MADSys磋磨的存储决议,在24岁首度赢得MLPerf Storage测试公共第一,2节点AI存储性能高达679 GB/s,性能盘算推算达到第二名的2倍,在单元空间内不错提供更多的性能。
存储系统存在于大模子生命周期的每一环,是大模子的要津基座,先进AI存储大约普及查考集群可费用,保险数据安全开云体育,质问推理老本普及用户体验。黄涛示意,在数据的黄金时期需要AI原糊口储,产学研用需要加强合营引颈AI原糊口储发展标的,助力AI大模子高质料发展。