當前,AI推理在各行各業大規模使用,大模型數量開始收斂,推理應用快速增長,Token調用量爆發式增長,推理成本持續攀升。如何提升AI推理效能,進一步降低推理成本,成為行業關注的焦點。
11月4日,由中國信息通信研究院(以下簡稱信通院)組織召開的“存力中國行”北京站活動舉行。活動通過座談會和實地調研的形式,深入探討AI時代下先進存力賦能AI大模型發展的支撐作用。

進入“大模型落地元年”,各行各業不再滿足于擁有一個龐大的模型,而是迫切需要將模型能力無縫融入實際業務場景中,如投研分析、卷宗分析、智能客服、醫療影像輔助診斷等,這些場景對Token的消耗越來越大。近兩年AI技術快速發展,當前雖已在文檔處理等場景體現價值,但仍需解決推理效率、存力等突出問題,而存儲對大模型訓練與推理效果至關重要。
中國信息通信研究院首席專家石友康在會上表示,先進存力成為提升AI推理效能、控制成本的關鍵。當前,國家高度重視先進存力發展,明確提出“加速存力技術研發應用”“持續提升存儲產業能力”“推動存算網協同發展”。信通院在政策研究、標準制定、測試服務等方面開展多項工作,并聯合產業鏈企業成立“算力產業發展方陣先進存力AI推理工作組”,同時提出三點建議:鼓勵前沿存儲技術研發創新,推動存算運深度融合,加強存算協同產業生態建設,呼吁業界同仁凝聚共識,共同推動我國存算協同發展。
中國移動云能力中心項目總師周宇分享了面向推理的存儲技術趨勢與實踐。當前推理面臨KVCache(即鍵值對緩存,是一種用于快速訪問數據的存儲結構)存儲需求升級、多模態數據協同、存算協同帶寬不足等挑戰。他介紹,移動云針對性采用分層緩存調度、高速數據互聯技術提升帶寬、多模數據專屬存儲與標準化等技術破局。未來趨勢上,移動云推動存儲從被動存儲轉向智算協同,分階段落地高密全閃存儲、數據高速互聯、存算一體等技術,長遠構建池化多體存儲體系,同時強調技術整合與生態協同。
華為數據存儲產品線戰略與業務發展部總裁王旭東介紹了AI時代IT基礎設施能力面臨三大挑戰:“管不好”的數據、“喂不飽”的算力、“降不下”的成本。傳統存儲架構難以兼顧高吞吐、低時延及異構數據融合的需求,造成業務發展瓶頸,阻礙AI應用落地。她介紹,華為針對AI推理訓練研發的UCM推理記憶數據管理技術在行業落地中的核心作用,通過“集中高質數據、提速AI訓練、優化推理效能”三個角度,打造AI推理加速解決方案。
北京硅基流動科技有限公司解決方案總監唐安波圍繞大模型推理“推不動、推得慢、推得貴”問題展開分享:硅基流動構建的AI infra(基礎設施)工具鏈,核心推理框架適配多模態模型與國內外算力,適配昇騰并優化DeepSeek模型可實現性價比提升。從推理框架延伸至MaaS(模型即服務)服務平臺,部署主流開源模型,聚焦提升算力利用率。
會后,與會專家走進科大訊飛、華為北京研究所達芬奇展廳,實地調研存力技術如何促進AI推理應用、AI推理框架、先進存力和智能算力協同發展,推動存儲產業高質量發展。
(主辦方供圖)
友情鏈接: 政府 高新園區合作媒體
Copyright 1999-2025 中國高新網chinahightech.com All Rights Reserved.京ICP備14033264號-5
電信與信息服務業務經營許可證060344號主辦單位:《中國高新技術產業導報》社有限責任公司