財聯社2月27日電,在業(yè)界對新一代旗艦模型DeepSeek V4的翹首期盼中,DeepSeek團隊卻悄然放出了一篇新的學術論文。這篇論文由DeepSeek聯合北大、清華共同撰寫,將研究方向投向了決定大模型實際應用落地的關鍵一環(huán)——推理速度,為日益復雜的AI智能體,提供一套高效的底層系統(tǒng)解決方案。具體來說,新論文介紹了一個名為DualPath的創(chuàng)新推理系統(tǒng),專門針對智能體工作負載下的大模型(LLM)推理性能進行優(yōu)化。通過引入“雙路徑讀取KV-Cache(類似記憶緩存)”機制,重新分配存儲網絡負載,將離線推理吞吐量最高提升1.87倍,在線服務的每秒智能體運行數平均提升1.96倍。論文在引言部分提到,大模型正從單輪對話機器人和獨立推理模型,快速演進為智能體系統(tǒng) ——能夠自主規(guī)劃、調用工具,并通過多輪交互解決實際任務。這種應用范式的轉變,推動大模型推理工作負載發(fā)生重大變革:從傳統(tǒng)的人類-大模型交互,轉向人類-大模型-環(huán)境交互,交互輪次可達數十甚至數百輪。 (第一財經)