近日,深度求索(DeepSeek)正式發(fā)布新一代大模型 DeepSeek-V3.1,并首次公開提及采用“UE8M0 FP8 Scale”參數(shù)精度。這一技術(shù)細節(jié)的披露,迅速引發(fā)行業(yè)關(guān)注。
官方在公眾號文章中進一步解釋,UE8M0 FP8 是專為下一代國產(chǎn)芯片設(shè)計的浮點數(shù)格式,旨在提升計算效率并降低資源消耗。這一表述,被外界解讀為 DeepSeek 在軟硬件協(xié)同優(yōu)化方面的戰(zhàn)略布局,也讓人不禁思考:在AI芯片競爭日趨激烈的背景下,國產(chǎn)新芯是否真的能夠借此實現(xiàn)技術(shù)破局?
從技術(shù)層面來看,F(xiàn)P8(8位浮點數(shù))并非全新概念。它屬于IEEE浮點算術(shù)標準中的一種數(shù)據(jù)類型,相比傳統(tǒng)FP16或FP32,能在保持相對較高數(shù)值精度的同時,顯著減少內(nèi)存占用和計算開銷,尤其適合大規(guī)模AI推理與訓練。而“UE8M0”這一命名,則體現(xiàn)出其定制化特性。根據(jù)官方表述,它針對國產(chǎn)芯片架構(gòu)做了專門優(yōu)化。這一點至關(guān)重要,因為它不僅涉及算法與硬件的適配,更可能影響到整個AI計算生態(tài)的構(gòu)建。
目前,全球AI芯片市場仍由英偉達(NVIDIA)主導,其GPU配合CUDA生態(tài)幾乎成為大模型訓練的事實標準。而國內(nèi)雖有多家企業(yè)投入AI芯片研發(fā),如華為昇騰、寒武紀、天數(shù)智芯等,但在軟件棧、開發(fā)者工具、模型兼容性等方面仍面臨挑戰(zhàn)。DeepSeek 此次明確將模型精度與“國產(chǎn)芯片”進行綁定,顯示出一種推動國產(chǎn)化全棧技術(shù)發(fā)展的意圖。通過從模型層面主動適配新型硬件,或許能在一定程度上緩解國產(chǎn)芯片在生態(tài)支持上的不足。
此外,DeepSeek-V3.1 本身也體現(xiàn)出顯著的技術(shù)進步。據(jù)官方信息,其Base模型在V3基礎(chǔ)上新增訓練了840B tokens,模型規(guī)模與性能進一步提升。同時,團隊將Base模型及經(jīng)過后訓練的完整模型均在Hugging Face和魔搭ModelScope平臺開源,體現(xiàn)出較強的開放性和社區(qū)共建意識。這一做法有助于吸引更多開發(fā)者參與測試、優(yōu)化乃至應(yīng)用于實際場景,從而加速技術(shù)迭代與應(yīng)用落地。
然而,能否真正實現(xiàn)“破局”,仍存在多方面挑戰(zhàn)。首先,國產(chǎn)芯片在制程工藝、內(nèi)存帶寬、互聯(lián)技術(shù)等硬件基礎(chǔ)上與國際頂尖水平仍存差距。其次,軟件生態(tài)的成熟非一日之功,需要芯片廠商、算法公司、應(yīng)用開發(fā)者共同長期投入。再者,國際市場政策環(huán)境的不確定性,也可能影響相關(guān)技術(shù)的全球推廣與合作。
總體來看,DeepSeek 此次發(fā)布不僅是一次模型升級,更可視為對國產(chǎn)AI計算體系的一次重要推動。通過模型與芯片的協(xié)同設(shè)計,有望在特定場景下實現(xiàn)更高效的計算,并逐步減少對國外技術(shù)的依賴。但能否真正打破現(xiàn)有市場格局,仍需看后續(xù)硬件性能、軟件適配、開發(fā)者接受度以及商業(yè)落地等多方面的實際表現(xiàn)。
國產(chǎn)芯片的崛起絕非單點突破所能實現(xiàn),它需要產(chǎn)業(yè)鏈上下游的緊密配合與持續(xù)創(chuàng)新。DeepSeek-V3.1 及其所代表的軟硬件協(xié)同策略,或許正是這條長路上的重要一步。