《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 中國科研人員研發(fā)出類腦脈沖大模型

中國科研人員研發(fā)出類腦脈沖大模型

國產(chǎn)GPU平臺完成訓(xùn)練推理
2025-09-09
來源:快科技

9月8日消息,今日,中國科學(xué)院自動化研究所宣布,該研究所李國齊、徐波團(tuán)隊(duì)與沐曦MetaX合作,成功研發(fā)出類腦脈沖大模型瞬悉1.0”(SpikingBrain-1.0)。

據(jù)介紹,該模型基于團(tuán)隊(duì)原創(chuàng)的“內(nèi)生復(fù)雜性”理論構(gòu)建,在國產(chǎn)GPU平臺上完成全流程訓(xùn)練與推理,顯著提升了大模型高效處理極長文本或數(shù)據(jù)序列的效率和速度,展示了構(gòu)建國產(chǎn)自主可控的新型(非Transformer)大模型架構(gòu)生態(tài)的可行性。

據(jù)了解,當(dāng)前主流的Transformer模型,在處理超長文章或?qū)υ挄r速度會非常慢且成本極高,造成了巨大的資源消耗。

1.png

與當(dāng)前主流大模型架構(gòu)(Transformer架構(gòu))不同,“瞬悉1.0”借鑒大腦神經(jīng)元內(nèi)部工作機(jī)制,清晰地展示了一條不斷提升模型復(fù)雜度和性能的新型可行路徑。

2.png

該模型僅需約主流模型2%的數(shù)據(jù)量,就能在多項(xiàng)語言理解和推理任務(wù)中達(dá)到媲美眾多主流模型的性能。

中國科學(xué)院自動化研究所表示,這是我國首次提出大規(guī)模類腦線性基礎(chǔ)模型架構(gòu),并首次在國產(chǎn)GPU算力集群上構(gòu)建類腦脈沖大模型的訓(xùn)練和推理框架。

其超長序列處理能力在法律與醫(yī)學(xué)文檔分析、復(fù)雜多智能體模擬、高能粒子物理實(shí)驗(yàn)、DNA序列分析、分子動力學(xué)軌跡等超長序列任務(wù)建模場景中具有顯著的潛在效率優(yōu)勢。

本次發(fā)布的大模型為新一代人工智能發(fā)展提供了非Transformer架構(gòu)的新技術(shù)路線,并將啟迪更低功耗的下一代神經(jīng)形態(tài)計算理論和芯片設(shè)計。

網(wǎng)絡(luò)端試用端口網(wǎng)址:https://controller-fold-injuries-thick.trycloudflare.com

中文技術(shù)報告網(wǎng)址:https://github.com/BICLab/SpikingBrain-7B/blob/main/SpikingBrain_Report_Chi.pdf

模型代碼網(wǎng)址:https://github.com/BICLab/SpikingBrain-7B


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。