《電子技術應用》
您所在的位置:首頁 > 人工智能 > 解決方案 > 派拓網絡:具有自主權且經過認證的AI智能體將帶來新一代云安全風險

派拓網絡:具有自主權且經過認證的AI智能體將帶來新一代云安全風險

2025-06-25
作者:派拓網絡產品管理副總裁Elad Koren
來源:派拓網絡
關鍵詞: 派拓網絡 AI智能體

今年4月,Anthropic首席信息安全官(CISO)做出了一項令人震驚的預測:在未來一年內,持有企業(yè)認證的AI虛擬員工將開始投入到企業(yè)運營中。這些智能體不僅將協助完成工作,還會成為員工隊伍的成員。

17.jpg 

圖源:Andrey_Popov

企業(yè)這樣做的原因也很明顯:AI智能體能夠擴大自動化的規(guī)模、降低運營成本,并且連續(xù)工作。Salesforce已將這一愿景變?yōu)楝F實——于近期推出了AI“數字同事”。預計未來兩年AI智能體部署量將增長327% ,但從網絡安全角度來看,這一演進帶來了創(chuàng)新與風險并存的復雜局面。企業(yè)不僅授予軟件系統(tǒng)訪問權限,更是在賦予其身份、自主權和決策能力。這將徹底改變企業(yè)的安全策略。

 

具有自主權且經過認證的AI智能體易受攻擊

需要明確的是,這些AI智能體并非傳統(tǒng)意義上的工具。與傳統(tǒng)自動化或服務賬戶不同,這些智能體以認證用戶的身份使用企業(yè)資質進行操作、做出決策、與系統(tǒng)和數據互動,甚至在某些情況下執(zhí)行敏感任務。這意味著它們將擁有與人類員工相同的訪問權限,并因此可能帶來相同的安全風險。

但與人類不同,AI智能體無法理解背景、意圖和后果。它們可能被提示注入或對抗性輸入等技術欺騙、操縱或脅迫。長期以來,我們都認為人類是整條安全鏈中最薄弱的環(huán)節(jié),我們的心理弱點會被釣魚攻擊和社會工程學計劃所利用。但AI智能體是一個更脆弱的目標——它們會直接接受表面信息、不會求助,并且以機器的速度運行。一旦被入侵,它們可能成為埋藏在企業(yè)環(huán)境深處的一個持久而巨大的隱患。

重新思考AI時代的安全問題

登錄、密碼和訪問/權限級別等傳統(tǒng)安全工具圍繞人類行為設計。AI員工讓這些工具失去了作用,數量遠超人類用戶的非人類身份正在成為云環(huán)境中的主導力量。

隨著云投資持續(xù)呈爆發(fā)式增長(AI被認為是最大的推動力),并且越來越多的AI智能體被部署到云端,企業(yè)需要轉向新一代AI安全工具,才能對AI去蕪存菁,尤其是要解決以下問題:

·AI代理在企業(yè)內部將擁有何種程度的自主權和權限?

·如何監(jiān)控特權活動并檢測異常行為?

·智能體是否會被提示注入或對抗性輸入利用或破解?

·智能體的訓練數據來自何處?

 

AI智能體可能成為新一代企業(yè)內部威脅

AI為應用堆棧帶來了未經驗證的新組件,包括基礎設施、模型、數據集、工具和插件。而隨著代理的引入,AI創(chuàng)新達到了空前的速度。不同于大語言模型(LLM),智能體能夠自主推理、采取行動,并與其他智能體進行協調。AI智能體將被授予持續(xù)的訪問權限,它們不會休息和休假,而且可以大規(guī)模地部署到多個部門。這增加了企業(yè)環(huán)境的復雜性,并帶來了新的安全風險。如果智能體被“策反”,其在數分鐘內就能造成惡意內部人員數月才能造成的破壞。

AI員工的風險可能很快就會接近甚至超越內部人員,成為最危險的威脅來源。OWASP近期發(fā)布的《AI智能體威脅和應對之策》重點介紹了提示注入、工具濫用、身份冒充等新型威脅。值得注意的是,Unit 42最新研究發(fā)現,提示注入仍是最強大和最靈活的攻擊途徑之一,能夠盜取數據、濫用工具和篡改代理行為。

一直以來,網安防御體系都是圍繞人類構建的。如今,企業(yè)需要對以其員工名義行動的機器采取同樣甚至更嚴格的措施。

 

派拓網絡Prisma AIRS讓企業(yè)放心采用AI

派拓網絡推出的Prisma人工智能運行時安全(AIRS)專為幫助企業(yè)發(fā)現、評估和保護其環(huán)境中的每一個AI應用、模型、數據集和智能體而設計。通過采用Prisma AIRS,企業(yè)可獲得一個具有以下功能的綜合平臺:

·AI模型掃描:通過掃描模型漏洞確保AI模型使用的安全。保護AI生態(tài)系統(tǒng)免受模型篡改、惡意腳本和反序列化攻擊等風險。

·AI安全態(tài)勢管理:深入了解與AI生態(tài)系統(tǒng)相關的安全態(tài)勢風險,例如權限過多、敏感數據暴露、平臺配置錯誤、訪問配置錯誤等。

·AI紅隊測試:在攻擊者發(fā)現之前,發(fā)現潛在的漏洞問題和隱藏風險。派拓網絡的紅隊測試智能體能夠對AI應用和模型進行自動滲透測試,從而對AI部署進行壓力測試,并像真正的攻擊者一樣不斷學習和調整。

·運行時安全:保護基于大語言模型(LLM)的AI應用、模型和數據免受運行時威脅,例如提示注入、惡意代碼、有毒內容、敏感數據泄露、資源過載、幻覺等。

·AI智能體安全:保護智能體(包括基于無代碼/低代碼平臺開發(fā)的智能體)免受新型智能體威脅,例如身份冒充、內存操縱和工具濫用等。

AI正在重塑攻擊模式和企業(yè)的運營方式,而Prisma AIRS能夠做出同樣快速的響應,使企業(yè)放心使用未來的AI技術。

2.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。