0

當普通用戶驚訝于最新的GPT-4o和Gemini 1.5 Pro多模態AI助手的強大能力時。
嗅覺靈敏的黑客們也已經借助生成式AI開啟了新的“狂歡”。
今年初,黑客攻擊了一個美國的AI基礎設施平臺,并將GPU用于挖比特幣獲益。
“黑客已經慢慢增加或轉移攻擊目標,除了傳統資產,保護企業的資產演進為保護企業的AI中心。”亞信安全高級副總裁陳奮同時提醒,“個人和家庭安全,也從原來的終端演進為保護包括智能家居和智能網聯汽車在內的家庭AI中心。”
網絡安全的攻防已經從人和人之間的對抗,升級為AI和AI的對抗,只有AI驅動的網絡安全防護檢測技術才能識別AI驅動的黑客攻擊技術。
安全大模型應運而生。
近期舉辦的以“安全AI未來”為主題的C3安全大會·2024上,亞信安全發布了網絡安全行業領域自研大模型——信立方,能夠用于網絡安全行業的精準問答、復雜的告警日志解讀、深度的網絡安全事件分析等專用場景。
未來網絡安全公司和黑客的AI攻防賽將會如何?
黑客用AI攻擊,效率高,基礎設施成新目標
ChatGPT發布后,全球的黑客們的網絡攻擊和網絡犯罪也隨之升級。
過去,一個黑客生產一個攻擊病毒需要數月時間。現在,通過生成式AI的工具,可能幾個小時,甚至幾分鐘就能生成一個攻擊病毒,效率大幅提升。
陳奮同時發現,“大模型對于編程語言的理解也非常強,攻擊者可以利用大模型迅速發現軟件的漏洞,漏洞是黑客攻擊系統的核武器。”
那些“商業嗅覺”靈敏的黑客,已經用AI攻擊獲利。
比如,有黑客利用AI算法,快速在視頻中做人臉的深度偽造,新型的網絡詐騙犯罪隨之涌現。
還有,黑客的攻擊目標除了傳統資產,還盯上了高價值的以GPU為基礎的AI算力基礎設施和大模型,這是網絡安全領域出現的新變化。

“去年短短一年時間,針對大模型的攻擊手段已經涌現出數十種不同的類型。”陳奮表示。
針對大模型的攻擊,影響巨大。
陳奮和團隊在實驗室中搭建了Llama2的環境,模擬去年發現的海綿樣本攻擊,大致原理是通過向大模型發布特殊的樣本,讓大模型的算力消耗急劇上升,原來短時間能做出響應的需求,現在可能需要大量時間去計算。
讓原來幾秒就可以返回結果的大模型,受到攻擊后60秒以上才能返回結果,慢了20倍以上。
“如果未來核心應用都是大模型驅動的AI原生應用,基本上就會癱瘓。”陳奮同時說,“這只是一個相對比較基礎的攻擊事例,針對大模型的攻擊很快會到來。”
整個網絡安全行業增在革新,全球安全公司都在行動。
微軟在今年5月份正式商用了Security Copilot,并聲稱在未來要投入千億美金。谷歌去年發布了網絡安全專有大模型,已經應用到云安全能力中心中。
如何用AI對抗AI?
亞信安全沒有搶著第一時間發布安全大模型,近期才發布了信立方。
“沒有第一時間發布,是因為我們在思考大模型能否變成我們產品的原生能力。我們希望把底層通用框架建設好,MaaS服務平臺,模型級服務平臺,再疊加上層的智能體框架。”陳奮分享,“我們發布的信立方更多是從原生的角度思考如何與各個產業整合,而不是簡單去做運維效率的提升或者運維的解析。”
“隨著信立方的發布,這個目標已經基本達成,MaaS服務和多智能體應用已經向亞信安全全線產品進行開放,所有的安全產品能夠快速集成大模型的能力,構建網絡安全智能體應用。”陳奮進一步表示。
亞信安全的MaaS服務平臺提供了豐富的API接口和Agent框架,集成了數十種的場景,包括安全日志告警分析,安全態勢的智能分析,安全運營數字人小信同學等。
信立方大模型發布的同時,亞信安全也提出了“信計劃”(XPLAN)暨安全為AI(Security for AI)和AI為安全(AI for Security)。

“安全為AI”包含了全新研發的保護算力云基礎設施安全、大模型應用安全防護、大模型紅藍對抗測試等服務;“AI為安全”聚焦網絡安全行業垂直大模型的研發及運行于其上的智能體和安全應用。

雷峰網(公眾號:雷峰網)了解到,信計劃分為兩大部分:
第一部分是專注給算力基礎設施,給大模型提供安全解決方案。
陳奮透露,“針對AI算力基礎設施的安全,目前落地了東數西算成都的節點,以及算力云的安全保護。我們還在跟進國家東數西算算力節點安全項目。”
第二部分,是和大模型生態公司合作,為他們提供大模型安全的紅隊測試、大模型安全防護的產品。
紅隊測試指的是在大模型上線前,紅隊專家通過提示安全、應用安全測試、Agent安全、MaaS服務平臺安全等八個方向,對大模型進行紅隊安全檢查。
OpenAI每次發布全新版本大模型前,都會找頂尖紅隊進行測試,幫他發現大模型安全風險。

那AI到底如何保護包括云基礎設施在內的AI算力基礎設施安全?
針對AI基礎設施的攻擊原理和傳統的攻擊類似,會用到一些算力算法的漏洞。
“防護的難度沒有出現指數級增加,只是需要我們在防護規則上能夠適配這一場景,能夠識別出威脅。”陳奮對雷峰網表示,“有些檢測算法用傳統的模型,有些算法需要安全大模型,所以我們采用混合調度架構更加靈活。”
面向AI基礎設施安全,亞信安全也推出了全棧一體化解決方案。
陳奮介紹,AI算力基礎設施的底層硬件是GPU服務器,不能用傳統虛擬化技術做算力資源池,大部分算力平臺是基于K8S云原生化的平臺把算力放到云原生資源池里面進行調度,亞信安全今年推出全棧一體化云安全覆蓋的范圍。
亞信安全的算力云安全保護整體解決方案,在適配算力云特點的基礎上,覆蓋了從云底層安全、云工作負載安全到云原生應用安全等全棧一體化云安全能力。
AI時代的安全更需要產業鏈合作
C3安全大會·2024上,美的集團首席信息安全官兼軟件工程院院長劉向陽透露,“我們做安全運營時,安全日志每天80億條,僅告警就有20萬條,很難用人力處理。引入安全大模型后,把安全告警需要人工研判的數量從20萬條降到了100~200條,這就是人工能夠處理的程度了。”
看到安全大模型顯著效果的同時,也要意識到只做大模型的安全,解決不了大模型安全的問題。
“之前我們做云安全就有體會,整個供應鏈,包括數據方面,很多企業都不愿意將數據放到公共算力上。到大模型時代也一樣,僅僅把大模型安全做好沒用。”亞信安全高級副總裁兼CDO吳湘寧說,“現在大家都還在探索大模型生態安全的建設,可以明確的是整個生態鏈打開后,很多技術使用場景都會發生改變。”
亞信安全會從4個層面和生態合作伙伴合作,打造更具競爭力的AI安全解決方案。
大模型算法層面,“我們認為在行業場景,閉源大模型的能力比開源模型更好,我們堅持閉源和開源兩條相合作路線。”陳奮說,“亞信安全做了一層專家混合模式調度模式,可以根據用戶的需求場景和預算靈活選擇用開源還是閉源模型。”
算力生態層面,亞信安全和算力公司合作,租用算力節點。反過來云計算提供商也可以買亞信安全的算力云安全解決方案。
“我們還和清華大學和中科院深度合作,亞信安全&清華大學智能產業研究院聯合研發行動升級計劃也在C3安全大會上發布。”陳奮指出,企業在應用場景做得更好,比較深度算法的優化,需要發揮科研者的力量。

在國際合作方面,亞信安全也會發揮優勢,把國際一流的技術引入國內。
“安全最終保護的是網絡和操作系統,大模型本質上就是未來的操作系統。”吳湘寧說,“亞信會持續在這兩個領域方向重點投入。”
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。