0
近日,負責支持和保護網絡生活的云服務提供商Akamai 宣布與英偉達聯手推出全新的 Akamai Inference Cloud,一個專為AI推理設計的邊緣云平臺。這意味著,AI模型的推理和響應將不再依賴遠在數據中心的算力,而是更靠近用戶、更快速地完成。
據雷峰網(公眾號:雷峰網)了解,Akamai Inference Cloud 集成了英偉達最新一代 RTX PRO 6000 Blackwell GPU 和 BlueField-3 DPU,是全球首批采用該GPU架構的云廠商之一。
作為此次合作采用的核心算力組件,NVIDIA RTX PRO 6000 Blackwell 系列于2025年3月發布,支持高達 96 GB 顯存與 24K CUDA核心。
市場普遍認為,這款卡在企業級市場是一次較大規格提升,如 Tom’s Hardware 指出其顯存容量遠超一般消費卡,例如對比 RTX 5090 的 32 GB。對 AI 推理、LLM、專業渲染等場景而言,這款 GPU 被視為“向邊緣、專業市場加速”推動的關鍵硬件。而這也是 Akamai 選擇RTX PRO 6000的一大核心原因。
AI模型的復雜度在過去兩年呈爆發式增長,從圖像生成、語音識別,到大型語言模型(LLM),對GPU算力與顯存的需求都在倍增。Akamai認為,傳統的集中式推理架構難以支撐這類高實時性任務,AI算力必須“靠近用戶”。
在選擇RTX PRO 6000時,Akamai看重的是其“平衡型性能”——既能滿足專用AI模型的高效推理,又能支撐大型語言模型的高顯存需求;同時支持GPU虛擬化與資源分片技術,使單卡可同時處理多個模型任務,提高整體算力利用率。
“這款GPU的性能與擴展性非常適合邊緣部署。”Akamai亞太區與全球云架構師團隊總監李文濤表示。
在與英偉達的合作中,Akamai并非僅僅追求硬件升級,而是打造“邊緣基礎設施 + AI軟件棧”的整體方案。
根據Akamai測試數據,相比集中式推理部署,其方案可實現智能體響應速度提升6–10倍、P95延遲降低高達5倍。Akamai全球網絡可覆蓋95%的互聯網用戶,單跳訪問平均延遲僅10毫秒,而中心云通常在百毫秒級別。這一差距,意味著AI應用的響應可提升一個數量級。
在成本方面,Akamai的優勢更加明顯。AI服務的主要支出除了GPU算力,還有網絡流量成本。主流公有云的出向流量定價約為 0.10美元/GB,而Akamai的成本僅 0.005美元/GB,低20倍以上。這對于需要大量AI推理和數據回傳的企業,意味著可觀的降本空間。
李文濤認為,邊緣AI推理的需求已經在多個行業爆發,例如:媒體娛樂行業,像Monks這樣的視頻與營銷平臺,將AI模型部署在內容采集源頭,實現實時識別與互動;電商行業通過邊緣AI實現即時推薦和個性化服務,提升用戶體驗;智能駕駛與IoT行業,在毫秒級響應的要求下,邊緣推理能顯著提升服務安全性和穩定性。此外,金融機構也開始利用邊緣AI完成實時風險識別,既能降低延遲,又能符合數據本地化與合規要求。
在中國市場,Akamai的主要客戶群是出海企業。據李文濤對雷峰網介紹,目前,Akamai中國團隊中超過三分之二是技術崗位,提供貼身的顧問式技術支持;海外團隊則提供“24×7全球時區”服務,幫助企業在全球范圍內部署AI能力。
過去三年,Akamai公有云在中國市場已服務媒體、電商、金融科技、廣告科技、IoT和智能制造等多個行業。隨著Akamai Inference Cloud的推出,這些企業在海外市場將能更快、更穩、更低成本地部署AI服務。
Akamai與英偉達的合作,是AI基礎設施競爭的又一次版圖擴張。當AI應用從模型訓練轉向大規模推理,算力的位置開始變得關鍵——離用戶越近,價值越高。
Akamai Inference Cloud的推出,或許預示著下一個階段的AI競爭,不再是“誰的GPU更強”,而是誰能更快地把AI推理送到世界的每一個角落。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。