一、Akamai Cloud Inference:重塑AI推理格局

Akamai Cloud Inference的推出,是此次發(fā)布的核心亮點之一。該服務運行在Akamai全球最分布式的網(wǎng)絡上,致力于解決集中式云模型在AI數(shù)據(jù)處理方面日益凸顯的局限性。

對于平臺工程師和開發(fā)人員而言,Akamai Cloud Inference提供了強大的工具,幫助他們將AI應用程序和數(shù)據(jù)密集型工作負載部署到離終端用戶更近的地方。在性能提升上,其吞吐量比傳統(tǒng)大規(guī)模云基礎設施提高了3倍,延遲最多可減少2.5倍。成本方面,企業(yè)在AI推理和代理式AI工作負載上,相比傳統(tǒng)方式節(jié)省多達86%的成本。

Akamai Cloud Inference能有如此出色的表現(xiàn),得益于其全面且先進的架構。在計算資源上,Akamai Cloud提供從經(jīng)典CPU到GPU、定制ASIC VPU等多樣化選擇,還與Nvidia的AI企業(yè)生態(tài)系統(tǒng)深度集成,利用Triton、Tao Toolkit等優(yōu)化AI推理性能。數(shù)據(jù)管理層面,Akamai與VAST Data合作,實現(xiàn)流暢的實時數(shù)據(jù)訪問,并通過可擴展的對象存儲和與領先向量數(shù)據(jù)庫供應商集成,支持增強生成檢索(RAG),安全存儲模型數(shù)據(jù)和訓練工件,在全球范圍內(nèi)提供低延遲的AI推理。此外,借助Kubernetes進行容器化,利用Linode Kubernetes Engine企業(yè)版和Akamai App Platform,集成開源Kubernetes項目,快速部署AI就緒平臺,簡化AI模型推理部署流程。同時,通過與WASM提供商合作,支持開發(fā)者在邊緣執(zhí)行輕量級代碼,滿足延遲敏感型應用程序的需求。

隨著AI應用的普及,企業(yè)逐漸意識到大型語言模型(LLM)訓練與實際推理應用的差異。許多企業(yè)開始將重點轉(zhuǎn)向利用數(shù)據(jù)做出更快速、更智能的決策,投資更個性化的體驗。Akamai Cloud Inference正好順應這一趨勢,其早期客戶已在車載語音助手、AI驅(qū)動的農(nóng)作物管理等多個領域取得了良好的應用成果。

二、Akamai Cloud Accelerated Compute Instances:革新視頻處理體驗

Akamai推出的云加速計算實例,是基于NETINT視頻處理單元(VPU)的全新計算類別,這使得Akamai成為首家在云端提供VPU的云服務商。

NETINT VPU專為優(yōu)化高質(zhì)量視頻流傳輸而設計,能夠在降低成本和減少能耗方面發(fā)揮顯著作用。Akamai的加速實例由Quadra T1U VPU提供支持,這款單芯片解決方案具備強大的性能,支持最高8Kp60的編碼分辨率,兼容多種行業(yè)標準格式,可編碼32個1080p30廣播質(zhì)量的實時流,且在不同分辨率下容量呈線性擴展。

在視頻流業(yè)務蓬勃發(fā)展的當下,企業(yè)對優(yōu)化硬件和云解決方案的需求愈發(fā)迫切。此前,部署NETINT VPU硬件的方式受限,而Akamai的加速計算實例為媒體公司帶來了新的希望。它不僅提供了所需的可擴展性,還不會增加IT預算負擔。借助VPU,企業(yè)可將計算密集型的視頻處理任務卸載,讓CPU執(zhí)行其他任務,如動態(tài)打包、實時語音轉(zhuǎn)文本字幕等。相比僅使用CPU的解決方案,VPU架構的吞吐量提升了20倍。

Akamai憑借這一創(chuàng)新,在媒體行業(yè)的云服務領域獲得了新的競爭優(yōu)勢,其媒體服務已得到全球前十大視頻流媒體服務商的信任,提供從內(nèi)容貢獻、傳輸?shù)睫D(zhuǎn)碼、保護等全流程解決方案。

三、支持Kernel.org:助力開源生態(tài)發(fā)展

Akamai與Linux內(nèi)核組織簽署多年協(xié)議,為Kernel.org提供關鍵基礎設施支持,這一舉措彰顯了Akamai對開源開發(fā)和全球協(xié)作的堅定承諾。

Kernel.org作為Linux內(nèi)核源代碼的主要分發(fā)系統(tǒng),以及全球開發(fā)者網(wǎng)絡的核心協(xié)調(diào)平臺,對于Linux操作系統(tǒng)的開發(fā)和維護至關重要。Linux內(nèi)核代碼量龐大,約有2800萬行,自2005年以來,眾多開發(fā)者為其做出了貢獻。Akamai提供的支持完全免費,幫助開發(fā)者無論身處何地,都能快速訪問內(nèi)核源代碼的Git環(huán)境。

Akamai自身的云平臺基礎建立在Linux和開源技術之上,此次支持Kernel.org,是其回饋開源社區(qū)的重要行動。同時,Akamai作為云原生計算基金會(CNCF)的金會員、KubeCon的白金贊助商,積極參與多個開源項目,此前還為CNCF項目捐贈了100萬美元的基礎設施積分。此外,Akamai還宣布為Alpine Linux提供基礎設施和交付支持,進一步推動開源生態(tài)的發(fā)展。

四、與Fermyon合作:開啟邊緣計算新篇章

Akamai攜手Fermyon,首次推出基于WebAssembly(WASM)的邊緣原生無服務器和AI應用程序,這一合作將為客戶帶來前所未有的應用體驗。

Fermyon的分布式引擎與Akamai的全球最大分布式網(wǎng)絡相結合,全新的Fermyon Wasm Functions引擎運行在Akamai的網(wǎng)絡上,為Akamai客戶提供了強大的功能。客戶可以開發(fā)WebAssembly應用程序,并通過該引擎進行部署,構建邊緣原生分布式應用程序,降低出口成本;開發(fā)成本效益高的AI推理應用程序,在離用戶更近的地方執(zhí)行;將邊緣原生應用程序與Akamai的現(xiàn)有服務,如CDN、EdgeWorker和對象存儲集成。并且,應用程序的冷啟動時間可縮短到不到毫秒級別,結合Akamai的網(wǎng)絡,能快速響應終端用戶。

對于開發(fā)者來說,這一合作極大地提升了開發(fā)和部署效率。Fermyon再次兌現(xiàn)承諾,將開發(fā)者從開始構建到部署應用程序的時間縮短到2分鐘或更少。Akamai客戶可直接通過Akamai采購Fermyon Wasm Functions,并在有限時間內(nèi)獲得試用積分,用于實驗性用量。

五、Scalstrm加入QCP計劃:強化媒體處理生態(tài)

Scalstrm加入Akamai的Qualified Compute Partner(QCP)計劃,為Akamai在高性能、媒體中心工作負載領域的生態(tài)系統(tǒng)注入新的活力。

在NAB 2025上,Scalstrm將與Akamai和NETINT合作,展示按需轉(zhuǎn)碼(Just-In-Time,JIT)技術的卓越性能。依托Akamai Connected Cloud和NETINT VPUs,結合Scalstrm的先進JIT媒體處理應用,他們將建立新的性能和運營成本基準,揭示NETINT上的JIT轉(zhuǎn)碼與傳統(tǒng)CPU處理之間的性能差距。

Scalstrm的JIT轉(zhuǎn)碼技術為媒體處理設立了新的行業(yè)標準,解決了預先轉(zhuǎn)碼的低效問題,只在需要時將內(nèi)容轉(zhuǎn)換為正確格式,減少存儲、處理成本和延遲。作為Akamai QCP的一員,Scalstrm的JIT轉(zhuǎn)碼解決方案已為Akamai Connected Cloud全面優(yōu)化,支持動態(tài)重新封裝實時和點播內(nèi)容、實時內(nèi)容轉(zhuǎn)換、集成錄制和字幕功能以及可擴展部署等功能。這使得Akamai客戶能夠獲得更靈活、更具成本效益且面向未來的媒體處理管道。

此次發(fā)布,Akamai在邊緣AI、云計算、開源支持以及媒體處理等多個關鍵領域取得了重大突破。這些創(chuàng)新不僅展現(xiàn)了Akamai在技術領域的領先地位,更為行業(yè)發(fā)展指明了方向。隨著技術的不斷落地應用,Akamai有望重塑行業(yè)格局,推動全球企業(yè)在數(shù)字化轉(zhuǎn)型和智能化發(fā)展的道路上加速前進。

分享到

lixiangjing

算力豹主編

相關推薦