圖1 基于Habana Gaudi2,70億和130億參數(shù)Llama 2模型的推理性能

若想訪問Gaudi2,可按照此處在英特爾開發(fā)者云平臺上注冊一個實例,或聯(lián)系超微(Supermicro)了解Gaudi2服務器基礎設施。

英特爾至強可擴展處理器

第四代英特爾至強可擴展處理器是一款通用計算處理器,具有英特爾高級矩陣擴展(英特爾AMX)的AI加速功能。具體而言,該處理器的每個核心內置了BF16和INT8通用矩陣乘(GEMM)加速器,以加速深度學習訓練和推理工作負載。此外,英特爾至強 CPU Max系列, 每顆CPU 提供64GB的高帶寬內存(HBM2E), 兩顆共128GB,由于大語言模型的工作負載通常受到內存帶寬的限制,因此,該性能對于大模型來說極為重要。

目前,針對英特爾至強處理器的軟件優(yōu)化已升級到深度學習框架中,并可用于PyTorch*、TensorFlow*、DeepSpeed*和其它AI庫的默認發(fā)行版。英特爾主導了torch.compile CPU后端的開發(fā)和優(yōu)化,這是PyTorch 2.0的旗艦功能。與此同時,英特爾還提供英特爾PyTorch擴展包*(Intel Extension for PyTorch*),旨在PyTorch官方發(fā)行版之前,盡早、及時地為客戶提供英特爾CPU的優(yōu)化。

第四代英特爾至強可擴展處理器擁有更高的內存容量,支持在單個插槽內實現(xiàn)適用于對話式AI和文本摘要應用的、低延遲的大語言模型執(zhí)行。對于BF16和INT8,該結果展示了單個插槽內執(zhí)行1個模型時的延遲。英特爾PyTorch擴展包*支持SmoothQuant,以確保INT8精度模型具有良好的準確度。

考慮到大語言模型應用需要以足夠快的速度生成token,以滿足讀者較快的閱讀速度,我們選擇token延遲,即生成每個token所需的時間作為主要的性能指標,并以快速人類讀者的閱讀速度(約為每個token 100毫秒)作為參考。如圖2、3所示,對于70億參數(shù)的Llama2 BF16模型和130億參數(shù)的Llama 2 INT8模型,第四代英特爾至強單插槽的延遲均低于100毫秒。

得益于更高的HBM2E帶寬,英特爾至強CPU Max系列為以上兩個模型提供了更低的延遲。而憑借英特爾AMX加速器,用戶可以通過更高的批量尺寸(batch size)來提高吞吐量。

圖2 基于英特爾至強可擴展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(BFloat16)的推理性能

圖3 基于英特爾至強可擴展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(INT8)的推理性能

對于70億和130億參數(shù)的模型,每個第四代至強插槽可提供低于100毫秒的延遲。用戶可以分別在兩個插槽上同時運行兩個并行實例,從而獲得更高的吞吐量,并獨立地服務客戶端。亦或者,用戶可以通過英特爾PyTorch擴展包*和DeepSpeed* CPU,使用張量并行的方式在兩個第四代至強插槽上運行推理,從而進一步降低延遲或支持更大的模型。

關于在至強平臺上運行大語言模型和Llama 2,開發(fā)者可以點擊此處了解更多詳細信息。第四代英特爾至強可擴展處理器的云實例可在AWS和Microsoft Azure上預覽,目前已在谷歌云平臺和阿里云全面上線。英特爾將持續(xù)在PyTorch*和DeepSpeed*進行軟件優(yōu)化,以進一步加速Llama 2和其它大語言模型。

英特爾?數(shù)據(jù)中心GPU Max系列

英特爾數(shù)據(jù)中心GPU Max系列提供并行計算、科學計算和適用于科學計算的AI加速。作為英特爾性能最為出色、密度最高的獨立顯卡,英特爾數(shù)據(jù)中心GPU Max系列產(chǎn)品中封裝超過1000億個晶體管,并包含多達128個Xe內核,Xe是英特爾GPU的計算構建模塊。

英特爾數(shù)據(jù)中心GPU Max系列旨在為AI和科學計算中使用的數(shù)據(jù)密集型計算模型提供突破性的性能,包括:

英特爾Max系列產(chǎn)品統(tǒng)一支持oneAPI,并基于此實現(xiàn)通用、開放、基于標準的編程模型,釋放生產(chǎn)力和性能。英特爾oneAPI工具包括高級編譯器、庫、分析工具和代碼遷移工具,可使用SYCL輕松將CUDA代碼遷移到開放的C++。

英特爾數(shù)據(jù)中心Max系列GPU通過當今框架的開源擴展來實現(xiàn)軟件支持和優(yōu)化,例如面向PyTorch*的英特爾擴展、面向TensorFlow*的英特爾擴展和面向DeepSpeed*的英特爾擴展。通過將這些擴展與上游框架版本一起使用,用戶將能夠在機器學習工作流中實現(xiàn)快速整合。

我們在一個600瓦OAM形態(tài)的GPU上評估了Llama 2的70億參數(shù)模型和Llama 2的130億參數(shù)模型推理性能,這個GPU上封裝了兩個tile,而我們只使用其中一個tile來運行推理。圖4顯示,對于輸入長度為32到2000的token,英特爾數(shù)據(jù)中心GPU Max系列的一個tile可以為70億參數(shù)模型的推理提供低于20毫秒的單token延遲,130億參數(shù)模型的單token延遲為29.2-33.8毫秒3。因為該GPU上封裝了兩個tile,用戶可以同時并行運行兩個獨立的實例,每個tile上運行一個,以獲得更高的吞吐量并獨立地服務客戶端。

圖4英特爾數(shù)據(jù)中心GPU Max 1550上的Llama 2的70億和130億參數(shù)模型的推理性能

關于在英特爾GPU平臺上運行大語言模型和Llama 2,可以點擊此處獲取詳細信息。目前英特爾開發(fā)者云平臺上已發(fā)布英特爾GPU Max云實例測試版

英特爾平臺上的大語言模型微調

除了推理之外,英特爾一直在積極地推進微調加速,通過向Hugging Face Transformers、PEFT、AccelerateOptimum?庫提供優(yōu)化,并在面向Transformers的英特爾擴展中提供參考工作流。這些工作流支持在相關英特爾平臺上高效地部署典型的大語言模型任務,如文本生成、代碼生成、完成和摘要。

總結

上述內容介紹了在英特爾AI硬件產(chǎn)品組合上運行Llama 2的70億和130億參數(shù)模型推理性能的初始評估,包括Habana Gaudi2深度學習加速器、第四代英特爾至強可擴展處理器、英特爾至強 CPU Max系列和英特爾數(shù)據(jù)中心GPU Max系列。我們將繼續(xù)通過軟件發(fā)布提供優(yōu)化,后續(xù)會再分享更多關于大語言模型和更大的Llama 2模型的評估。

參考資料

Intel / intel-extension-for-pytorch:一個用于擴展官方PyTorch的PyTorch軟件包,可以輕松地獲取英特爾平臺的性能(github.com)

使用英特爾神經(jīng)壓縮器進行模型壓縮:huggingface/optimum-habana:在Habana Gaudi 處理器(HPU)上輕松地極速訓練?? Transformers(github.com)

面向英特爾 數(shù)據(jù)中心GPU Max系列的開發(fā)工具

Meta Llama2論文:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

Meta Llama2博客:https://ai.meta.com/llama/

產(chǎn)品和性能信息1 Habana Gaudi2深度學習加速器:所有測量使用了一臺HLS2 Gaudi2服務器上的Habana SynapseAI 1.10版和optimum-habana 1.6版,該服務器具有八個Habana Gaudi2 HL-225H Mezzanine卡和兩個英特爾至強白金8380 CPU@2.30GHz以及1TB系統(tǒng)內存

分享到

zhupb

相關推薦