DeepSeek-R1到底是啥?

DeepSeek-R1是中國人工智能(AI)初創(chuàng)公司DeepSeek的推理大語言模型(LLM),是世界上最強大的開源模型之一,甚至可以與OpenAI的o1相媲美。DeepSeek-R1在MIT許可證下發(fā)布,主要是通過在基礎模型DeepSeek-V3上直接使用強化學習(RL)開發(fā)的,這是微調LLM的一項重大創(chuàng)新。

DeepSeek還使用了一種稱為知識蒸餾的技術,使用較大的R1模型生成的數(shù)據(jù)來微調多個Llama和Qwen模型。用戶可以通過兩種方式在watsonx.ai上訪問DeepSeek蒸餾模型:

IBM通過”按需部署目錄”在watsonx.ai中提供兩種Llama蒸餾變體,允許用戶部署專用實例進行安全推理。

用戶還可以使用自定義基礎模型導入功能導入DeepSeek-R1模型的其他變體,如Qwen蒸餾模型。

DeepSeek-R1支持哪些類型的用例?

DeepSeek-R1是一種先進的AI模型,以其卓越的推理能力而著稱,支持各行各業(yè)的廣泛應用:

規(guī)劃:DeepSeek-R1專注于思維邏輯鏈,能夠執(zhí)行需要逐步推理的任務,因此非常適合為智能體(代理)應用程序提供支持。

編碼:DeepSeek-R1擅長編碼任務,提供代碼生成、調試輔助和優(yōu)化建議。

數(shù)學問題解決:該模型強大的推理能力使其善于解決復雜的數(shù)學問題,這對學術研究、工程和科學計算大有裨益。

開發(fā)人員可在IBMwatsonx.ai中使用DeepSeek-R1等已部署的模型和解決方案功能構建人工智能解決方案:

以易于理解的格式和用戶界面測試和評估模型輸出

通過連接各種向量數(shù)據(jù)庫和嵌入模型來構建RAG管道

與LangChain、CrewAI等流行框架和連接器協(xié)同工作

為何要在watsonx.ai上使用DeepSeek蒸餾模型?

IBMwatsonx.ai使客戶能夠定制實施DeepSeek-R1等開源模型,從部署環(huán)境的完全靈活性到智能體(代理)開發(fā)、微調、RAG、提示工程和與企業(yè)應用程序集成的直觀工作流,用戶可以利用watsonx.ai的內置護欄來保護他們的應用程序。

當然,數(shù)據(jù)安全和AI治理是客戶最關心的問題。除防護欄外,在watsonx.ai上部署時,這些模型將成為專用實例,這意味著除平臺外,不會在其他任何地方共享數(shù)據(jù)。此外,與IBM watsonx.governance這一功能強大的治理、風險和合規(guī)性(GRC)工具包的無縫集成,可確保客戶的AI在整個AI生命周期內都是負責任、透明和可解釋的。

開始在IBM watsonx.ai上使用DeepSeek

支持DeepSeek-R1的蒸餾變體是IBM致力于AI開源創(chuàng)新的一部分。DeepSeek Llama的兩個蒸餾模型都以納入IBM watsonx.ai上按需部署目錄,能夠在專用GPU上按小時部署。

如何從watsonx資源中心按需部署R1模型

從資源中心按需部署基礎模型,請完成以下步驟:

從導航菜單打開資源中心。

從”按小時付費”部分,找到要按需部署的DeepSeek模型。

從模型詳細信息頁面,單擊”Deploy(部署)”。

從基礎模型磁貼中單擊”Deploy(部署)”,然后選擇要部署基礎模型的部署空間。

單擊”Create(創(chuàng)建)”。

通過PromptLab或API/SDK開始使用模型。

IBM watsonx.ai在這里會用斜體顯示模型的思維過程,而最終輸出則用非斜體顯示。正如你所見,只需一個簡單的提示,模型就能推理并規(guī)劃出響應中需要包含的各個部分。

如何通過RESTAPI在watsonx上部署R1模型

或者,您也可以使用RESTAPI來部署模型

當然,您必須將bearertoken和space-id等信息替換為相應的憑證。模型部署完成后,您可以從PromptLab或watsonx.aiAPI提示基礎模型。

通過讓用戶訪問watsonx.ai上同類最優(yōu)的開源模型(包括第三方模型和IBMGranite),我們以期能夠塑造協(xié)作和知識共享的文化。

分享到

lixiangjing

算力豹主編

相關推薦