(北京,2025年2月11日)IBM日前宣布,DeepSeek-R1 的 Llama 3.1 8B 和 Llama 3.3 70b 蒸馏版本现已在 IBM 的企业级 AI 开发平台上提供。
DeepSeek-R1到底是啥?
是中国人工智能(AI)初创公司 DeepSeek 的推理大语言模型(LLM),是世界上最强大的开源模型之一,甚至可以与 OpenAI 的 o1 相媲美。DeepSeek-R1 在 MIT 许可证下发布,主要是通过在基础模型 DeepSeek-V3 上直接使用强化学习 (RL) 开发的,这是 LLM 的一项重大创新。
还使用了一种称为的技术,使用较大的 R1 模型生成的数据来微调多个 Llama 和 Qwen 模型。用户可以通过两种方式在 watsonx.ai 上访问 DeepSeek 蒸馏模型:
· IBM 通过 “”在 watsonx.ai 中提供两种 Llama 蒸馏变体,允许用户部署专用实例进行安全推理。
· 用户还可以使用导入 DeepSeek-R1 模型的其他变体,如 Qwen 蒸馏模型。
DeepSeek-R1支持哪些类型的用例?
·规划:DeepSeek-R1 专注于思维逻辑链,能够执行需要逐步推理的任务,因此非常适合为智能体(代理)应用程序提供支持。
·编码: DeepSeek-R1擅长编码任务,提供代码生成、调试辅助和优化建议。
·数学问题解决: 该模型强大的推理能力使其善于解决复杂的数学问题,这对学术研究、工程和科学计算大有裨益。
开发人员可在 IBM watsonx.ai 中使用 DeepSeek-R1 等已部署的模型和解决方案功能构建人工智能解决方案:
· 以易于理解的格式和用户界面测试和评估模型输出
· 通过连接各种向量数据库和嵌入模型来构建 RAG 管道
· 与 LangChain、CrewAI 等流行框架和连接器协同工作
为何要在watsonx.ai上使用DeepSeek蒸馏模型?
当然,数据安全和AI治理是客户最关心的问题。除防护栏外,在 watsonx.ai 上部署时,这些模型将成为专用实例,这意味着除平台外,不会在其他任何地方共享数据。此外,与 这一功能强大的治理、风险和合规性(GRC)工具包的无缝集成,可确保客户的AI在整个AI生命周期内都是负责任、透明和可解释的。
开始在IBM watsonx.ai上使用DeepSeek
如何从watsonx资源中心按需部署R1模型
,请完成以下步骤:
1. 从导航菜单打开资源中心。
2. 从 “按小时付费 ”部分,找到要按需部署的 DeepSeek 模型。
3. 从模型详细信息页面,单击 “Deploy(部署)”。
4. 从基础模型磁贴中单击 “Deploy(部署)”,然后选择要部署基础模型的部署空间。
5. 单击“Create(创建)”。
6. 通过 Prompt Lab 或 API/SDK 开始使用模型。
IBM watsonx.ai 在这里会用斜体显示模型的思维过程,而最终输出则用非斜体显示。正如你所见,只需一个简单的提示,模型就能推理并规划出响应中需要包含的各个部分。
如何通过 REST API 在 watsonx 上部署 R1 模型
或者, 您
当然,您必须将 bearer token 和 space-id 等信息替换为相应的凭证。模型部署完成后,您可以从 Prompt Lab 或 watsonx.ai API 提示基础模型。
通过让用户访问 上同类最优的开源模型(包括第三方模型和 ),我们以期能够塑造协作和知识共享的文化。
即刻