免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


硅基流动上线 DeepSeek-V3.1,上下文升至 160K

发布日期:2025-09-09 08:24:29 浏览次数: 1531
作者:硅基流动

微信搜一搜,关注“硅基流动”

推荐语

DeepSeek-V3.1震撼发布,160K超长上下文+超高性价比,让复杂任务处理更高效!

核心内容:
1. 性能突破:671B参数模型在多项测试中比肩Claude 4,推理效率提升显著
2. 核心优势:160K超长上下文支持法律/金融/代码等复杂场景的无损处理
3. 极致性价比:输入成本仅为竞品的1/5,新用户可获赠金体验

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

硅基流动大模型服务平台已上线深度求索团队最新开源的 DeepSeek-V3.1。


DeepSeek-V3.1 总参数共 671B,激活参数 37B,采用混合推理架构同时支持思考模式与非思考模式),相比 DeepSeek-R1-0528,具有更高思考效率,能在更短时间内给出答案;同时,DeepSeek-V3.1 在工具使用与智能体任务中的表现有较大提升。DeepSeek-V3.1 新版本在 SWE、Browsecomp、xbench 和 SimpleQA 基础测试上实现大幅性能提升,在多个领域比肩 Claude 4 Sonnet 等模型


Image


DeepSeek-V3.1 的价格为输入 4 元 / M Tokens,输出 12 元 / M Tokens,比 Claude 4 Sonnet 的输入成本便宜 5 倍,输出成本便宜 9 倍,成为编码、智能体等场景的绝佳选择之一。


Image


除了最大支持 500 万 TPM,这次硅基流动平台推出的 DeepSeek-V3.1 率先支持 160K 超长上下文,让开发者高效处理长文档、多轮对话、编码及智能体等复杂场景。核心价值包括:


  • 超长文档无需分段切割无损解析法律合同比对、学术文献综述、金融报告解析、全量代码库理解;

  • 深度对话长程记忆:适应复杂客服、心理咨询、教学辅导等强连贯性交互场景;

  • 复杂任务端到端处理告别分段处理/缓存拼接等工程逻辑,一站式完成全链路任务;

  • 高精度 RAG 增强检索百份文档嵌入上下文,基于完整信息生成精准答案,显著降低检索错误率。

欢迎通过以下方式使用 DeepSeek-V3.1,国内站与国际站新用户可分别自动获取 14 元或 1 美元赠金体验。


国内站在线体验

https://cloud.siliconflow.cn/models


国际站在线体验

https://cloud.siliconflow.com/models


第三方应用接入教程

https://docs.siliconflow.cn/cn/usercases/


开发者 API 文档

https://docs.siliconflow.cn/cn/api-reference/chat-completions/



在编码工具中调用硅基流动的 API 服务


Claude Code


(注意:硅基流动的上下文缓存功能正在支持中,使用时请关注费用消耗。)



我们在 Claude Code 中调用 DeepSeek-V3.1,让它生成一个网页版的打地鼠小游戏。



实际效果如下。



方式一:一键安装及配置脚本


1. 在终端中运行以下命令:


bash -c "$(curl -fsSL https://static01.siliconflow.cn/cdn/assets/ccsf_v2.sh)"


2. 提示输入 API Key 时,复制粘贴你的硅基流动 API Key。


Image


3. 提示选择模型时,使用方向键选择要在 Claude Code 中使用的 DeepSeek-V3.1 / Qwen3-Coder / GLM-4.5 / Kimi K2 等模型。


4. 根据提示,复制相应命令并重启终端运行,应用配置:


Image


5. 执行 Claude 命令,进入 Claude Code 并使用。


注意:目前 Claude Code 并不支持添加多个自定义模型(Custom Model),你可以再次执行上述 1-5 步,选择并更新 ANTHROPIC_MODEL 环境变量的方式切换模型。


方式二:手动配置 Claude Code 环境变量


如果你想手动配置 Claude Code 的环境变量,可以在终端中运行下列命令:


export ANTHROPIC_BASE_URL="https://api.siliconflow.cn/"
export ANTHROPIC_MODEL="Pro/deepseek-ai/DeepSeek-V3.1"  # 可以自行修改所需模型
export ANTHROPIC_API_KEY="YOUR_SILICONFLOW_API_KEY" # 请替换API Key


Gen-CLI


Gen-CLI 基于开源的 Gemini-CLI 改造而来,目前已在 GitHub 开源(https://github.com/gen-cli/gen-cli/),你可以通过以下方式安装。

  1. 1. 确保操作系统已经安装 node 18+
  2. 2. 设置 API key 环境变量


export SILICONFLOW_API_KEY="YOUR_API_KEY"


  1. 3. 运行 Gen-CLI

通过 npx 运行 repo:


npx https://github.com/gen-cli/gen-cli


或者,通过 npm 安装命令:


npm install -g @gen-cli/gen-cligen


Cline


Image


1. 在 VSCode 中,通过 Ctrl/Command+Shift+P 打开命令工具,在新 Tab 中打开 Cline 进行配置

2. 在新窗口中进行配置

3. API Provider:选择 “OpenAI Compatible”

4. Base Url:https://api.siliconflow.cn/v1

5. API Key:从硅基流动大模型服务平台中获取

6. Model ID:从硅基流动大模型服务平台模型卡片中获取

7. 开始使用


开发者首选的“Token 工厂”

——极速 · 可靠 · 经济


硅基流动的一站式大模型云服务平台致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。


除了 DeepSeek-V3.1,硅基流动平台已上架包括 Wan2.2、Step3、Qwen3-Coder、Qwen3-30B-A3B、MOSS-TTSD-V0.5、GLM-4.5、Qwen3-235B-A22B、Kimi K2 Instruct、Qwen3-Embedding & Reranker、DeepSeek-R1-0528、Qwen2.5VL-72B、CosyVoice2 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen3-8B 等多款大模型 API 免费使用,让开发者实现“Token 自由”。


Image


开发者可在平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。


近期更新


硅基流动上线阿里Wan2.2

硅基流动上线智谱GLM-4.5V

硅基流动国际站上线OpenAI gpt-oss

Kimi K2 API升级:Pro版TPM升至100万

硅基流动私有化MaaS助电力巨头效能狂飙

提效300%,大模型一体机加速药企报告撰写

Image

扫码加入用户交流群

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询