微信扫码
添加专属顾问
我要投稿
在大模型 API 的使用场景中,用户的输入有相当比例是重复的。举例说,用户的 prompt 往往有一些重复引用的部分;再举例说,多轮对话中,每一轮都要将前几轮的内容重复输入。
硬盘缓存服务已经全面上线,用户无需修改代码,无需更换接口,硬盘缓存服务将自动运行,系统自动按照实际命中情况计费。
数据分析:后续具有相同前缀的请求会命中上下文缓存
多种应用能从上下文硬盘缓存中受益:
具有长预设提示词的问答助手类应用
具有长角色设定与多轮对话的角色扮演类应用
针对固定文本集合进行频繁询问的数据分析类应用
代码仓库级别的代码分析与排障工具
...
举个极端的例子,对 128K 输入且大部分重复的请求,实测首 token 延迟从 13 秒降低到 500 毫秒。
缓存没有其它额外的费用,只有0.1 元每百万 tokens。缓存占用存储无需付费。
长时间不用的缓存会自动清空,不会长期保留,且不会用于其他用途。
这得益于 DeepSeek V2 提出的 MLA 结构,在提高模型效果的同时,大大压缩了上下文 KV Cache 的大小,使得存储所需要的传输带宽和存储容量均大幅减少,因此可以缓存到低成本的硬盘上。
DeepSeek API 服务按照每天 1 万亿的容量进行设计。对所有用户均不限流、不限并发、同时保证服务质量。请放心加大并发使用.
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-05
Anthropic又一篇Agent开发神文,新范式让Token消耗暴降98.7%
2025-11-05
不是算法的错?AI模拟实验揭示社交媒体撕裂的真相
2025-11-05
微软研究院路保同:用向量检索重塑模型注意力|Attention
2025-11-05
Azure Storage Discovery 现已正式发布!
2025-11-05
超越炒作:一份给企业管理者的大模型落地实操清单
2025-11-05
Figma Make 技术实现剖析
2025-11-05
所有的一切都是上下文 - 深入研究Claude体系的感悟
2025-11-05
Claude Skills 自定义实战:提炼会议纪要并推送企业微信
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20