您当前位置: 首页 > 攻略 > 详情

Kimi开放平台“上下文缓存”功能开启公开测试

发布时间:2026-02-06 10:58作者:admin

Kimi智能助手

软件类型:办公软件软件大小:139.30MB软件平台:WinALL软件语言:简体中文

标签: Kimi智能助手

查看详情

备受瞩目的AI技术提供商月之暗面正式宣布,其

Kimi

开放平台的核心功能“上下文缓存”(Context Caching)已正式启动公开测试。这项创新技术的发布,意味着AI大模型在处理长文本以及应对频繁请求的场景时,性能与成本效率将实现双重提升。

据官方介绍,上下文缓存技术借助预先存储可能被高频请求的海量数据或信息,大幅缩减了模型的处理时长,减少了运算开支。在维持现有API定价不变的情况下,这项技术可让开发者使用长文本旗舰大模型的成本最多降低90%,同时还能明显加快模型的响应速度,首Token延迟的下降幅度达到了83%之高。

      1.技术亮点与适用场景:

预设内容丰富的QA Bot:如Kimi API小助手,能够快速响应用户提问,提供精准答案。

固定文档集合的频繁查询:如上市公司信息披露问答工具,确保信息快速准确获取。

静态代码库或知识库的周期性分析:各类Copilot Agent能更高效地进行代码审查和知识检索。

瞬时流量巨大的AI应用,例如哄哄模拟器、LLM Riddles等爆款产品,要保证在高并发场景下依旧能够流畅运行。

交互规则复杂的Agent类应用:提升用户体验,减少等待时间。

      2.计费模式详解:

为了平衡技术成本与用户体验,月之暗面为上下文缓存功能设计了详尽的计费模式,主要包括三个部分:

Cache创建费用:成功创建Cache后,按Cache中的Tokens实际量计费,费用为24元/M token。

Cache存储费用:在Cache存活期间,按分钟收取存储费用,费用为10元/M token/分钟。

Cache的调用费用由两部分构成:一是增量token收费,二是调用次数收费。其中,增量token的计费标准与模型原价一致;调用次数方面,在Cache的存活有效期内,当用户通过chat接口发起对已创建Cache的请求且匹配成功时,将按照每次0.02元的标准收取费用。

      3.公测安排与资格:

本次公开测试周期为3个月,自该功能正式上线当天起算。在公测阶段,Context Caching功能将优先向Tier5级别的用户开放,其余用户的具体开放时间会再行告知。另外,公测期间的定价或许会依据用户反馈与市场需求做出调整,以此保障技术能够持续优化,用户体验也能不断得到提升。

月之暗面Kimi开放平台这次推出的上下文缓存功能,无疑为AI大模型在文本处理领域的应用开拓了新的方向。随着公测的持续推进,相信这项技术将引领AI领域的新一轮革新,为开发者提供更高效、更经济的解决方案。

复制本文链接 攻略文章为游戏网所有,未经允许不得转载。
热门游戏→更多
相关文章→更多