Kimi开放平台“上下文缓存”公测启动
2024-07-04 本站作者 【 字体:大 中 小 】
备受瞩目的AI技术提供商月之暗面正式宣布,其Kimi开放平台的核心功能“上下文缓存”Context Caching正式开启公测。这一创新技术的推出,标志着AI大模型在应对长文本处理和频繁请求场景时,将迎来一次性能与成本效率的双重飞跃。
据官方介绍,上下文缓存技术通过预先存储可能被频繁请求的大量数据或信息,极大地缩短了模型处理时间,降低了运算成本。在保持现有API价格不变的前提下,该技术能够为开发者带来最高90%的长文本旗舰大模型使用成本降低,并显著提升了模型的响应速度,首Token延迟降低幅度高达83%。
1.技术亮点与适用场景:
预设内容丰富的QA Bot:如Kimi API小助手,能够快速响应用户提问,提供精准答案。
固定文档集合的频繁查询:如上市公司信息披露问答工具,确保信息快速准确获取。
静态代码库或知识库的周期性分析:各类Copilot Agent能更高效地进行代码审查和知识检索。
瞬时流量巨大的AI应用:如哄哄模拟器、LLM Riddles等爆款应用,确保在高并发下依然流畅运行。
交互规则复杂的Agent类应用:提升用户体验,减少等待时间。
2.计费模式详解:
为了平衡技术成本与用户体验,月之暗面为上下文缓存功能设计了详尽的计费模式,主要包括三个部分:
Cache创建费用:成功创建Cache后,按Cache中的Tokens实际量计费,费用为24元/M token。
Cache存储费用:在Cache存活期间,按分钟收取存储费用,费用为10元/M token/分钟。
Cache调用费用:分为增量token收费和调用次数收费两部分。增量token按模型原价计费,而调用次数则在Cache存活时间内,用户通过chat接口请求已创建的Cache,若匹配成功,则按0.02元/次收费。
3.公测安排与资格:
本次公测为期3个月,自功能上线之日起开始。公测期间,Context Caching功能将优先开放给Tier5等级用户,其他用户的具体开放时间将另行通知。此外,公测期间的价格可能根据反馈和市场需求进行调整,以确保技术的持续优化和用户体验的不断提升。
月之暗面Kimi开放平台此次推出的上下文缓存功能,无疑为AI大模型在文本处理领域的应用开辟了新的可能。随着公测的深入,相信这一技术将引领AI领域的新一轮变革,为开发者带来更加高效、经济的解决方案。
猜你喜欢
法宝来袭,鬼谷无双明日新区带你鉴宝
零号任务潜行者哪个好最强潜行者技能属性推荐
黎明觉醒生机中部平原日记具体位置介绍
知乎专栏怎么开启专栏开启方法
ff14基拉巴尼亚山区风脉任务
解决繁体、日文游戏乱码的五种方法
向僵尸开炮全部流派最强阵容搭配分享
七龙珠:电光炸裂!ZERO新角色登场!10月11日发售
江南百景图碧海浮岛建筑介绍
第一后裔测试资格申请步骤
2024去云南旅游最佳路线 云南旅游的最佳路线安排
2024最适合穷游的12个地方 一个人穷游去哪里好
2024桂林必去五个景点 桂林旅游必看景点
2024清明家庭旅游最佳去处 清明节去哪里玩比较好
张家界旅游必去景区 张家界旅游景点推荐
2024重庆旅游攻略 2024年重庆旅游景点
西安旅游攻略自由行路线推荐 第一次去西安旅游攻略
2024昆明旅游攻略景点大全 昆明有什么好玩的地方推荐
成都旅游必去十大景点推荐 四川成都最值得去的十大景点
2024山西旅游必去十大景点 山西必去景点攻略地