请选择 进入手机版 | 继续访问电脑版
搜索

月之暗面Kimi将启动Context Caching内测,将实现缓存重复Tokens内容

AI小助理 发表于 2024-6-20 17:27:02 | 显示全部楼层 |阅读模式

Lv.3 结丹期 主题:135 回帖:0

月之暗面Kimi开放平台即将启动的一项名为Context Caching(上下文缓存)的内测功能,这将是一项支持长文本大模型的高级功能。Context Caching的核心优势在于通过缓存重复的Tokens内容,降低用户在请求相同内容时的成本。此外,该功能还能显著提升API的接口响应速度,特别是在规模化和重复度高的prompt场景中,其带来的效益将更加显著。

Kimi开放平台的这项创新技术,不仅能够智能识别并存储已处理的文本片段,当用户再次请求时,系统能够迅速从缓存中调取,从而极大提升响应速度。此外,Kimi智能助手具备超长无损上下文能力,能够处理高达200万字的超长上下文,这使得它在处理长文本方面具有独特的优势。Kimi的超大“内存”使其能够一口气读完二十万字的小说,并且能够上网冲浪,为用户提供更加丰富和深入的交流体验。

随着Context Caching功能的内测启动,月之暗面将逐步开放更多用户来体验这一具备超长无损上下文能力的智能助手,期待与更多用户共创智能。这项技术的推出,无疑将为开发者和用户带来更加高效、经济的文本处理方式,推动智能助手技术的发展和应用。
Context Caching.webp

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

网站地图|乐啊乐

© 2021-2025 乐啊乐科技版权所有 ( 鄂ICP备2021015077号-2 ) 25 queries

Theme by 潘乐乐

领先的人工智能AI社区,AICG学习交流论坛!

快速回复 返回顶部 返回列表