月之暗面Kimi发布新模型付费模式更新
Kimi官方介绍,这是Kimi迄今最智能、最全能的模型。首先是多模态能力的突破,Kimi K2.5采用原生多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与Agent任务。
此外,Kimi K2.5进一步提升了开源模型的代码水平,尤其是在前端开发领域。一方面,K2.5模型支持从简单的自然语言对话生成完整的前端界面;另一方面,K2.5通过融合视觉能力,来降低编程的门槛,比如,用户可以直接上传一段录屏,Kimi K2.5即能自动拆解背后的交互逻辑,并用代码将其从头到尾复现出来。
另一个突破则是,新的模型从单一Agent进化到Agent集群。K2.5能根据任务需求,现场调度多达100个分身,并行处理1500个步骤,所有的角色分配与任务拆解,最终结果由主agent负责“把关验收”。
新京报贝壳财经记者查询Kimi官网看到,Kimi K2.5在使用的模式和功能上进一步细分,目前共上线思考,支持多轮搜索思考,回答复杂问题;K2.5 Agent可支持解读PPT、研报、网站、文档、表格等;K2.5 Agent集群则支持海量搜索、长文写作、批量处理。
此次版本更新伴随着Kimi会员权益的变更,也让Kimi的商业化模式进一步清晰。1月26日,Kimi更新会员权益说明,免费版用户每月可获得1次深度研究、3次OK Computer、3次PPT的使用次数;付费会员支付不同费用可在每月享受不同次数的相应服务。开云kaiyun开云kaiyun
同类文章排行
- kaiyun的自然语言处理技术有哪些核心功能?
- CV计算机视觉每日开源代码Paper with
- 自然语言处理领域的变革之路:从BERT到Qwen 25
- 人类秒懂AI却懵圈:VLM²-Bench揭示视觉语言模型「视
- AI小程序开发人工智能时代下的商业机遇
- kaiyun公司主要提供哪些计算机视觉和自然语言处理技术服务
- kaiyun的计算机视觉技术可应用于哪些行业场景?
- 如何联系kaiyun中国股份有限公司获取更多技术支持和服务咨
- kaiyun官方如何确保客户数据的安全性?
- 2025-2031年中国机器视觉市场全景调查与未来前景预测

