Kimi开放平台推出Context Caching功能:优化性能,提升AI应用体验 Kimi开放平台近日宣布即将内测一项创新功能——Context Caching(上下文缓存),旨在提高应用程序性能和用户体验。 AI资讯# AI应用# Context Caching(上下文缓存)# Kimi开放平台 2周前19