通过提示缓存实现成本降低和速度提升 OpenAI 推出了 API 中的 Prompt Caching 功能,旨在为多次使用相同上下文的开发人员降低成本并提高处理速度。通过重用最近看到的输入 token,开发人员可以享受 50% 的折扣并实现更快速的提示处理。该功能自动应用于 GPT-4o、GPT-4o mini 和 o1 等模型,以提高 AI 应用的效率。
来源:Prompt Caching in the API | OpenAI
通过提示缓存实现成本降低和速度提升 OpenAI 推出了 API 中的 Prompt Caching 功能,旨在为多次使用相同上下文的开发人员降低成本并提高处理速度。通过重用最近看到的输入 token,开发人员可以享受 50% 的折扣并实现更快速的提示处理。该功能自动应用于 GPT-4o、GPT-4o mini 和 o1 等模型,以提高 AI 应用的效率。
来源:Prompt Caching in the API | OpenAI
发表回复