OpenAI|APIのPrompt Caching導入

コスト削減と処理速度向上を実現するPrompt Caching OpenAIは、APIにおけるPrompt Cachingを導入し、同じコンテキストを繰り返し使用する開発者向けにコスト削減と処理速度の向上を実現しました。最近見た入力トークンを再利用することで、50%の割引と迅速なプロンプト処理が可能です。GPT-4oやo1モデルなどに適用され、開発者が自動的にキャッシュの恩恵を受けられます。

引用元:Prompt Caching in the API | OpenAI


コメント

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です