OpenAI|ルールベースの報酬でモデルの安全性を向上

OpenAIはルールベースの報酬(RBR)を利用する新しい方法を開発し、広範な人間のデータ収集なしにモデルの安全な行動を実現しています。RBRは、安全な行動を評価するための明確で簡単なルールを使用し、モデルの出力が安全基準を満たすかどうかを判断します。これにより、従来の人間フィードバックを必要とせず、安全性と有用性のバランスを保ちながらモデルを調整できます。実験では、RBRを使用したモデルは、人間フィードバックを用いたモデルと同等の安全性能を示し、トレーニングプロセスの効率も向上しました。

引用元: OpenAI (2024年7月24日) OpenAI


コメント

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です