OpenAIの研究では、強力な言語モデルを訓練して、弱いモデルが検証しやすいテキストを生成させることで、人間が評価しやすいテキストを作成できることが分かりました。この手法は「Prover-Verifier Games」と呼ばれ、2つのプレイヤー(解答生成者と検証者)が解答の正確性を確認し合います。これにより、モデルの出力が正確であるだけでなく、理解しやすく検証しやすいものとなります。
引用元: Prover-Verifier Games improve legibility of language model outputs, July 17, 2024
コメントを残す