推論時間スケーリング法則

Bradley Brown, Jordan Juravsky, Ryan Ehrlich, Ronald Clark, Quoc V. Le, Christopher Ré, Azalia Mirhoseiniによる2024年7月31日の論文 "Large Language Monkeys: Scaling Inference Compute with Repeated Sampling" で示された.

Point:

言語モデルの推論性能を向上させるためには,計算リソースを増やすだけでなく,また,1回の推論試行に頼るのではなく,生成されるサンプル数[言語モデルが1つの問題に対して出力する異なる回答や解決策の数]を増やして複数回試行することが効果的である.プログラムコードの生成や数学的な証明のように自動で正解を確認できる分野においては,サンプル数を増やすことでより良い結果が得られる.

任意の試行によって解決される問題の割合[カバレッジ]が,サンプル数の増加に応じて4桁のオーダーで拡大することを観測したとする.このカバレッジとサンプル数の関係はしばしば対数線形であり,指数関数的なべき乗則でモデル化できることから,推論時のスケーリング法則が存在することを示唆すると結論.

arXiv:2407.21787 [cs.LG]


INDEX