しかし、研究者は、モデルの複雑さが完全に利用できる要素ではないことにすぐに気付きました。 いくつかの驚くべき才能は、戦略が十分に過剰な品質に変化した場合、より少ないパラメータでより小さな項目から追い出されるか、より小さなデータ項目で訓練される可能性があります. 質問を言葉に変える方法は、モデルの応答の精度に影響を与えました。 Dyer 氏と彼の同僚が映画の絵文字アクティビティに 1 つ以上の形式を使用させたとき、一言で言えば、正確さの向上は驚くべきジャンプではなく、複雑さを伴う段階的な上昇に変わりました。 そして 12 か月の締めくくりに、この分野の旗艦会議である NeurIPS で発表された 論文で、Google Brain の研究者は、モデルがどのようにしてそれ自体を証明するようになったかを示しました (chain-of-設計図の推論) はおそらく数学のフレーズ ステーションを解決することになるでしょうが、それが促されない同一のモデルはおそらくおそらく今も解決されないでしょう.
Yi Tay は Google Brain の科学者で、突破口の体系的な調査に取り組んでおり、青写真のチェーンのプロンプトがスケーリング曲線を変更し、この真実の結果として、出現するポイント。 Google の研究者は、NeurIPS の論文で、チェーン オブ ブループリント プロンプトを使用すると、BIG-bench leer では現在診断されていない緊急の行動を誘発する可能性があることを示しました。 その推論を証明するためにモデルに疑問を投げかけるこのようなプロンプトは、研究者がなぜ出現が起こるのかという研究を開始する正直な動機になるでしょう.
これらのような新鮮な発見は、言語の計算項目を評価するブラウン カレッジの PC 科学者である
エリー パヴリック は、なぜ出現が起こるのかについて少なくとも 2 つの可能性があると述べています。 1つは、生物学的方法との比較で指示されているように、実際に実際に実行されるアイテムの上昇は、自然に新しい才能を生み出すということです. 「モデルが、より小さな次元では一致しない、主に新鮮で変化に富んだものを1つ発見したことも、正直なところ非常にうまくいくでしょう」と彼女は述べた. 「それが私たち全員が望んでいることであり、アイテムが拡大されたときに重要な変化が起こることです.緊急のように見えるのは、代わりに、一連の青写真形式の推論を通じて機能する内部の統計に基づいたプロジェクトの集大成であるため、正直である可能性もあります。 スーパー LLM は、パラメータが少ない、またはデータの品質が低い場合には達成不可能なヒューリスティックを見つけるだけである可能性があります.
しかし、彼女は、それらのどれを見つけて説明は、LLM がどのように機能するかをより深く理解することにかかっている可能性が高いです。 「ボンネットの下でそれらがどのように機能するかを認識していないため、どの問題が発生しているのかを言うことはできません。」