
人工知能の比較は、指数関数的な料金で上昇しています。 AI コンサルタントが独自の記事をすべて公開できるように洗練されており、経験の浅い人にとっては、どこから始めればよいかわかりません。
この記事では、厳選されたリソースのチェックリストを共有しています。私たちは、流行の AI をより賢く組み立てるために依存してきました。 これらの論文、ブログ投稿、クラス、ガイドが過去数年間にこの分野に多大な影響を与えたため、私たちはこれを「AI Canon」と名付けました。

これらの記事専門的な背景は必要なく、トレンディーな AI の波の最大の要素について、指定された数の情報を迅速に集めることができます。
マシン 2.0: Andrej Karpathy は、現実における独特の AI の波が問題となる理由を (2017 年に!) 明確に伝えるために、確かに支配的なもののいくつかに修正しました。 彼の主張は、AI はコンピューター システムをプログラムするためのブランド独自の強力なアプローチであるということです。 LLM が急速に改善される中、この論文は先見性があることを裏付けており、AI 市場がおそらく十分に進歩する可能性のある考案のための認可された心理的マネキンを提供します。 - トランスフォーマー、説明 : Dale Markowitz が提起したこれは「LLM とは何ですか?また、それが機能する仕組みは何ですか?」というクイズに対する、より短く、追加の関連性のある答え。 ここでは、トピックに簡単に取り組み、スキルの直感を集めるための大きなアプローチを示します。 GPT-3 について書かれたものに修正されましたが、新しいデバイスにも適用できます。
- 右拡散の仕組み: ここがラップトップビジョンのアナログですファイナルアップへ。 Chris McCormick は、右拡散がどのように機能するかを素人に説明し、直感的な球状のテキストのベローから描写までのデバイスを開発します。 優しい方のために はじめに、これを比較してください
)コメディアン r/StableDiffusion より。 - 一言で言えば深い発見: 核となるアイデア
- プログラマー向けの賢明な詳細情報: AI の基礎に関する包括的な無料ルート。知的例とコードを通じて説明されています。
- Word2vec の説明: LLM (およびすべての言語デバイス) のブロックを構築する可能性がある埋め込みとトークンの簡単な紹介。
- はい、おそらくバックプロップを認識することは十分に耐えられるでしょう : 基本的な側面を尊重することができれば、いつでも扇動の宣伝についてさらに詳しく説明します。 追加の機能は尊重しますが、 を試してみてください。 スタンフォードCS231n講義 ユーチューブで。
- スタンフォード CS229
- スタンフォード CS224N : Chris Manning による深層学習による NLP、LLM の主要なスキルを通じて NLP の基礎を維持します。
- )イラストの変圧器 ): Jay Alammar によるトランス構造の追加技術概要。
- 注釈付きのトランスフォーマー: ソース コードの段階でトランスフォーマーを尊重することに耐えられる場合は、いつでも詳細に説明します。 PyTorch のいくつかのファイルが必要です。
GPT を作成しましょう: スクラッチから、コード内で、 と綴ります: 市場で入手可能なエンジニア向けに、Karpathy がビデオウォークスルーを行っています。 GPT マネキンを作成できます。
- RLHF: ヒューマン フィードバックからの強化学習
-
- スタンフォード CS25
予測的発見、生理研 2016
: この初期の講演で、ヤン・ルカンは安定した主張を行っています大規模な AI マネキン アーキテクチャの重要な要素として教師なしで発見するために。 にスキップします19:20 著名なケーキの例えについて。これは確かに現代の AI にとって最も便利な心理的デバイスのいくつかです。 )
- Tesla で気丈にセルフライディングするための AI: 他の伝統的なカルパシーの話はすべて、今回はテスラ ファイル シーケンス エンジンを保存しています。 から開始8:35 は間違いなく、これまでで最も大きな AI の暴言のいくつかであり、長期にわたる検討 (この場合は一時停止の兆候の検出) がもはや簡単ではない理由を説明しています。 . スケーリング仮説
: LLM の多くの最も衝撃的な側面の 1 つは、スケーリング (追加のファイルとコンピューティングの追加) によって精度が向上し続けることです。 GPT-3 はこれを明確に伝えるために主要なマネキンに変更され、グウェルンの展示は直感を説明するのに大きな役割を果たしています。
- チンチラの野生的な意味: 名目上は基本的なチンチラ論文 (下に注視) の説明者ですが、この提出された記事は、LLM スケーリングに関する広範なクイズの核心となるでしょう: ファイルが不足していますか? これは上記の考えに基づいており、スケーリングの法則についての新たな見解を提供します。
広範な言語デバイスを参照
: アップの包括的な内訳-最新の LLM と、タイプ タイムライン、ディメンション、コーチング システム、コーチング ファイル、ハードウェア、その他の追加情報。
- 人工の通常知能の火花: GPT-4 による初期の実験: Microsoft による初期予測。人間の知能と比較した、最近最も進化した LLM である GPT-4 の機能を比較します。
- AI 革命: Auto-GPT がどのように自動化と創造性というブランド独自のスキルを解き放つか : 通常の Auto-GPT および AI ブローカーの概要。 このスキルは、非常に早い段階にもかかわらず、尊敬の基礎となるものです。これにより、サイバー Web 収集への参加許可と、発言、高度な考慮事項、または目標を解決するために自ら生成した下位義務を教えることができます。 )
- ワルイージ・クローズ: 名目上は「 Waluigi attain」(つまり、LLM の行動に「分身」が現れる理由)は、LLM プロンプトの仮説に関する詳細な説明に大いに興味をそそられます。
LLM をコアとするブランド独自のユーティリティ スタックが登場しています。 このトピックに関して利用できる正式なトレーニングはまだ多くありませんが、私たちが学んだ最も優れたリソースをいくつか抜粋しました。
参照
- )GPT3、LangChain、Python を使用して GitHub の強化ボットを安全にします: の一つトレンディな LLM アプリ スタックに関する最も初期の公開説明が多数あります。 ここにある 2 つのアドバイスは古いものですが、非常に多くのシステムで、最新の AI アプリの通常の導入と実験が開始されました。
- 製造用 LLM アプリケーションの構築
: チップ・フエンはそう話していますLLM アプリを構築する際の主な課題の多く、それらにどのように対処できるか、そしてどのような種類の教育ケースが最も理にかなっているのかを説明します。
- 緊急エンジニアリングデータ: LLM プロンプトを作成する個人向け — アプリ開発者と並行して— ここにファイルのほとんどがあり、いくつかの人気のデバイスの音声例が含まれています。 より軽く、さらに会話的な扱いをするには、 をお試しください。 Brex が推奨するエンジニアリングファイル. )
- ) 緊急注射: おそらく起こり得る最悪の事態は何ですか? 強制インジェクションは、間違いなく LLM アプリに潜む深刻なセキュリティ脆弱性です。理想的な解像度はまだありません。 サイモン・ウィリソンは、この主張の危険性について決定的な説明をしています。 事実上、サイモンが AI に関して書いた記事はすべて著名です。
OpenAI クックブック
:ビルダー向けに、OpenAI API を操作するための一連のガイドとコード例を次に示します。 ユニークなコード例もあり、一貫してこのレベルと同じくらいです。 - 松ぼっくり探しセンター
- LangChain 医師
: LLM アプリのデフォルトのオーケストレーション層であるため、LangChain はスタックのすべての多様な項目を修正するために接続します。 したがって、彼らの医師は、気の利いたスタックと、それらのアイテムが集合的に適合する仕組みについての忠実な参考人です。プログラム
- LLM ブートキャンプ
- ハグフェイストランスフォーマー: Hugging Face トランスフォーマ ライブラリの開始ソース LLM を利用するためのデータ。
- チャットボット環境
: カリフォルニア大学バークレー校の職員が主導する、きちんとした好みの LLM の Elo スタイルのランキング システム。 ユーザーはおそらく、転送するまでのデバイスを比較することで一部を引き上げる可能性があります。 - LLM リーダーボードを開始
-
AI コンピューティングの高額な料金を乗り越える
: 生成 AI デバイスが非常に多くのコンピューティング リソースを必要とする理由と、これらのリソースの調達について考えられる工夫 (つまり、完璧な GPU など) の詳細な内訳。完璧な量を完璧な料金で) 期待の高い市場で。- アートワークは面倒ではありません、正確に機械生成されています
: での精査AI デバイスが、自動化に対する最後の抵抗力であると繰り返し想定されていた発明分野をどのように再形成する準備ができたかを、工夫タイプの分野よりもはるかに早く実現できた方法。
- ビデオゲームにおける生成 AI 革命: 非常に詳細なグラフィックスを問題なくブループリントする手段が、ゲーム デザイナー、スタジオ、および市場全体にどのように誠実に反映されるかについて、ゲーム担当者が詳細に予測したものです。 )ゲーム担当者からのこの注意部分は、人間が生成する怒号に対する AI が生成する雄叫びの出現。
)
B2B 生成 AI アプリの場合、これははるかに少ないです追加?: LLM が B2B アプリケーションの地球上で進化するであろうという仕組みの予測。ファイルを要約するという仮定を中心とした球形です。テキストの怒号を作るよりも、もっと大切にしてください。
金融商品や企業には、あなたが見ているよりも早く生成 AI が組み込まれるでしょう : 財団ファッションに関するスタンフォード概要論文。 長くて意見が多いにもかかわらず、これが時間の長さを形成しました。: 金融商品であるという議論企業業界は、パーソナライズされた個人エクスペリエンス、手数料効率の高い運用、コンプライアンスの向上、危険管理の改善、動的な予測とレポート作成のための生成 AI を教える態勢を整えています。 生成 AI: ネクスト パーソン プラットフォーム : 治療から e コマースまで、さまざまな分野にわたる個人市場に影響を与える生成 AI の代替案を精査しています。
- 賢明なケアにおいて確固たる区別を確立するには、AI は私たちの青写真を尊重することを学ぶ必要があります
: AI病気を未然に防ぎ、治療するために私たちがどのように覗くかを取り返しのつかないほど交換する用意ができています。 しかし、実際に創薬から医療提供へと変化するには、現時点で最も器用な医師や製薬会社の青写真を尊重することを学習する「専門家」AI のエコシステムを台頭させるために、私たちは資金を投入することに耐えることができます。- ) 独自の産業革命:バイオ×AI
: 人類史上の次の産業革命は、人工知能を活用した生物学となるでしょう。その他の観点
- AI ファイルの変換: AI で発生するすべての要素と、スキルのブレークスルー、業界の種類、政治/規制、経済への影響、セキュリティ、予測をまとめた年次総括
GPT は GPT です: 労働市場への影響の初期のピーク多言語デバイスの能力 : OpenAI、OpenResearch、ペンシルベニア大学の研究者らによるこの論文は、「地球の 80% が球状である」と予測しています。米国の乗組員は、LLM の導入によって影響を受ける勤務義務の 10% 未満は減らないでしょうが、約 19% の労働者は、影響を受ける義務の 50% しか減らないことをおそらくよく考えています。」- 徹底した治療: 人工知能はどのようにして再び人間の医療を集めることができるのか : エリック・トポル博士は、人間が作った知能が、人間のつながりを妨げる時間の無駄な義務から医師を解放する能力をどのように備えているかを明らかにします。 医師と患者の関係が回復します。 ( a16z ポッドキャスト)
現在私たちが注目している前代未聞の AI 製品の多くは、むしろ前例のない学習、実装の影響です。幅広い企業や主要大学内のコンサルタントによる。 最近では、コンピューター化されたブローカーの台頭や、デバイスをより小さなハードウェアの設置面積に移植するなど、メンバーや開始元のソース コミュニティが、きちんと気に入ったプロジェクトを独自の指示に組み込む素晴らしい取り組みも見てきました。
ここでは、実際に生成 AI を深く掘り下げなければならない人々のために、これらの論文やプロジェクトの多くをまとめたシリーズを紹介します。 (学習に関する論文やプロジェクトについては、アクセス可能な場合は付随するブログ投稿や Web サイトへのハイパーリンクも統合しました。これらは、高い段階での問題を伝える傾向があります。また、有名な出版年も統合しました。チャンスがあれば、時間をかけて基礎学習を追跡します。)
大量の言語デバイス
現代のデバイス 必要なのは考慮だけです (2017): 有名な変圧器の仕事をし、すべての始まりとなった Google Brain の論文を学びましょう。 ( ブログをアップしました )
BERT: 言語思考のための深い双方向トランスフォーマーの事前コーチング (2018): 多くの主要な公的にアクセス可能な LLM の 1 つであり、現時点では多くのバリアントがクリーンに教えられています。 (
ブログをアップしました)生成的プレコーチングによる言語思考の強化
(2018): LLM のドミナント タイプ ルートに変化した GPT 構造を保存する OpenAI の最初の論文。 ( ブログをアップしました)
- 言語デバイスは初心者です
(2020): GPT-3 とデコーダに最も便利な構造について説明した OpenAI 論文 人間の提案による指示を認識するように言語デバイスをコーチング (2022): InstructGPT について説明した OpenAI の論文。ループ内のメンバーを利用してデバイスに教えるため、プロンプト内の指示をよりよく認識できるようになります。 これは確かに、パトロンが LLM にアクセスできるようにする主要なロック解除のいくつかに変更されました (たとえば、ChatGPT のプロセスによって)。 ( ブログをアップしました)- LaMDA: 対話アプリケーション用の言語デバイス (2022): Google が設計した、つまり無料のマネキンの青写真膨大な量の問題にわたる人間とチャットボットの間の対話。 ( ブログをアップしました )
)
ブログアップしました)- PaLM: パスウェイを使用したスケーリング言語モデリング (2022): Google の PaLM は、数百のチップにわたって LLM をコーチングするためのブランド独自のシステムを利用し、マネキンの寸法としての特定の義務について予想を上回る機能強化を実証しましたスケールアップされました。 ( ブログをアップしました
- OPT: 事前トレーニング済み Transformer 言語デバイスの開始
(2022): OPT は、完全にスタート ソース LLM を実行するトップの数であることは間違いありません。 この 1,750 億パラメータのマネキンの解放にはコードが付属しており、公開されているデータセットでトレーニングされたものに変更されています。 ( ブログアップしました) (2022): チンチラの論文。 これにより、事実上すべてのデバイスがファイル制限を受け、コンピューティング制限がなくなり、LLM スケーリングに関するコンセンサスが変更されたことが主張されます。 (
)。 も参照してください。 PaLM-2技術資料.
- GPT-4 技術文書
LLaMA: 効率的な基礎言語デバイスの開始
(2023): スタートソース LLM 革命を (事実上) 開始した Meta のマネキン。 非常に多くの便利なクローズドソース デバイスと競合しますが、最も便利なものは制限されたライセンスで研究者に配布されています。 ( ブログをアップしました ) アルパカ: 安定した複製可能な指示に従うマネキン (2023): スタンフォード大学を出たこのマネキンは、純粋なスケールとは対照的に、特に小型のスタート ソース デバイスにおける命令チューニングの活力を示しています。 - 言語デバイスの強化数兆のトークンから取得 (2021): 「Retrieval Enhanced TRansfOrmers」を意味する RETRO は、もう 1 つの目的であり、これは DeepMind によるもので、コーチングに組み込まれなくなったファイルへのアクセスを取得することで LLM の精度を向上させます。ファイル。 ( ブログをアップしました
- LoRA: 広範な言語デバイスの低害性適応
(2021): Microsoft からの学びにより、ユーザー向けの眩しいチューニングへの非常に効率的な変更が開始されました。固有のファイルに関する LLM のコーチング。 それは現在、コミュニティの眩惑調整、特に描写デバイスの標準に変わりつつあります。 - 憲法 AI (2022) : Anthropic の担当者は、AI フィードバックから見つけ出す強化の考えを導入します。 (RLAIF)。 支配的な考え方は、私たちは多様な AI の監督下で無邪気な AI アシスタントを組み立てられる立場にあるというものです。
- Flash注意: Mercurial でメモリ効率が高いIOを意識した徹底した配慮
(2022): スタンフォード大学からのこの学びは、最先端のデバイスが長いテキストのシーケンスを尊重するための扉を開きました法外な指導時間や費用をかけずに、以下のような(そして決意を高めた写真を)撮影できます。 ( ブログをアップしました) お腹を空かせたカバ:関連領域デバイスによる言語モデリングの方向性 (2022): 再びスタンフォード大学からのこの論文では、言語モデリングで考慮すべき主な決定事項のいくつかについて説明しています。 ここに、スケーリングとトレーニングの効果を向上させるための有望な方法があります。 (ブログをアップしました) )イメージスキルデバイス (2021): を紹介する論文不道徳なマネキン — CLIP — テキストの説明を写真にハイパーリンクします。 コンピュータ ビジョンにおける基本デバイスを教示する、多くの主要で有利な大規模な製品のうちの 1 つ。 ( )ブログをアップしました)
- ゼロショットのテキストの怒鳴り声から描写までのスキル
潜在拡散装置による過剰な決意描写合成 (2021) :Right Diffusion(発射後と爆発的スタートソースブースト後)を記載した論文。- 深い言語思考を備えたフォトリアリスティックなテキストのベローから描写への拡散装置
(2022): Imagen は、Google の AI 描写スキルへの進出に修正されました。 発表から 1 年以上が経過しましたが、この部分の公開日の時点で、このマネキンはまだ一般公開されていません。 ( ウェブページ)- テキストのベローからポートレートへの拡散デバイスに注目した条件付きヘルプを追加します (2023): スタンフォード大学のこの論文では、潜在的な拡散デバイスを使用したオーバー描写スキルに目を向けて、まばゆい粒子のヘルプを実行するための、現在非常にきちんと気に入っている装置である ControlNet を紹介しています。
- 広範な言語デバイスの評価コードでトレーニング済み(2021): ここは、GitHub Copilot 製品の後のコードスキルマネキンである Codex に関する OpenAI の学習文書です。 ( ブログをアップしました) AlphaCode を使用した対戦相手ステージのコード スキル
(2021): DeepMind からの学びは、マネキンが人間のプログラマーよりも優れたコードを書くのに役立つことを示しています。 (ブログアップしました )- CodeGen: マルチフリップ プログラム合成を使用したコード用の広範な言語の開始マネキン (2022): CodeGen は Salesforce の AI 学習部門から生まれ、当面は、Replit Ghostwriter 製品のコード スキルをサポートします。 (ブログアップしました)
ビデオスキル
- Device-A-Video: テキストからビデオへのスキルテキストのビデオ ファイルなし (2022): Meta のマネキン。テキストのうなり声のプロンプトから即座にビデオを作成しますが、静的な写真入力に循環を追加したり、ユニークなビデオのバリエーションを作成したりすることもできます。 ( ブログをアップしました ) )
Imagen Video: 拡散装置を使用した過剰な解像度のビデオスキル
(2022): 事実それが聞こえるものを尊重します。Google の描写主ベースの完全にほとんど Imagen マネキンのバージョンで、テキストのうなり声のプロンプトから即座にビデオを作成するために最適化されています。 ( ウェブページ)
人間の生物学と科学ファイル
- プレコーチンググラフニューラルネットワーク用プログラム (2020): この出版物分子特性予測やタンパク質の正直な予測に似た、創薬全般にわたるアプリケーションに適した有利なプレコーチング システムの基礎を築きました。 (ブログアップしました)
)
深層解明による可能性を活用したタンパク質構築予測の改善
( 2020): DeepMind のタンパク質中心のトランスフォーマー マネキン AlphaFold は、配列からタンパク質の構築を予測できるようになりました。これは事実上の前進であり、思考生物学的プロセスや病気に対する独自の治療法の構築にすでに広範な影響を及ぼしています。 ( ブログアップしました) (
説明者)
- 大量の言語デバイスがエンコード臨床ファイル (2022): Med-PaLM は、おそらく米国医師免許試験に解答する可能性があるため、役立つ LLM です。スタイルの質問。 その後、担当者は Med-PaLM2 の効率に関する結果を発表し、「教育を受けた」受験者と同等のランキングを実施しました。 他のチームは
- )
ジュークボックス: トラック用の生成マネキン (2020): OpenAI はトランスフォーマーを利用したトラック スキルに進出し、最小限のコーチングでトラック、ボーカル、歌詞を制作するのに役立ちます。 ( ブログをアップしました )
AudioLM: オーディオスキルを達成するための言語モデリング (2022): AudioLM は、音声や楽器演奏とともに、複数の種類のオーディオを生成するための Google プロジェクトです。 ( ブログアップしました )
- MusicLM: テキストから nusic を生成ベロー ) (2023): AI の最新鋭で、主に完全にほぼ追跡スキルに基づいており、高い品質と一貫性を示しています。時代遅れよりも努力します。 ( ブログをアップしました )
多次元描写スキル
- NeRF: シーンの表現合成に関するみなし神経放射フィールドとして
(2020): カリフォルニア大学バークレー校主導の担当者による「先進的なシーンの独自の視点の統合」に関する比較」 5次元座標を活用。 ( ウェブページ)
- )
DreamFusion: 2D 拡散を利用した Text-to-3D
(2022): Google とカリフォルニア大学バークレー校の研究者による研究で、NeRF を基盤として 2D 入力から 3D 写真を生成します。 ( ウェブページ)
特に
ジャック・ソスロー
、
ジェイ・ルガーニ 、
マルコ・マスコロ、 マーティン・カサド、ラジコ・ラドヴァノビッチ、 と ビジェイ・パンデ この部分への貢献に対して、および合計 a16z スタッフが、最新の AI に関して常に有益な対話を行っています。 そして のせいでソナル・チョクシ と、同社の長期にわたる一連の規範を構築するための暗号担当者。
以下にリストされている見解は、実際の人物、AH Capital Management, LLC (「a16z」) の担当者の見解です。引用されており、a16z またはその関連会社の見解ではなくなります。 ここに含まれる個別のファイルは、a16z が管理するファンドのポートフォリオ会社からだけでなく、3 歳の誕生日のお祝いの情報源からも購入されました。 有利と考えられる情報源から取得したものですが、a16z はそのようなファイルを独自に検証しておらず、 思考の永続的な正確さ、または与えられた危険に対するその適切さ。 さらに、この叫び声には、おそらく 3 歳の誕生日のお祝いの広告が含まれる可能性が十分にあります。 a16z はそのような案内広告の審査を行っておらず、そこに含まれる以下の広告を推奨しません。
)
この以下は、最も便利な情報アプリケーションとして装備されており、ライセンスが付与されているものとしてはおそらくもう信頼できないかもしれません。 、業界、投資、税金に関するアドバイス。 これらの問題については、個別のアドバイザーに相談してください。 証券やデジタル リソースへの参照は、最も便利なアプリケーションの説明のためのものであり、青写真は投資アドバイスを構成したり、投資顧問商品や企業を組み立てるために提供したりするものではありません。 さらに、この怒号はもはやいかなる消費者や能力のある消費者に向けられたものでも、教えることを意図したものでもありません。おそらく、a16z が管理するファンドに資金を投入する決定を下す際に信頼できる条件を下回ることはおそらくないでしょう。 (a16z ファンドに資金を投入するオファーは、この種のファンドの最も深い配置覚書、サブスクリプション契約、および多様な関連文書によって最も簡単に作成されるものとし、その全体を読む必要があります。) 言及されている、参照されている投資またはポートフォリオ会社はすべて読む必要があります。 a16z が管理する車両へのすべての投資を常に代表するものではなく、その投資が有利であるという保証や、適切な方法で行われた分散投資が同一の特性や結果をもたらすという保証さえありません。 Andreessen Horowitz が管理するファンドによって行われた投資のチェックリスト (上場デジタル リソースへの未発表投資と同様に、発行者が a16z に賢明に公的に配信する許可を与えていない投資を除く) は、https://a16z.com/ からアクセスできます。投資/.
内部に装備されているチャートやグラフは完全に情報提供用であり、投資判断を行う際にはおそらく今後は信頼できない可能性があります。 過去の効率はもはや将来の成果を示すものではありません。 以下は、示された日付の時点で最も分かりやすく話します。 これらの資料に記載されている予測、推定、予測、目標、可能性、および/または意見は、覗き見せずに取引するための規律であり、おそらく他の人が表明した意見とは異なるか、反対である可能性があります。 追加された基本ファイルについては、https://a16z.com/disclosures をご覧ください。
- DreamBooth: 規律を重視したスキルを実現するためのテキストのベローから描写までの拡散デバイスを正直に調整します
エージェント
- 自己十分な機械知能の方向への道
(2022): メタ AI リーダーでニューヨーク大学教授のヤン・ルカン氏からの提案。エリアを間違いなく球体として認識する、自己完結型で輝くブローカーを生み出す方法について。 - ReAct: 言語デバイスでの推論と実行の相乗効果 (2022): プリンストンと Google によるプロジェクトで、 LLM の推論および計画能力。 (ブログをアップしました) )生成ブローカー: 人間の行動のインタラクティブなシミュレーション
(2023): スタンフォード大学とグーグルの研究者は、「ザ・シムズ」に関連した雰囲気の中で、LLM をバイタリティブローカーとして時代遅れにし、その相互作用はプログラムされたものより合理的に出現するものでした。 (2023): Meta が訓練したこのプロジェクトLLM は、外部機器 (この場合、検索エンジンと計算機に関する問題を指摘する API) を教育することで、マネキンの寸法を増加させることなく精度を向上させることができます。- )反射: 動的な記憶と内省を備えた自己十分なエージェント (2023): ノースイースタン大学と MIT の研究者による研究で、LLM が間違いや過去の経験から見つけ出すことで、より確実に考慮事項を解決できるように指導しています。 ツールフォーマー: 言語デバイスは楽器を教えるために自らを宣言することができます
Auto-GPT: 自己完結型 GPT-4 実験
: 開始ソース実験GPT-4 に一連の手段 (サイバー Web の収集許可、ファイル ストレージなど) を与え、特定のジョブを解決するためにエクスポーズでどの手段を教えるかを決定することで、GPT-4 の機能を拡張します。- BabyAGI
コードスキル
人間の好みから判明する深層強化 (2017): ゲームとロボット工学のコンテキストで発見された強化を比較します。これは、LLM にとって前例のない工夫であると判明しました。 検索-ファイル集約型の NLP 義務に対するスキルの強化 (2020): Facebook によって開発された RAG は、ファイル取得のプロセスによって LLM の精度を向上させるための 2 つの主要な学習パスのうちのいくつかであることは間違いありません。 ( ブログをアップしました)
)
: 建設に最適なルートLLM ベースの完全にほとんどのアプリケーションは Charles Frye、Sergey Karayev、Josh Tobin を使用しています。
LLM ベンチマーク
)
: Hugging Face によるランキング。一連の通常のベンチマーク全体で開始ソース LLM を比較し、義務。
私たちは皆、生成 AI が収集できるものに驚嘆していますが、それでも、 に関する質問は山ほどあります。 何の工夫だろう 。 どの商品や企業が今後も存続し、繁栄していくでしょうか? アーティストはどうなるのでしょうか? 企業は清掃に耐えることをどのように教えられるでしょうか? 実際に仕事や社会全体にどのような影響を与えるのでしょうか? 以下に、これらの質問に答えるために努力している人たちをリストします。
生成 AI プラットフォームの所有者は誰ですか? : 料金が発生する場所に関する主なレビュー。生成 AI のインフラストラクチャ、マネキン、ユーティリティ層で、かなりの量が発生します。
): さらに、Karpathy からは、ChatGPT / GPT デバイスが通常の作業でどのように使用され、どのように教えられるかについて、非常にわかりやすく説明されています。そして、研究開発部がおそらくどのような指示を出す可能性があるでしょうか。
これらのリソースは、深い調査の基本から AI コンサルタントによる教員段階のクラスまで、機械による調査と AI に関する重要な提案に関する不道徳な考えを示しています。
: Nvidia によるこの 4 部構成のシーケンスでは、詳細な調査の基本を説明します。 2015 年に実施されており、個人が AI について正しく知るためのライセンス付きリソースです。
: Andrew Ng による機械学習の紹介。機械による発見の基本を学びます。
LLM がどのように機能するかを伝えるために、非常に多くのリソースがあり、その中には他のリソースよりも優れたものもあります。 以下に、読者/視聴者の幅広い好みに焦点を当てた、お気に入りのいくつかを示します。
図解の右拡散 :
写真用の生成 AI マネキンの最も一般的な形式である潜在拡散デバイスの紹介。
: Chip Huyen 氏は、LLM が非常に予測可能で人間に適したシステムで動作することを収集する RLHF について説明しています。 ここには、ChatGPT に関するシステムの最大の、にもかかわらずあまり理解されていない側面がいくつかあります。
- 人間の提案から判明した補強
: PC 科学者で OpenAI の共同創設者である John Shulman が、最近の関連性と進歩についてのこの膨大な講演でさらに深く掘り下げています。 RLHF を伴う LLM の障害。 プログラム
スタンフォード CS324: かなりの言語ファッションPercy Liang 氏、橋本達氏、Chris Re 氏と共同で、LLM の技術的側面と非技術的側面の幅広い好みを維持しています。