Nvidia の CEO である Jensen Huang は、2018 年 1 月 7 日にラスベガスで開催された CES 2018 の MGM での記者会見を通じて、すべての手順について話します。
マンデル・ガン | AFP | Getty Pictures
パッセージを書きそうなツール人間が作成した愛を探求するテキストや写真の計画は、能力業界で黄金の喧騒を引き起こしました. OpenAI や Stable Diffusion に匹敵する 10 億ドルのライバルが前進し、最終的な一般向けのユーティリティを開始するにつれて、Google のようなエンジンに組み込まれます。アンリアル インテリジェンス業界で最も極端なツールの 1 つに成長したチップ: Nvidia A100.
A100 は、人工知能の専門家の「主力製品」に成長しました。その間に、ニュースレターと
A100 は、エネルギー ツールが好むオブジェクトを大雑把に研究するための究極のツールです ChatGPT、Bing AI、または安定拡散。 コーチングとニューラル ネットワーク オブジェクトの使用でよく知られている、多くの簡単な計算を同時に台無しにする準備ができています。ビデオゲームで洗練された 3D グラフィックスをレンダリングする可能性があります。 これは継続的にグラフィックス プロセッサまたは GPU と呼ばれていますが、このショーの日の Nvidia の A100 は、機械学習の責任に焦点を合わせて構成され、記録的な快適さで実行され、もはや内部の優れたゲーミング PC ではありません.
ユーティリティ ラブ チャットボットとイメージ ミルに取り組んでいる背の高い企業や新興企業は、Nvidia のチップを大量または数百個必要とし、それらを盗むか、クラウド サプライヤからコンピュータへのエントリを適切に取得します。
このようなAI 企業は、A100 程度に参入する必要があります。 プレースメントの一部の起業家は、進歩の合図として、A100 へのエントリーを取得する必要性を探っています. AI の CEO である Emad Mostaque は 1 月に Twitter に書き込みました。 「象のような夢を見て、Moar GPU の子供たちを積み上げてください。Brrr.」 Stability AI は、最後に注目を集めた高速発電機である Stable Diffusion の構築を支援した会社であり、伝えられるところによると
の評価を得ています。 10 億ドル以上
現在、Stability AI は 5,400 以上の A100 GPU へのエントリーを取得しています から 1 つの見積もり まで、Command of AI ドキュメントから、どの企業や大学が最も注目されているかをチャート化して追跡します- A100 GPU のシーケンスを取得します — たとえそれがクラウド サービスを含まないとしても、それらの番号を公開することはもうありません.
Nvidia は、 AI のハイプ サイクルの収入。 水曜日の会計第4四半期の決算書類で全て手続き、総売上高が 21% 減少したとしても、商人は enjoy を約 14% 木曜日に、基本的に同社の AI チップ業界 (記録的な設備として報告されている) が、四半期のすべての手順で 11% 増加して 36 億ドルを超える売上高を記録し、持続的な進歩を示したことが理由です
Nvidia の株価は 2023 年のこの時点までに 65% 上昇しており、S&P 500 や他の半導体株を上回っています.
Nvidia の CEO である Jensen Huang は、水曜日にアナリストと名前を挙げて AI について話すのをやめないでください。これは、人工知能における現代の通知が会社の戦略の根幹にあることを示唆しています.
「AI に関する仕事我々が構築したインフラストラクチャであり、Hopper と Ampere を使用して山岳言語オブジェクトをハンドブックするための推論に関する仕事は、長い間ロサンゼルスの屋根を通り過ぎました。 st 60 日」と Huang 氏は語った。 「今年に入ってからの今年の見方が何であれ、過去60、90日間に起因して劇的に変化したことはほとんどありません.」
アンペアはNvidiaのA100世代のチップのコードネーム。 ホッパーとは、現在輸送を開始しているH100を含む新世代のコードネームです
追加のコンピューターが必要ですNvidia A100 プロセッサ
Nvidia
他の効用とは対照的に、奉仕を愛するときほぼ瞬間的にマイクロ秒のバーストで処理エネルギーを使用するWebページ、機械学習の責任はラップトップの総処理エネルギーを所有できます 、通常、数時間または数日間。
この種の企業は、自分自身をランク付けしますヒットした AI 製品を使用しているユーザーは、高いセッションに対処したり、オブジェクトを保護したりするために、より多くの GPU を継続的に利用する必要があります.
これらの GPU は安くはないようです. さらに、現在のサーバーに挿入することさえできるカード上の単一の A100 では、多くのレコード アメニティが、8 つの A100 GPU が連携して動作することを伴うガジェットを使用しています。
この方法論は、Nvidia の DGX A100、仮想的に推奨マークあり必要なチップが付属していると仮定しても、200,000 ドルです。 水曜日に、Nvidia は、DGX システムへのクラウド取得の参入を促進する可能性があると話しました。
例として、Unusual Avenue Learn からの見積もりでは、OpenAI ベースの基本的に基本的に ChatGPT マネキンの内部 Bing の検索には 8 つの GPU が必要になる可能性があることがわかりました。
その支払いで、Microsoft は 20,000 以上の 8-GPU サーバー セクシーな Bing でマネキンをすべての人に展開する必要があります。 、Microsoft の特徴はインフラストラクチャ支出で 40 億ドルをマークする可能性があることを示唆しています。 Bing の規模は 40 億ドルに見えますが、80 億ドルから 90 億ドルにサービスを提供している Google の規模に合わせるのが好きな方も多いでしょう。 毎日 n 回のクエリを実行するには、DGX で 800 億ドルを完全に活用する必要があります。」 は、Unusual Avenue Learn の能力アナリストである Antoine Chkaiban について話しました。 「私たちが思いついた数字は膨大です。しかし、それらは単に、山岳言語のマネキンのような特定の人が使用している間、大規模なスーパーコンピューターが必要であるという否定できない事実を反映したものです。」
おそらくStable Diffusionの最新モデルである高速発電機がの教育を受けたものに変更されました) 256 A100 GPU、またはそれぞれ 8 つの A100 を備えた 32 台のマシンで、Stability AI によってオンラインで投稿された知識と歩調を合わせて、合計 200,000 コンピューティング時間。
マーケット マークでは、マネキンのコーチングだけで 600,000 ドルをマークし、Stability AI の CEO である Mostaque が Twitter で話し、つぶやきスイッチ コストがライバルに比べて異常に安くなりました。 これには、「推論」やマネキンの展開のコストは含まれていません。
Nvidia の CEO である Huang 氏は、CNBC の Katie Tarasov とのインタビューで、Nvidia の商品は間違いなく安いと語っています。これらの形式のオブジェクトが必要とする計算の量について.
“そうでなければおそらく 10 億ドルのレコード センターで動作する CPU を取り、それを情報センターに縮小しました。 1億ドルです」とHuang氏は語った。 「今では、1 億ドルをクラウドで構築し、100 の企業が共有するとすぐに、まったく意味がありません。」
Huang 氏は、Nvidia の GPU によってスタートアップがオブジェクトを実践できるようになると述べました。老朽化し たラップトッププロセッサを脆弱にする場合よりも、強力で費用対効果の高いマークを求めて. 、1,000万ドル、2000万ドルの愛の何かのために」黄は話しました. 「それは間違いなく、間違いなく安いです」
異常なライバル
Nvidia はもはや、人工知能用の GPU を使用する正義の企業ではありません。の。 AMD と インテル ) には、競合するグラフィックス プロセッサや巨大なクラウド企業が含まれます愛 グーグル と アマゾン は成長しており、AI ワークロード用に特別に設計されたハング チップを展開しています.
Calm, 「AI ハードウェアは引き続き NVIDIA に強力に統合されています」、AI の命令
compute document に合わせて。 12 月の時点で、21,000 を超える開始ソースの AI 論文が、Nvidia チップの脆弱性について言及しています
A100また、国家保護の理由に起因する輸出規制を含めるために、チップに関して最も注目を集めるものの1つであるという区別もあります。 最後に、Nvidia は SEC で、米国当局が A100 と H100 の中国、香港、およびロシアへの輸出を禁止するライセンス要件を課したことを提出したことについて話しました
” USG は、新しいライセンス要件は、対象となる商品が、中国とロシアでの「民兵が使用を締結する」または「民兵が特定の人物を締結する」場合に脆弱である、または転用される可能性があるという脅威に対処するものであると示唆しました」と、Nvidia 投稿で話題になった。 Nvidia は以前、米国の輸出制限に合わせて中国市場向けに自社のチップを適応させたと話していた. A100 は、2020 年に最初に発表されました。これは、チップ サイクルの過去の永遠です。 2022年に発表されたH100は大量生産され始めている – 実際、Nvidiaは1月に終了する四半期にH100チップからA100よりも多くの収入を記録した.H100がユニットあたりのコストが高いと仮定しても.
Nvidia によると、H100 は、最新の高度な AI アプリケーションをロードする、ますますよく知られているシステムである変圧器用に最適化された、すべての記録の中心にある GPU の中で最初のものです。使用。 Nvidia は水曜日に、AI コーチングを 100 万 PC 以上速く構築する必要があると語った。 それを これは、最終的に、AI 企業がそれほど多くの Nvidia チップを必要としなくなることを意味しているのかもしれません.
Nvidia A100 プロセッサ
Nvidia
他の効用とは対照的に、奉仕を愛するときほぼ瞬間的にマイクロ秒のバーストで処理エネルギーを使用するWebページ、機械学習の責任はラップトップの総処理エネルギーを所有できます 、通常、数時間または数日間。
この種の企業は、自分自身をランク付けしますヒットした AI 製品を使用しているユーザーは、高いセッションに対処したり、オブジェクトを保護したりするために、より多くの GPU を継続的に利用する必要があります.
これらの GPU は安くはないようです. さらに、現在のサーバーに挿入することさえできるカード上の単一の A100 では、多くのレコード アメニティが、8 つの A100 GPU が連携して動作することを伴うガジェットを使用しています。
この方法論は、Nvidia の DGX A100、仮想的に推奨マークあり必要なチップが付属していると仮定しても、200,000 ドルです。 水曜日に、Nvidia は、DGX システムへのクラウド取得の参入を促進する可能性があると話しました。
例として、Unusual Avenue Learn からの見積もりでは、OpenAI ベースの基本的に基本的に ChatGPT マネキンの内部 Bing の検索には 8 つの GPU が必要になる可能性があることがわかりました。
その支払いで、Microsoft は 20,000 以上の 8-GPU サーバー セクシーな Bing でマネキンをすべての人に展開する必要があります。 、Microsoft の特徴はインフラストラクチャ支出で 40 億ドルをマークする可能性があることを示唆しています。 Bing の規模は 40 億ドルに見えますが、80 億ドルから 90 億ドルにサービスを提供している Google の規模に合わせるのが好きな方も多いでしょう。 毎日 n 回のクエリを実行するには、DGX で 800 億ドルを完全に活用する必要があります。」 は、Unusual Avenue Learn の能力アナリストである Antoine Chkaiban について話しました。 「私たちが思いついた数字は膨大です。しかし、それらは単に、山岳言語のマネキンのような特定の人が使用している間、大規模なスーパーコンピューターが必要であるという否定できない事実を反映したものです。」
おそらくStable Diffusionの最新モデルである高速発電機がの教育を受けたものに変更されました) 256 A100 GPU、またはそれぞれ 8 つの A100 を備えた 32 台のマシンで、Stability AI によってオンラインで投稿された知識と歩調を合わせて、合計 200,000 コンピューティング時間。
マーケット マークでは、マネキンのコーチングだけで 600,000 ドルをマークし、Stability AI の CEO である Mostaque が Twitter で話し、つぶやきスイッチ コストがライバルに比べて異常に安くなりました。 これには、「推論」やマネキンの展開のコストは含まれていません。
Nvidia の CEO である Huang 氏は、CNBC の Katie Tarasov とのインタビューで、Nvidia の商品は間違いなく安いと語っています。これらの形式のオブジェクトが必要とする計算の量について.
“そうでなければおそらく 10 億ドルのレコード センターで動作する CPU を取り、それを情報センターに縮小しました。 1億ドルです」とHuang氏は語った。 「今では、1 億ドルをクラウドで構築し、100 の企業が共有するとすぐに、まったく意味がありません。」
Huang 氏は、Nvidia の GPU によってスタートアップがオブジェクトを実践できるようになると述べました。老朽化し たラップトッププロセッサを脆弱にする場合よりも、強力で費用対効果の高いマークを求めて. 、1,000万ドル、2000万ドルの愛の何かのために」黄は話しました. 「それは間違いなく、間違いなく安いです」
異常なライバル
Nvidia はもはや、人工知能用の GPU を使用する正義の企業ではありません。の。 AMD と インテル ) には、競合するグラフィックス プロセッサや巨大なクラウド企業が含まれます愛 グーグル と アマゾン は成長しており、AI ワークロード用に特別に設計されたハング チップを展開しています.
Calm, 「AI ハードウェアは引き続き NVIDIA に強力に統合されています」、AI の命令
compute document に合わせて。 12 月の時点で、21,000 を超える開始ソースの AI 論文が、Nvidia チップの脆弱性について言及しています
A100また、国家保護の理由に起因する輸出規制を含めるために、チップに関して最も注目を集めるものの1つであるという区別もあります。 最後に、Nvidia は SEC で、米国当局が A100 と H100 の中国、香港、およびロシアへの輸出を禁止するライセンス要件を課したことを提出したことについて話しました
” USG は、新しいライセンス要件は、対象となる商品が、中国とロシアでの「民兵が使用を締結する」または「民兵が特定の人物を締結する」場合に脆弱である、または転用される可能性があるという脅威に対処するものであると示唆しました」と、Nvidia 投稿で話題になった。 Nvidia は以前、米国の輸出制限に合わせて中国市場向けに自社のチップを適応させたと話していた. A100 は、2020 年に最初に発表されました。これは、チップ サイクルの過去の永遠です。 2022年に発表されたH100は大量生産され始めている – 実際、Nvidiaは1月に終了する四半期にH100チップからA100よりも多くの収入を記録した.H100がユニットあたりのコストが高いと仮定しても.
Nvidia によると、H100 は、最新の高度な AI アプリケーションをロードする、ますますよく知られているシステムである変圧器用に最適化された、すべての記録の中心にある GPU の中で最初のものです。使用。 Nvidia は水曜日に、AI コーチングを 100 万 PC 以上速く構築する必要があると語った。 それを これは、最終的に、AI 企業がそれほど多くの Nvidia チップを必要としなくなることを意味しているのかもしれません.