デスクトップ CPU、セルラー CPU、セルラー GPU 向けの AMD の広く期待されているクライアント製品の発表に加えて、AMD の CEO であるリサ・スー博士は、高い CES 基調講演のために集まった巨大な群衆に衝撃を与えました。 MI300 でピークに達し、AMD の後続能力データ ハート APU は、パターンを下回る平均時間内にあります。 シリコンを文字通り手元に置いて、急いでティーザーはフラグメントの基本仕様をレイアウトし、HPC 市場内で管理を行うという AMD の意図を繰り返しました。 2022 年 6 月の Financial Analyst Day の支援 MI300 は、AMD の CPU と GPU の応用科学を適切に組み合わせて、壮大なデータ ハート/HPC クラスの APU を構築する AMD の最初の試みです。 当時レイアウトされていたように、MI300 は、TSMC の 5nm 方向に構築されたチップレットのペアを使用し、3D ダイ スタッキングを使用して悪質なダイ上にそれらを配置することで、分割された形式になる可能性があります。オンバンドルの HBM メモリと組み合わせて、AMD の手持ちのメモリ帯域幅を最大化します。
AMD のフラグメントは、CPU と GPU の能力を組み合わせることに慣れています。コンピューターの CPU/APU の数ですが、これまでにないほどの巨大なスケールで実行されたことはありません。 AMD 独自の理想的なクラスの HPC ハードウェアは、ディスクリート AMD Instinct MI250X (GPU で最もシンプルな製品) と AMD の EPYC CPU を組み合わせたものであり、これはまさに Frontier スーパーコンピューターやその他の HPC イニシアチブで実行されてきたものです。 反対に、MI300 は次のステップであり、2 つのプロセッサ フォームを 1 つのバンドルにまとめ、実際には MCM タイプにそれらを配線することはありませんが、TSV スタック ダイを使用して非常に優れたチップレット ルートをたどります。
今夜のデモンストレーションの重要な点は、最初の生産に達し、現在AMDのラボで立ち上げ中のMI300シリコンを非常に高く評価していることを確認することでした. AMD は以前、MI300 を 2023 年に開始することを約束しており、ファブからのシリコンの支援を受けて組み立てられたことは、AMD がその供給日を達成するために正しい方向に向かっていることを示しています。
MI300 でシャットアウト (画像提供: Tom’s Hardware)
巨大なチップを直接 (または少なくともビデオローミングで) 精査する機会に加えて、Dr. Su からの簡単なティーザーには、ハードウェアに関していくつかの現代的な際どい小さなプリントが追加されています。 . 1,460 億個のトランジスタを搭載した MI300 は、AMD がこれまでに構築した理想的かつ最先端のチップであり、複雑さはありません。 ユニークなチップ設計と最も単純に比較することはできますが、Intel の 100B トランジスタ Xeon Max GPU (Ponte Vecchio) や NVIDIA の 80B トランジスタ GH100 GPU よりもはるかに多くのトランジスタがあります。 公平を期すために、AMD は GPU と CPU の両方をこのフラグメントに詰め込んでいます
MI300 の CPU の側面は、AMD の Zen 4 CPU コアのうち 24 個を間接的に通知することが確認されています。 CPU スループットに関して何を予測すべきかについて比類のないアイデアを提供してくれます。 一方、GPU の側面は (静かに) CDNA 3 構造の CU の未公開の代替品を使用しています。 これはすべて、128GB の HBM3 メモリとペアになっています
AMD に合わせて、MI300 は 9 つの 5nm チップレットで構成され、4 つの 6nm チップレットの上に配置されています。 5nm チップレットは確かに、CPU チップレットや GPU チップレットなど、計算に優れた判断力のあるチップレットです。 この時点での内部キャパシティ ベットは、おそらく 3 つの CPU チップレット (それぞれ 8 つの Zen 4 コア) と 6 つの GPU チップレットを組み合わせたものになる可能性があります。 説明されていないいくつかのキャッシュチップレットは静かですが。 一方、AMD の「上にある」主張を文字通りに解釈すると、6nm チップレットは、これらすべてが上にある悪質なダイになります。 AMD のレンダリングに合わせて、8 つの HBM3 メモリ スタックが動作していることに感心しているように見えます。これは、追加ではないにしても、約 5TB/2d のメモリ帯域幅を意味します
効率の期待に関して、AMD は現時点では現代的なリラクゼーションを主張していません。 以前の主張は、MI250X と比較して 1 ワットあたりの AI 効率が 5 倍以上向上し、AI コーチング効率が合計で 8 倍以上向上したことでした。AMD が CES の時点で主張していることは、ここでは静かです.
AMD の形式で重要なのは、CPU コアと GPU コアを類似の形式に配置する操作の単純さであることに加えて、これにより、両方のプロセッサ形式が高トレックで低遅延の統合型プロセッサに接続できることです。思い出の家。 これにより、CPU コアと GPU コアの間でデータを迅速かつ簡単に受け渡すことができるようになり、それぞれが理想とするコンピューティングの側面に取り組むことができます。 同様に、両方のプロセッサ フォームが類似のメモリ プールへのエントリの取得を確認することにより、ソケット ステージでの HPC プログラミングが大幅に簡素化されます。そして身体的に統一された記憶のホーム。 AMD FAD 2022 スピン
2023 年後半に発売される AMD の MI300 は、いくつかの競合製品に対抗することが予想されます。 その中で最も重要なのは、間違いなく NVIDIA の Grace Hopper スーパーチップ で、NVIDIA Armv9 Grace CPU とホッパー GPU。 分割メモリ プールを奨励する NVIDIA の解決策にはメリット (たとえば機能) がないわけではありませんが、NVIDIA は、AMD と同様の統合段階を適度に過ぎていません。 一方、AMD のタイム テーブルは、ライバルの Intel の Falcon Shores XPU、これは 2024 年まで期限がありません。
AMD から到着月以内に Instinct MI300 に関する巨大な取引を聞くために質問を設定してください。彼らの非常にハングを断言するために、彼らの最も野心的なプロセッサを称賛するので、ある程度の距離があります.