2023 インテル テクノロジー イノベーション カンファレンス: 開発者による AI のユビキタス化を支援

現地時間9月19日、2023年インテル・オン・テクノロジー・イノベーション・カンファレンスが米国カリフォルニア州サンノゼで開幕した。開発者向けのこのカンファレンスで、インテルは AI をユビキタス化し、クライアントやエッジからネットワークやクラウドアプリケーションに至るすべてのワークロードにさらに浸透させることを目的とした一連の新テクノロジーを発表しました。

インテル コーポレーション CEO のパット ゲルシンガー氏は、開会の基調講演で「AI は新しい時代の到来を表しています。AI は世界的な成長の新しい時代を生み出しています。この新しい時代では、コンピューティング能力が向上しています。」と述べました。 「すべての人にとってより良い未来において、より重要な役割が与えられます。開発者にとって、これは、より多くの可能性を生み出し、世界の主要な課題に対する解決策を生み出すための大きな社会的およびビジネスチャンスをもたらします。そして、地球上のすべての人類の利益にもなります。」

冒頭の基調講演でゲルシンガー氏は、インテルが自社のさまざまなハードウェア製品に AI 機能を追加し、オープンなマルチアーキテクチャ ソフトウェア ソリューションを通じて AI アプリケーションの普及を促進している方法をデモンストレーションしました。キッシンジャー氏はまた、「チップとソフトウェアによって推進される成長する経済形態」を指す「コア経済」の促進におけるAIの役割も強調した。現在、チップは 5,740 億ドルの産業を形成し、約 8 兆ドルの世界的なテクノロジー経済を推進しています。

処理、パッケージング、およびマルチダイ ソリューションの最新の進歩

「コア経済」の精力的な発展は、チップ技術の革新から始まります。キッシンジャー氏は、Intelの「4年間で5つのプロセスノード」計画は順調に進んでおり、Intel 7は大規模な量産を達成し、Intel 4も量産準備が整い、Intel 3も計画通りに進んでおり、目標は2018年末であると述べた。 2023年。

基調講演中、ゲルシンガー氏は、インテル 20A プロセス ノードをベースにしたインテル Arrow Lake プロセッサのテスト チップの最初のバッチもデモしました。Arrow Lake は 2024 年にクライアント市場向けに発売される予定です。Intel 20A は、PowerVia 裏面電源テクノロジと新しいオールラウンド ゲート トランジスタのリボン FET を適用する最初のプロセス ノードになります。これら 2 つのテクノロジーも使用する Intel 18A プロセス ノードも計画通りに進捗しており、2024 年後半には生産の準備が整う予定です。

製造プロセスに加えて、インテルがムーアの法則を推進するもう 1 つの方法は、ガラス基板などの新しい材料と新しいパッケージング技術を使用することです。これはインテルが今週発表したばかりの画期的な進歩です。ガラス基板は 2020 年代後半に導入され、単一パッケージ内のトランジスタ数が増加し続け、AI などのデータ集約型の高性能ワークロードのニーズを満たすのに役立ち、2030 年以降もムーアの法則を推進し続けます。

ガラス基板検査装置

インテルはまた、Universal Core Interconnect Express (UCIe) オープン仕様に基づいたテストチップのパッケージングも実証しました。キッシンジャー氏は、ムーアの法則の次の波はマルチチップパッケージング技術によって推進され、オープンスタンダードがIP統合の障害を解決できれば、それは間もなく現実になるだろうと述べた。昨年発表された UCIe 標準により、さまざまなメーカーのチップが連携して、新しいチップ設計によるさまざまな AI ワークロードの拡張ニーズに対応できるようになります。現在、UCIe オープン スタンダードは 120 社以上の企業によってサポートされています。

このテスト チップには、Intel 3 プロセス ノードに基づく Intel UCIe IP チップと、TSMC N3E プロセス ノードに基づく Synopsys UCIe IP チップが統合されています。これらのダイは、EMIB (Embedded Multi-die Interconnect Bridge) の高度なパッケージング技術によって相互接続されています。Intel Foundry Services、TSMC、および Synopsys は、オープン スタンダードに基づいたコア エコシステムをサポートするという 3 者のコミットメントを反映して、UCIe の開発を促進するために協力しました。

パフォーマンスの向上によりあらゆる場所で AI を推進

Gelsinger 氏は、現在インテル プラットフォーム上で開発者が利用できるさまざまな AI テクノロジーと、関連テクノロジーが来年どのように大幅に拡張されるかを強調しました。

最近発表された MLPerf AI 推論パフォーマンス テストの結果は、より大規模でより困難な生成 AI や大規模言語モデルを含む、あらゆるサイズの AI モデルをカバーするというインテルの取り組みをさらに強化します。このテスト結果は、インテル® Gaudi®2 アクセラレーターが AI コンピューティングのニーズを満たす優れたソリューションを提供できることも証明しています。キッシンジャー氏はまた、Intel Xeonプロセッサと4,000個のIntel Gaudi2アクセラレータを完全に使用して大規模なAIスーパーコンピュータが構築され、Stability AIがその主要顧客であると発表した。

Alibaba Cloud CTO Zhou Jingren 氏は、Alibaba が自社の生成 AI および大規模言語モデル「Alibaba Cloud Tongyi Qianwen Large Model」に AI アクセラレータを内蔵した第 4 世代インテル® Xeon® スケーラブル プロセッサをどのように使用しているかについて説明しました。Zhou Jingren 氏は、Intel テクノロジーにより「モデルの応答時間が大幅に短縮され、平均で最大 3 倍の加速が得られる」と述べました。

インテルはまた、次世代インテル Xeon プロセッサーのプレビューを行い、第 5 世代インテル® Xeon® プロセッサーが 12 月 14 日にリリースされることを明らかにしました。これにより、同じ消費電力で世界のデータセンターのパフォーマンスとストレージ速度が向上します。さらに、エネルギー効率の高い E コア プロセッサ Sierra Forest が 2024 年前半に発売される予定です。288 コアを搭載したこのプロセッサーは、第 4 世代 Xeon と比較してラック密度が 2.5 倍、ワットあたりのパフォーマンスが 2.4 倍向上すると予想されます。Sierra Forest に続いてリリースされるのは、第 4 世代 Xeon と比較して AI 性能が 2 ~ 3 倍向上すると見込まれる高性能コア (P コア) プロセッサである Granite Rapids です。

第5世代インテルXeonプロセッサー

2025 年に向けて、次世代 Xeon エネルギー効率の高いコア プロセッサ (開発コード名 Clearwater Forest) は、Intel 18A プロセス ノードに基づいて製造される予定です。

Intel Core Ultraプロセッサーを搭載したAI PCを発売

AIもよりパーソナルなものになるだろう。キッシンジャー氏は「AIはクラウドとPCの緊密な連携を通じてPCエクスペリエンスを根本的に変化、再構築、再構築し、人々の生産性と創造性を解放するだろう。我々はAI PCの新時代に向かって進んでいる」と語った。

この新しい PC エクスペリエンスは、開発コード名 Meteor Lake の次期インテル Core Ultra プロセッサーで間もなく実証されます。このプロセッサには、インテル初の統合ニューラル ネットワーク プロセッサ (NPU) が搭載されており、エネルギー効率の高い AI アクセラレーションとローカル推論エクスペリエンスを PC にもたらします。ゲルシンガー氏は、Core Ultraも12月14日にリリースされることを認めた。

Core Ultra プロセッサは、インテルのクライアント プロセッサ ロードマップの転換点です。これは、Foveros パッケージング テクノロジを使用した最初のクライアント ダイ設計です。NPU およびインテル 4 プロセス ノードのパフォーマンスと消費電力の比率が大幅に向上したことに加え、このプロセッサーは Intel Ruixuan™ グラフィックスを統合することにより、独立したグラフィックス カード レベルのパフォーマンスももたらします。

インテル Core ウルトラ プロセッサー

ステージでは、Gelsinger 氏が新しい AI PC の多くの使用シナリオをデモンストレーションし、Acer 最高執行責任者の Gao Shuguo 氏が Core Ultra プロセッサーを搭載した Acer ラップトップを紹介しました。Gao Shuguo 氏は次のように述べています。「私たちは Intel チームと協力して、Intel Core Ultra プラットフォームを最大限に活用するために、OpenVINO ツールキットを通じて Acer AI ライブラリのセットを共同開発しました。AI ライブラリも共同開発し、最終的にこの製品を米国に提供しました」ユーザー。」

開発者がコア経済の推進者になれるようにする

パット・キッシンジャー氏は、「将​​来の人工知能は、エコシステム全体のアクセシビリティ、スケーラビリティ、可視性、透明性、信頼性の向上に貢献する必要がある」と述べた。

開発者がこの未来を創造できるよう支援するために、インテルは次のように発表しました。

● インテル デベロッパー クラウド プラットフォームは完全にオンラインです。インテル デベロッパー クラウド プラットフォームは、開発者が AI 開発用の最新のインテル ソフトウェアおよびハードウェアのイノベーション (深層学習用のインテル Gaudi2 アクセラレーターを含む) を活用できるように支援し、インテルの最新のハードウェア プラットフォームの使用を許可します。第 5 世代インテル® Xeon® スケーラブル プロセッサーおよびインテル® データセンター GPU Max シリーズ 1100 および 1550 として機能します。インテル デベロッパー クラウド プラットフォームを使用すると、開発者は AI および科学技術コンピューティング アプリケーションを構築、テスト、最適化することができ、AI トレーニング、モデルの最適化、小規模から大規模までの推論ワークロードを実行して、高いパフォーマンスと高効率を達成することもできます。インテル デベロッパー クラウド プラットフォームは、マルチアーキテクチャおよびマルチベンダー ハードウェアをサポートするオープン プログラミング モデルである oneAPI に基づいて構築されており、開発者にハードウェアの選択肢を提供し、独自のプログラミング モデルを排除して、アクセラレーテッド コンピューティング、コードの再利用、移植性要件の満たしをサポートします。

● インテルが OpenVINO ツール スイート バージョン 2023.1 をリリース: OpenVINO はインテルの AI 推論およびデプロイメント ランタイム ツール スイートであり、開発者にクライアントおよびエッジ プラットフォームで高品質な選択肢を提供します。このリリースには、Meta の Llama 2 モデルなどの複数の生成 AI モデルを含む、オペレーティング システム間での統合とさまざまなクラウド ソリューションに最適化された事前トレーニング済みモデルが含まれています。ai.io や Fit:Match などの企業は、OpenVINO を使用してアプリケーションを高速化する方法をオンサイトでデモンストレーションしました: ai.io は OpenVINO を使用してアスリートのパフォーマンスを評価し、Fit:Match は OpenVINO を使用して小売業界と健康業界に革命を起こし、消費者が自分に合う服を見つけられるようにしましたより良い。

● Strata プロジェクトとエッジネイティブ ソフトウェア プラットフォームの開発:このプラットフォームは 2024 年に開始され、モジュール式コンポーネント、高品質のサービス、製品サポートを提供します。これは、インテリジェント エッジおよびハイブリッド AI に必要なインフラストラクチャをスケールアウトし、インテルおよびサードパーティの垂直アプリケーションを単一のエコシステム内に統合する方法です。このソリューションにより、開発者は分散エッジ インフラストラクチャとアプリケーションを構築、展開、実行、管理、接続、保護することができます。

インテルは、一連の新しいテクノロジーと製品を通じて、2023 Intel on Technology Innovation Conference を発表しました。次に、インテルの最高技術責任者であるグレッグ・ラベンダー氏が太平洋時間の 9 月 20 日午前 9 時 30 分 (北京時間 9 月 21 日午前 0 時 30 分) に基調講演を行い、インテルが開発者に AI のより多くの活用方法を提供できる方法を紹介します。現場での機会を拡大し、AI とセキュリティの統合を加速します。

おすすめ

転載: blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/133058415