インテル株式会社
2025年9月9日に米国で発表された資料の抄訳です。
最新情報:MLCommonsは本日、MLPerf Inference v5.1ベンチマークの最新結果を発表しました。この結果には、P-cores 搭載 インテル® Xeon® プロセッサーおよびインテル® Arc™ Pro B60 グラフィックスを搭載したGPUシステム(開発コード名:Project Battlematrix)による6つの主要ベンチマークが含まれています。特にLlama 8B ベンチマークでのインテル® Arc™ Pro B60のコストパフォーマンスは、NVIDIA RTX Pro 6000やNVIDIA L40Sのコストパフォーマンスと比較して、それぞれ最大1.25倍および4倍の優位性を示しました*1。これらの結果から、次世代AI推論ワークロードに対応するハイエンド・ワークステーションやエッジ・アプリケーション向けのオール・インテル・プラットフォームのパフォーマンスとアクセシビリティ(利用の容易さ)が改めて示されました。
インテル コーポレーション 副社長 兼 ソフトウェア、GPUおよびNPU IPグループ ゼネラルマネージャーのリサ・ピアース(Lisa Pearce)は「MLPerf v5.1の結果は、インテルのGPUおよびAI戦略を強力に裏付けるものとなりました。新しい推論向けソフトウェアスタックを採用したインテル® Arc™ Pro BシリーズGPUにより、開発者や企業は、推論ワークステーションを活用して、強力、簡単なセットアップ、手頃な価格、そしてスケーラブルなAIアプリケーションを開発、展開できます」と述べています。
重要なポイント:これまで、データプライバシーを守りながら、高額な専用AIモデルのサブスクリプション費用を回避しつつ、高い推論性能を提供できるプラットフォームを求めるプロフェッショナルにとって、十分な選択肢が存在していませんでした。この課題に応えるために、インテルの新しいGPUシステム(開発コード名:Project Battlematrix)が開発されました。
このシステムは、モダンなAI推論のニーズを満たすために設計されており、フルスタックで検証されたハードウェアとソフトウェアを組み合わせたオールインワンの推論プラットフォームを提供します。
インテルのGPUシステムは、Linux環境向けに構築された新しいコンテナ化ソリューションの導入と利用の簡素化を目指しています。マルチGPUスケーリングおよびPCIe P2Pデータ転送で優れた推論性能を発揮するよう最適化され、さらにECC(誤り訂正符号)、SRIOV(シングルルートI/O仮想化)、テレメトリー、およびリモートファームウェア更新といった、エンタープライズクラスの信頼性と管理機能を備えています。
CPUはAIシステムにおいて依然として重要な役割を担っています。CPUはオーケストレーションハブとして、前処理、伝送、全体のシステム調整を行います。インテルは、過去4年間にわたりCPUベースのAI性能を向上させ続けており、インテル® Xeon® プロセッサーは、GPUを搭載したシステムにおけるAIワークロードのホストおよび管理において、推奨される選択肢となっています。
さらに、インテルはMLPerfでサーバーCPUの結果を提出する唯一のベンダーであり、演算およびアクセラレータ・アーキテクチャー全体でAI推論能力を加速させるという強いコミットメントを示しています。特にP-cores 搭載 インテル® Xeon® プロセッサーは、MLPerf Inference v5.1において、世代間比較で1.9倍の性能向上を達成しました。
*1 Cost estimates are based on internal estimates from public and partner sourcing for a configuration using Intel Xeon w7-2475x, 4x Arc Pro B60 Dual GPU cards and 2 memory sticks of 64GB DDR5 5600MHz memory.