
The Informationというニュースメディアが、Microsoftは、Nvidiaへの依存を減らすために、Nvidiaが提供するカードの代わりに、サーバー間でデータを迅速に移動できるようにするためのネットワークカードを開発していると報じています。
ネットワークカードの開発は、Microsoftの費用を節約できる可能性があるだけでなく、新しいネットワーク機器がNvidiaチップサーバーのパフォーマンスを向上させることを期待しています。これは、Microsoftのサーバーを使用して大規模なAIモデルを生成するOpenAIに役立つ可能性があります。OpenAIのCEOであるサム・アルトマンは、Googleと比較してコンピューティング能力が不利であることについて、個人的に懸念を表明しています。
この記事で注意深く読むべき点は、マイクロソフトが手掛けるのは、Nvidiaの主力であるGPUではなく、ネットワークカード(NIC)の開発であることです。
AIサーバーギアとは何か
AIサーバーギアとは、人工知能(AI)の計算を行うためのサーバーに搭載されるハードウェアの総称です。AIサーバーギアには、主にGPU(グラフィックス・プロセッシング・ユニット)とNIC(ネットワーク・インターフェース・カード)の二種類があります。
GPUは、画像や動画などの高次元のデータを処理するのに適したチップです。AIの分野では、深層学習と呼ばれる手法を用いて、大量のデータからパターンを学習することが多く、GPUはその高速な演算能力で重宝されています。GPUの市場では、米国のNvidiaが圧倒的なシェアを持っており、GoogleやFacebookなどの大手テック企業や、Microsoftのようなクラウドサービスの提供者も、NvidiaのGPUを利用しています。
NICは、サーバーとサーバーをつなぐネットワークの通信を担うカードです。AIの分野では、複数のサーバーを連携させて、巨大なAIモデルを構築することが増えています。そのため、サーバー間のデータのやり取りがスムーズに行われることが重要になります。NICの市場では、米国のIntelやBroadcomなどが主要なプレイヤーですが、Nvidiaも自社のGPUと連携するNICを開発しています。
Microsoftの動きと背景
Microsoftは、自社のクラウドサービスであるAzureで、AIの計算を提供するために、NvidiaのGPUを多数使用しています。しかし、NvidiaのAI向けのGPUは極めて高価であり、Microsoftはそのコストを削減したいと考えています。また、Nvidiaは自社のGPUと連携するNICを開発しており、MicrosoftはNvidiaによるネットワークの独占を防ぎたいと考えています。
MicrosoftのNICの開発は、まだ初期段階にあるとされていますが、すでに試作品を作成しているという情報があります。Microsoftは、このNICを自社のクラウドサービスだけでなく、他の企業にも販売する可能性があると言われています。
AIサーバーギアの競争状況
MicrosoftのNICの開発は、AIサーバーギアの市場における競争を激化させることになります。
すでに、GoogleやAmazonなどのクラウドサービスの提供者は、自社でAIの計算に特化したチップを開発しています。Googleは、TPU(テンソル・プロセッシング・ユニット)というチップを作っており、自社のクラウドサービスやAIプロジェクトで利用しています。Amazonは、Inferentiaというチップを作っており、自社のクラウドサービスで利用しています。これらのチップは、NvidiaのGPUと競合するものです。
また、IntelやAMDなどのチップメーカーも、AIサーバーギアの市場に参入しています。Intelは、NervanaというAIの計算に特化したチップを開発しており、今年中に発売する予定です。AMDは、自社のGPUをAIの計算に適したものに改良しており、NvidiaのGPUに対抗しています。これらのチップメーカーは、MicrosoftやGoogleなどのクラウドサービスの提供者に自社のチップを販売することで、市場シェアを獲得しようとしています。
AIサーバーギアの意義と影響
AIサーバーギアの市場は、今後も拡大すると予想されます。AIの分野では、より大きくて複雑なモデルを作ることで、より高い精度や性能を得ることができます。しかし、そのためには、より多くのデータと計算能力が必要になります。AIサーバーギアの市場における競争は、コスト削減はもちろんのこと、AIの発展にとってプラスの影響を与えるでしょう。
参照元:The Information
監修者のコメント:AIを使ってまとめました