AIハードウェアとは

製造施設に設置されているプロセッサー・ドロワー

執筆者

Josh Schneider

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

AIハードウェアとは

AIハードウェアとは、人工知能(AI)システム用に設計された専用コンポーネント、またはハイパフォーマンス・コンピューティングから転用されたコンポーネントのことを指します。これらは、AIモデルのトレーニングやデプロイに求められる、負荷の高い処理を扱います。

大規模言語モデル(LLM)ニューラル・ネットワークなどのAIシステムでは、機械学習(ML)ディープラーニング(DL)、その他のAIアルゴリズムによって使用される大規模なタイプのデータセットを処理して、人間の思考、学習、問題解決の方法を再現するために、高帯域幅のハードウェアが必要です。

一般的な中央処理装置(CPU)などの汎用ハードウェアはほとんどの計算タスクを実行できますが、AIインフラストラクチャーにはそれよりもはるかに多くの計算能力が必要です。AI開発やAIトレーニングに関連するような負荷の高いAIワークロードには、AIアクセラレーターAIチップなど、特定の最適化が施されたAIハードウェアが向いています。これらのハードウェアは、拡張性とエコシステムの効率化に適しています。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

AIハードウェアのメリット

業界が急速に進化を続ける中、AIの革新はほぼ毎日のように話題となっています。AIの時代に突入しつつある今、AIハードウェアは、こうした印象的なAIアプリケーションを支える重要なインフラストラクチャー要素となっています。

例えば顔認識のような、いまや当たり前のように使われているAIアプリケーションも、その動作はAIハードウェアに大きく依存しています。顔認識では、画像をローカルで処理し、承認済みの画像と照らし合わせ、正常なばらつきを識別して、携帯電話やタブレットのロックを解除する必要があります。AIハードウェアがなければ、Face IDやスマート・アシスタントといった技術は、実用性が低く、コストも高くなってしまうでしょう。

AIハードウェアの主なメリットは次のとおりです。

スピード

AIハードウェアは、複雑でリソースを大量に消費するAIワークロードを高速に実行するために最適化されています。AIチップが異なれば、速度を上げるためのアプローチも異なりますが、一般的には並列コンピューティングの恩恵を受けています。これは、大規模で複数の要素から成るタスクを、より小さく単純なステップに分割して同時に処理する手法です。

汎用CPUは、タスクを一度に1つずつ順番に処理する逐次処理を採用していますが、AIチップは専用のハードウェアアーキテクチャを通じて並列処理を行い、数千、場合によっては数十億もの演算を同時に実行します。複雑なAIワークロードをより小さな処理単位に分割し、それらを並列に実行することで、AIハードウェアは処理速度を飛躍的に向上させることができます。

専用設計

ほとんどのAIハードウェアは、特殊なAIシステム内での動作に特化して設計されていない場合でも、少なくともAIアプリケーションに共通するような負荷の高いオペレーションに特化して構築されています。

特定のタイプの AI ハードウェアは、ハードウェアレベルで再プログラム可能です。この機能により、高度に専門化されたユースケースに合わせて簡単に調整、テスト、再調整できます。また、ニッチなAIアプリケーション向けに特化して設計されたものもあります。AIハードウェアの中には、もともとは別の用途向けに開発されたものもありますが、汎用ハードウェアでは対応できないような、高度なAIタスクの性能基準を満たすよう設計されています。

効率性

これまでAIテクノロジーは、非常に電力消費が大きいことで知られてきました。AI向けに新たに開発された、あるいは既存のものを転用した多くのAIハードウェアにも、当初は同じことが当てはまっていました。しかし、時間の経過とともにAIハードウェアの電力効率は向上し、現在では、負荷の高いAIワークロードの処理に本来向いていない従来のハードウェアと比べて、はるかに効率的になっています。

現行および次世代のAIハードウェアは、低精度演算などの機能を備えており、より少ないトランジスタでワークロードを処理できるため、消費電力を抑えることができます。こうした進歩は環境負荷の軽減につながるだけでなく、収益面でもメリットをもたらします。

パフォーマンス

一部のAIモデルでは、AIハルシネーション(幻覚)と呼ばれるエラーが時折発生しますが、精度が最重要なアプリケーションにおいて、AIハードウェアは不正確な出力の抑制に役立ちます。医療のようなクリティカルなアプリケーションでは、ハルシネーションを減らし、可能な限り正確な結果を得るために、最新のAIハードウェアが必要不可欠です。

IBMとのSmart Talks

インフラストラクチャはAI時代をどのように支えているのか

ハードウェアの機能がが大規模言語モデルの実行に必要なマトリックス計算を可能にする仕組みを解説し、銀行から地域のカフェまで、AIを業務に利用するためのクリエイティブな事例をご紹介します。

AIハードウェアの種類

最も一般的なタイプのAIハードウェアはAIチップです。これは高度な半導体マイクロプロセッサーで、特化型のCPUのように機能します。Nvidia、Intel、AMDなどの大手メーカーのほか、Cerebras Systemsなどのスタートアップ企業も、さまざまなチップ・アーキテクチャを備えた集積回路を設計しています。これにより、さまざまな種類のAIソリューションにより適合でき、エネルギー効率が向上し、ボトルネックが軽減されます。

AIハードウェアには、リアルタイムな計算結果を提供する低遅延相互接続など、他の種類の次世代ハードウェアも含まれますが、主なカテゴリーはプロセッサーとメモリの2つです。

プロセッサー

一般的なAIハードウェアの種類として挙げられるのは、グラフィックス・プロセッシング・ユニット(GPU)、テンソル・プロセッシング・ユニット(TPU)、ニューラル・プロセッシング・ユニット(NPU)、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)などの高性能プロセッサーです。AIチップなどのプロセッサーは、複雑なAIワークロードを処理するための計算能力を提供します。こうした強力なプロセッサーはしばしば高い消費電力を伴いますが、AIハードウェアは世代を重ねるごとに進化を続けており、電力効率の向上に努めています。

  • ASIC:ASICは、特定の用途に合わせて設計・製造された特化型のプロセッサーです。このタイプのAIチップは、単にAIに合わせたというだけではなく、特定のAIソリューションで想定される独自の用途に合わせてカスタム設計されています。特定の用途向けのチップであるため、他のハードェアほど柔軟性はありませんが、その分、最も高いパフォーマンスを提供できます。
  • FPGA:フィールド・プログラマブル・ゲート・アレイ(FPGA)は、再プログラム可能なASICと考えることができます。ASICは一度プログラムすると変更できませんが、FPGAは使用前にプログラムする必要があり、何度も再プログラムや調整が可能です。これらのタイプのチップは非常に汎用性が高く、新しいASICのプロトタイプによく使用されます。
  • TPU:TPUは、Googleが設計した独自のAIアクセラレーターであり、AIアプリケーションで一般的に用いられるテンソル演算の処理に特化しています。GoogleのTPUは、大規模言語モデルと生成AIのトレーニングを目的として構築されています。
  • WSE-3: 一部のベンチマークによると、Cerebras Systemsのウェハー・スケール・エンジン3(WSE-3)は史上最速のプロセッサーで、1つのユニットに90万個のAIコアを搭載しています。各コアが毎秒21ペタバイトのメモリ帯域幅にアクセスできるため、超高速かつ大規模なデータ処理に対応します。
  • Telum II:IBM初のAIチップを改良したIBM® Telum IIプロセッサーは、特にIBM® Spyre AI Acceleratorと組み合わせた際に、AI処理のパフォーマンスが向上するよう特別に設計されました。

メモリー

メモリーは、AI対応マシンを含むほとんどのコンピューターのインフラストラクチャーにおいて重要な役割を担っています。メモリー・ストレージ・アーキテクチャーとデバイスにより、AIシステムはAIタスクの完了に必要なデータや命令示に高速にアクセスできるようになります。システムのメモリー容量と速度は、パフォーマンスに直接影響します。メモリーが不足するとボトルネックが生じ、AIワークロードだけでなく、すべての動作が遅くなったり妨げられたりする可能性があります。

ただし、メモリーといってもさまざまで、すべてのメモリーのタイプに役割があり、特定のAIアプリケーションや汎用的なAI処理により最適化されたものも存在します。AIシステム内では、プロジェクトや運用上の特定の要件に応じて、AIプロセスのさまざまな部分に、異なる種類のメモリーが組み合わされて使用されることがよくあります。

  • RAM:ランダム・アクセス・メモリー(RAM)は、AIと汎用コンピューティングの両方で主要なタイプのメモリーであり、アクティブな処理のための高速で一時的なデータ・ストレージとして機能します。RAMはデータの読み書きが非常に速いため、リアルタイム処理に適しています。容量が限られ、揮発性が高いため、大規模なAIオペレーションにはあまり向いていません。
  • VRAM:ビデオRAM(VRAM)は、GPUで特に使用される特殊なRAMの一種です。VRAMの優れた並列処理能力は、複雑なAIタスクに適しています。ただし、通常のRAMと比べるとコストが高く、容量もさらに少なめです。
  • HBM:もともとハイパフォーマンス・コンピューティングでの使用を目的として開発された高帯域幅メモリー(HBM)は、処理装置間の超高速データ転送用に設計されており、これはAIアプリケーションにとって非常に大きな利点です。HBMは高速である代わりに高額になりがちですが、この主の高速メモリーはAIアプリケーションにとって理想的な選択肢です。
  • 不揮発性メモリー:揮発性タイプのメモリーはデータを保持するために一定の電力を必要としますが、ソリッドステート・ドライブ(SSD)ハード・ディスク・ドライブ(HDD)などの不揮発性メモリーは、保守や電力供給なしで長期間のデータ保存が可能です。不揮発性メモリーは、RAMやVRAMよりもクロック速度がはるかに遅いため、アクティブなデータ転送には適した選択肢ではありませんが、AIシステムではデータを長期的に保持するために役立ちます。

AIハードウェアのユースケース

AIハードウェアのユースケースは、AIそのものと同じくらい多岐にわたります。AIテクノロジーが高性能なグラフィックス処理やハイパフォーマンス・コンピューティング(HPC)向けのハードウェアを借用してきたように、現在はAIハードウェアを利用して自らのオペレーションを向上させています。データセンターからファストフードのドライブスルーに至るまで、AIテクノロジーが活用されるあらゆる場面でAIハードウェアは役立ちます。

実のところ、あなたはこの記事を読むためにAIハードウェアを使っているかもしれません。AppleやGoogleなどのメーカーは、AIチップを搭載したノートPCやモバイル端末を次々と発売しており、音声認識や写真編集といったモバイル向けAIタスクの性能向上に活用しています。AIハードウェアは高性能化と小型化がますます進んでおり、多くの処理をローカルで完結できるようになってきています。これにより、通信帯域の使用が抑えられ、ユーザー体験の向上にもつながっています。

そのほかの分野でも、AIハードウェアはクラウド・コンピューティング・インフラストラクチャーにおける重要な要素となりつつあります。エンタープライズレベルのAI対応GPUやTPUは非常に高価ですが、IBM、Amazon、Oracle、Microsoftといったプロバイダーは、これらの高性能プロセッサーを、クラウド・サービスを通じてレンタル形式で提供しており、コスト効率の高い選択肢として利用が広がっています。

AIハードウェアのその他のアプリケーションには、次のようなものがあります。

自律走行車

AIハードウェアは、自動運転車や自律走行車の開発において不可欠なコンポーネントです。これらの車両は、カメラやセンサーから得られる大量のデータをAIチップで処理・解釈し、リアルタイムで反応することで事故を防ぎ、乗員や歩行者の安全を確保します。

AIハードウェアは、コンピューター・ビジョンなどに必要な並列処理能力を備えています。これは、コンピューターが停止信号や交差点の交通状況を「見て」解釈するために役立ちます。

エッジコンピューティングとエッジAI

エッジコンピューティングは急速に拡大しているコンピューティング・フレームワークであり、企業のアプリケーションや余った演算能力を、IoT(モノのインターネット)デバイスやローカルのエッジサーバーなど、データソースに近い場所へ移動させます。デジタル・インフラストラクチャーがますますクラウド・コンピューティングに依存していく中で、エッジコンピューティングは帯域幅を高速化し、プライバシー強化を求める利用者に強固なセキュリティーを提供します。

同様に、エッジAIはAIオペレーションをユーザーの近くに移すことを目指しています。AIハードウェアはエッジ・インフラストラクチャーにおける有用なコンポーネントとなってきており、機械学習やディープラーニングのアルゴリズムを活用して、データを発生源でより効率的に処理することで、遅延の低減やエネルギー消費の削減を実現します。

生成AI

AIテクノロジーは何十年にもわたって開発が進められてきましたが、ChatGPTやMidjourneyのような生成AIテクノロジーの飛躍的進歩などにより、ごく最近のになって急速に注目を集めるようになりました。こうしたツールは大規模言語モデルや自然言語処理を使用して、自然な会話を解釈し、ユーザーの入力にもとづいて新たなコンテンツを生成します。

関連ソリューション
データ分析とAI分析

オープンソースのフレームワークとツールを使用して、IBM® zSystemsメインフレーム上の最も貴重な企業データにAIと機械学習を適用します。

IBM Zについて
AIインフラストラクチャー・ソリューション

IBMは、ハイブリッド・バイ・デザイン戦略により、企業全体への影響を加速するAIインフラストラクチャー・ソリューションを提供しています。

AIインフラストラクチャー・ソリューションはこちら
AIコンサルティングとサービス

IBMコンサルティングと連携することで、企業データの価値を引き出し、ビジネス上の優位性をもたらす洞察を活用した組織を構築できます。

AIサービスの詳細はこちら
次のステップ

実際の企業の要求に合わせて構築され、パフォーマンス、信頼性、ハイブリッドクラウド統合向けに最適化されたインフラストラクチャーで、AIワークロードを強化します。

AIインフラストラクチャー・ソリューションの詳細はこちら 詳細を取得する