GPU(グラフィックス・プロセッシング・ユニットまたはグラフィカル・プロセッシング・ユニット)とは、さまざまなデバイス上でコンピューター・グラフィックスや画像処理を高速化するために設計された電子回路です。これらのデバイスには、ビデオ・カード、システム・ボード、携帯電話、パーソナル・コンピューター(PC)が含まれます。
GPUは数学的計算を高速に実行することで、コンピューターが複数のプログラムを実行するのに必要な時間を短縮します。これにより、機械学習(ML)、人工知能(AI)、ブロックチェーンなどの新興テクノロジーおよび将来のテクノロジーを実現する上で不可欠な要素となります。
1990年代にGPUが発明されるまで、PCやビデオ・ゲーム・コントローラーのグラフィックス・コントローラーは、コンピューターの中央処理装置(CPU)を利用してタスクを実行していました。1950年代初頭以来、CPUはコンピューターの最も重要なプロセッサーであり、ロジック、制御、入出力(I/O)など、プログラムの実行に必要なすべての命令を実行していました。
しかし、1990年代にパーソナル・ゲームとコンピュータ支援設計(CAD)が登場すると、業界はピクセルを素早く組み合わせる、より高速で効率的な方法を必要としました。
2007年、Nvidiaはソフトウェア・プラットフォームおよびアプリケーション・プログラミング・インターフェース(API)であるCUDA™(Compute Unified Device Architecture)を構築しました。これにより、開発者はGPUの並列計算機能に直接アクセスできるようになり、GPUテクノロジーを以前よりも幅広い機能に使用できるようになりました。
2010年代、GPUテクノロジーはさらに多くの機能を獲得しました。おそらく最も重要なのは、レイ・トレーシング (カメラからの光の方向を追跡してコンピューター画像を生成)とテンソル・コア(深層学習を可能にするように設計)です。
これらの進歩により、GPUはAIアクセラレーションおよびディープラーニング・プロセッサーにおいて重要な役割を果たし、AIおよびMLアプリケーションの開発のスピードアップに貢献しました。現在、GPUはゲーム・コンソールや編集ソフトウェアを強化するだけでなく、多くの企業にとって重要な最先端のコンピューティング機能も強化しています。
GPUには独自の高速アクセス・メモリー(RAM)が搭載されています。これは、チップが必要に応じてアクセスし変更できるコードとデータの保存に使われる電子メモリーです。高度なGPUには通常、グラフィック編集、ゲーム、AI/MLユースケースなど演算集中型タスクに必要な大量のデータを保持するために特別に構築されたRAMが搭載されています。
GPUの一般的な2種類のGPUは、Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory(グラフィックス・ダブルデータレート6同期型DRAM [GDDR6])とそれ以降の世代のGDDR6Xです。 GDDR6XはGDDR6よりも転送ビットあたりの消費電力が15%少なくなりますが、GDDR6Xの方が高速であるため、全体の消費電力は高くなります。iGPUは、コンピューターのCPUに統合することも、CPUの横にあるスロットに挿入してPCI Expressポート経由で接続することもできます。
CPUとGPUは同じような設計で、処理タスク用のコアやトランジスタの数も似ていますが、CPUの方がGPUよりも汎用的な機能を備えています。GPUは、グラフィックス処理や機械学習など、単一の特定のコンピューティング・タスクに重点を置く傾向にあります。
CPUは、コンピューター・システムまたはデバイスの心臓部であり、頭脳です。プログラムまたはソフトウェア・アプリケーションから、タスクに関する一般的な指示または要求を受け取ります。GPUには、より具体的なタスクがあり、通常、高解像度の画像や動画を素早く処理します。GPUは、グラフィックスやその他の演算集中型機能のレンダリングに必要な複雑な数学的計算を継続的に実行し、そのタスクを実行します。
最大の違いの1つは、CPUが使用するコアが少なく、タスクが直線的に実行される傾向があることです。しかし、GPUには数百、場合によっては数千のコアがあり、超高速処理能力を推進する並列処理が可能です。
最初のGPUは、3Dグラフィックスのレンダリングを高速化して、映画やテレビ・ゲームのシーンをよりリアルで魅力的に見せるために構築されました。最初のGPUチップであるNvidiaのGeForceは1999年に発売され、その後すぐに急速な成長期が続き、その高速並列処理能力によりGPUの機能が他の分野に拡大しました。
並列処理(並列コンピューティング)は、2つ以上のプロセッサーを使用してコンピューティング・タスク全体のさまざまなサブセットを実行するコンピューティングの一種です。
GPUが登場する以前、旧世代のコンピューターは一度に1つのプログラムしか実行できず、タスクを完了するのに数時間かかることがよくありました。GPUの並列処理機能は、多くの計算やタスクを同時に実行するため、古いコンピューターのCPUよりも高速で効率的です。
GPUには3つのタイプがあります。
ディスクリートGPU(dGPU)は、デバイスのCPUから独立したグラフィック・プロセッサーです。情報を取り込み、処理することで、コンピューターを機能させます。ディスクリートGPUは通常、編集、コンテンツ作成、ハイエンド・ゲーミングなど、特別な要件を持つ高度なアプリケーションで使用されます。これらはCPUに高速スロットを使用して取り付けられる個別の回路基板へのコネクタを備えた個別のチップです。
最も広く使用されているディスクリートGPUの1つは、PCゲーム業界を対象として構築されたIntel Arcブランドです。
統合GPU(iGPU)は、コンピューターまたはデバイスのインフラストラクチャーに組み込まれており、通常CPUの近くに収められています。2010年代にIntelによって設計された統合GPUは人気がさらに高まりました。ユーザーがPCI Expressスロットを介して自分でGPUを追加するよりも、GPUとCPUを組み合わせた方が威力を発揮することにMSI、ASUS、Nvidiaなどのメーカーが気付いたからです。現在でも、ノートPCユーザー、ゲーマー、PC上で演算集中型プログラムを実行するその他のユーザーにとって、人気のある選択肢となっています。
仮想GPU、つまりvGPU、ディスクリートGPUや統合GPUと同じ機能がありますが、ハードウェアはありません。これらは、クラウド・インスタンス用に構築されたGPUのソフトウェアベースのバージョンで、同じワークロードを実行するために使用できます。また、ハードウェアのないため、物理的なGPUよりも保守が簡単で安価です。
クラウドGPUとは、クラウド・サービス・プロバイダー(CSP)によって仮想GPUにアクセスすることを指します。近年、クラウド・コンピューティングの加速と AI/MLベースのアプリケーションの採用増加に伴い、クラウドベースのGPUサービスの市場は成長しています。Fortune Business Insightsのレポートによると、サービスとしてのGPU(GPUaaS)市場は、2023年に32億3,000万米ドルと評価され、2024年の43億1,000万米ドルから2032年までに498億4,000万米ドルに成長すると予測されています。1
Google Cloud Platform、Amazon Web Services(AWS)、Microsoft、IBM® Cloudなど、多くのCSPは、ワークロードのパフォーマンスを最適化するために、スケーラブルなGPUサービスへのオンデマンドアクセスを提供しています。CSPはデータ・センター内で従量課金制の仮想化GPUリソースを提供します。多くの場合、Nvidia、AMD、IntelなどのトップGPUメーカーのGPUハードウェアを使用して、クラウドベースのインフラストラクチャを強化しています。
クラウド・ベースのGPUオファリングには通常、事前構成が含まれており、簡単にデプロイできます。これらの機能により、組織は物理GPUに関連する初期費用や保守を回避できます。さらに、企業が生成AIワークロードを統合して高度な計算タスク(コンテンツ作成、画像生成など)を実行しようとする中、クラウドベースのGPUが提供する拡張性とコスト効率は、企業ビジネスにとって極めて重要になっています。
GPUベンチマークは、さまざまな条件下でGPUの性能を評価するプロセスを提供します。これらの専用ソフトウェア・ツールにより、ユーザー(ゲーマー、3Dアーティスト、システム開発者など)はGPUに関する洞察を得て、ボトルネック、レイテンシー、他のソフトウェアやハードウェアとの互換性などの性能の問題に対処できます。
GPUベンチマークには、合成ベンチマークと現実世界ベンチマークの2つの主なタイプがあります。合成ベンチマークでは、標準化された環境でGPUの生の性能をテストします。現実世界のベンチマークでは、特定のアプリケーションにおけるGPUの性能をテストします。
GPUベンチマーク・ツールは、速度やフレーム・レート、メモリ帯域幅などの性能メトリクスを調べます。また、ユーザーが特定のニーズに基づいて最適な性能を達成できるよう、熱効率と電力使用量も観測します。一部のGPUベンチマーク・プラットフォームには、ソリッドステート・ドライブ(SSD)がGPUとどの程度適切に相互作用するかを測定するテストも組み込まれています。
GPUは時間の経過とともに進化し、技術的な改善によってよってプログラム可能になり、より多くの機能が発見されました。具体的には、複数のプロセッサにタスクを分割する機能(並列処理)により、PC ゲーム、高性能コンピューティング(HPC)、3Dレンダリング・ワークステーション、データ・センター・コンピューティングなど、さまざまなアプリケーションに欠かせないものとなっています。
ここでは、次のようなGPUテクノロジーの最も重要かつ最新のアプリケーションについて詳しく見ていきます。
AIとその多くのアプリケーションは、GPU計算技術なしでは実現できないという議論はあるでしょう。高度な技術的な問題を従来のCPUよりも迅速かつ効率的に解決できるGPUの能力は、不可欠なものとなっています。GPU は多くのスーパーコンピュータ、特に AIスーパーコンピュータにとって重要なコンポーネントです。
GPUは、ますます大規模になるデータ・セットのトレーニングのために高速性を必要とする、IBMのクラウドネイティブなAIスーパーコンピューターであるVelaなど多くの主要AIアプリケーションが稼働しています。AIモデルはデータセンターのGPUでトレーニングおよび実行され、通常は科学研究やその他のコンピューティング集約型タスクを行う企業によって運用されています。
機械学習(ML)とは、データとアルゴリズムを使用して人間の学習方法を模倣することに関係するAIの特定の分野を指します。ディープラーニング(DL)は、ニューラル・ネットワークを使用して人間の脳の意思決定プロセスをシミュレートするMLのサブセットです。GPUテクノロジーは、両方の技術進歩の分野にとって重要です。
MLとDLに関して言えば、GPUは人間と同じような方法で大量のデータ・セットを分類し、そこから推論を行うモデルの能力を強化します。GPUは一度に多くの同時計算を実行できるため、特にメモリーと最適化の領域を強化します。さらに、MLとDLで使用されるGPUは、CPUよりも使用するリソースが少なく、能力や精度も低下しません。
ブロックチェーンは、ビジネス・ネットワーク内のトランザクションの記録や資産の追跡に使用される台帳であり、特に「プルーフ・オブ・ワーク」と呼ばれるステップに関しては、GPUテクノロジーに大きく依存しています。暗号通貨など、多くの広く使用されているブロックチェーンでは、トランザクションの検証のためにプルーフ・オブ・ワークの手順が不可欠であり、それによりトランザクションをブロックチェーンに追加できます。
ゲーム業界では、1990年代に初めてGPUの力を活用し、速度とグラフィックの精度を高めて全体的なゲーム体験を向上させました。現在、個人用ゲームは、超現実的なシナリオ、リアルタイムのインタラクション、広大で没入型のゲーム内世界のため、かなり演算集中型になっています。
仮想現実(VR)、より高い更新レート、高解像度の画面などといったゲームの傾向により、ゲーム業界はますます要求の厳しいコンピューティング環境で、グラフィックスを高速に配信するためにGPUに頼っています。ゲーム用GPUには、AMD Radeon、Intel Arc、Nvidia GeForce RTXなどがあります。
従来、レンダリング時間が長いことは、消費者向けとプロフェッショナル向けの両方の編集ソフトウェア・アプリケーションにおいて大きな障害となっていました。GPUはその発明以来、Final Cut ProやAdobe Premiereなどの一般的な動画編集製品の処理時間とコンピューティング・リソースを着実に削減してきました。
現在、並列処理とAIを内蔵したGPUは、プロ仕様の編集スイートからスマートフォン・アプリまで、あらゆる編集機能を劇的に高速化しています。
処理、パフォーマンス、グラフィックス品質の向上により、GPUはコンテンツ制作業界の変革に不可欠な要素となっています。今日、最高性能のグラフィックス・カードと高速インターネットを手にしたコンテンツ・クリエーターは、リアルなコンテンツを生成し、AIと機械学習で強化し、編集してライブ視聴者にかつてないほど高速にストリーミングすることができます。これらはすべて、主にGPUテクノロジーの進歩のおかげです。
HPCシステムでは、GPUは並列処理機能を使用して、創薬、エネルギー生産、天体物理学などの分野における複雑な数学的計算や大規模なデータ分析など、計算集約的なタスクを高速化します。
GPUは、製品のウォークスルー、CAD図面、医療および地震/地球物理学的イメージングなど、複雑で専門的なアプリケーションの操作性とトレーニング機能を強化するために、多くの業界で高い需要があります。GPUは、3Dアニメーション、AIやML、高度なレンダリング、超リアルな仮想現実(VR)や拡張現実(AR)体験など、消防士、宇宙飛行士、学校の教師などの専門的なトレーニングで使用される高度な視覚化に不可欠です。
さらに、エンジニアや気候科学者は、GPUを搭載したシミュレーション・アプリケーションを使用して、気象条件、流体力学、天体物理学、および特定の条件下での車両の挙動を予測しています。Nvidia RTXは、科学的可視化とエネルギー探索のために利用できる、最も強力なGPUの1つです。
AIと生成AIアプリケーションの普及に伴い、他の2つの特殊な処理デバイスと、それらをGPUSとの比較を検討することは価値があります。今日のエンタープライズ企業は、特定のニーズに応じて、CPU、GPU、FPGAの3種類のプロセッサーをすべて使用しています。
神経処理装置(NPU)は、人間の脳の処理機能を模倣するように設計された特殊なコンピューター・マイクロプロセッサです。AIアクセラレータ、 AIチップ、ディープラーニング・プロセッサとも呼ばれるNPUは、AIニューラル・ネットワーク、ディープ・ラーニング、機械学習を高速化するために構築されたハードウェア・アクセラレータです。
NPUとGPUはどちらもシステムのCPUを強化しますが、顕著な違いがあります。GPUには、グラフィックのレンダリングやゲームに必要な高速で正確な計算タスクを実現するために、数千ものコアが含まれています。NPUは、AIと生成AIのワークロードを高速化するために設計されており、データフローとメモリ階層をリアルタイムで優先し、低消費電力とレイテンシーを実現します。
ハイパフォーマンスGPUは、利用可能な大量のメモリを使用して複数のコアで大量の計算を処理できるため、ディープ・ラーニングやAIアプリケーションに非常に適しています。フィールド・プログラマブル・ゲートアレイ(FPGA)は、さまざまな機能に合わせて再プログラムできる多用途タイプの集積回路です。GPUと比較して、FPGAは柔軟性とコスト効率に優れ、医療用画像処理やエッジ・コンピューティングなどの低遅延が求められるディープラーニング・アプリケーションで優れた性能を発揮します。
すべてのリンク先は、IBMの外部にあります。
1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights, Fortune Business Insights, December 9, 2024
IBM Cloud Virtual Server for VPCは、IBM Cloud Virtual Private Cloud上に構築されたIntel x86、IBM Z、IBM LinuxONEの仮想マシンのファミリーです。
IBM Cloud 専用サーバーは、無制限の無料バックホール・トラフィックと広範なカスタマイズ・オプションを備えたスケーラブルなWebホスティング・ソリューションを提供します。
IBMのクラウド・コンサルティング・サービスで新しい機能にアクセスし、ビジネスの俊敏性を高めましょう。ハイブリッドクラウド戦略や専門家とのパートナーシップを通じて、ソリューションを共創し、デジタル・トランスフォーメーションを加速させ、パフォーマンスを最適化する方法をご覧ください。