人工知能(AI)アクセラレーターは、AIチップ、ディープラーニング・プロセッサー、またはニューラル・プロセッシング・ユニット(NPU)とも呼ばれ、AIニューラル・ネットワーク、ディープラーニング、機械学習を高速化するために構築されたハードウェア・アクセラレーターです。
AIテクノロジーの拡大に伴い、AIアプリケーションの実行に必要な大量のデータを処理するには、AIアクセラレーターが不可欠となっています。現在、AIアクセラレーターのユースケースは、スマートフォン、PC、ロボティクス、自律走行車、モノのインターネット(IoT)、エッジコンピューティングなど多岐にわたります。
何十年もの間、コンピューター・システムはさまざまな専門分野のタスクを実行するためにアクセラレーター(またはコプロセッサー)に依存してきました。コプロセッサーの典型的な例としては、グラフィックス・プロセッシング・ユニット(GPU)、サウンド・カード、ビデオ・カードなどがあります。
しかし、過去10年間にわたるAIアプリケーションの成長に伴い、従来の中央処理装置(CPU)や一部のGPUでは、AIアプリケーションの実行に必要な大量のデータを処理できなくなりました。こうした中、一度に数十億の計算を実行できる特殊な並列処理機能を備えたAIアクセラレーターが登場したのです。
Thinkニュースレターの購読
AI業界が新たなアプリケーションや分野に拡大する中、AIアプリケーションを大規模に開発するために必要なデータの処理を高速化するには、AIアクセラレーターが不可欠です。
ディープラーニングを高速化するGPU、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などのAIアクセラレーターがなければ、ChatGPTのようなAIの画期的な進歩にはより長い時間がかかり、より多くのコストもかかるでしょう。AIアクセラレーターは、Apple、Google、IBM、Intel、Microsoftなど、世界最大手の企業で広く使用されています。
変化の激しいAIテクノロジー業界においてスピードと拡張性が重視される中、AIアクセラレーターは、企業が大規模にイノベーションを起こし、新しいAIアプリケーションをより早く市場に投入する上で不可欠なものとなっています。AIアクセラレーターは、スピード、効率性、設計という3つの重要な点において、従来のものよりも優れています。
スピード
AIアクセラレーターは、システム内における遅延の尺度であるレイテンシーが劇的に低いことから、従来のCPUよりもはるかに高速です。医療分野や自律走行車分野におけるAIアプリケーションの開発では、特に低遅延が重要です。数秒、あるいは数ミリ秒の遅延でも危険を招く可能性があるからです。
効率性
AIアクセラレーターは、他の標準的なコンピューティング・システムよりも100倍から1000倍効率的です。データセンターで使用される大型のAIアクセラレーター・チップと、エッジ・デバイスで使用されることの多い小型のAIアクセラレーター・チップは、どちらも従来のチップよりも消費電力が少なく、発熱量も抑えられています。
デザイン
AIアクセラレーターは、ヘテロジニアス・アーキテクチャーと呼ばれる構造を採用しており、複数のプロセッサーが別々のタスクをサポートすることが可能で、AIアプリケーションに必要なレベルまで計算処理能力を高めることができる機能です。
AIアクセラレーターはAIテクノロジーを採用するアプリケーションには不可欠なものですが、業界が直面している課題は早急に解決しなければ、イノベーションの妨げとなります。
ほとんどのAIアクセラレーターは台湾製
世界の半導体の60%と先進チップ(AIアクセラレーターを含む)の90%が台湾で製造されています。さらに、世界最大のAIハードウェアおよびソフトウェア企業であるNvidiaは、AIアクセラレーターのほぼすべてを台湾積体電路製造股份有限公司(TSMC)という1社に依存しています。
AIモデルの開発スピードはAIアクセラレーターの設計よりも速い
今日最も強力なAIモデルは、多くのAIアクセラレーターが処理できる以上の計算能力を必要としており、チップ設計におけるイノベーションのペースは、AIモデルにおけるイノベーションのペースに追いついていません。
企業は、インメモリー・コンピューティングやAIアルゴリズムによる性能と製造の向上など、効率を高めるための領域を模索していますが、AI搭載アプリケーションの計算需要の増加には迅速に対応できていません。
AIアクセラレーターにはそのサイズ以上の電力が必要
AIアクセラレーターは小型で、そのほとんどはミリメートル単位の大きさで、世界最大の製品でもiPad程度の大きさしかないため、こうした小さなスペースに電力を供給するために必要なエネルギー量を制御することは困難です。近年、AIワークロードの計算需要が高まるにつれ、こうした状況はますます困難になっています。AIアクセラレーターの背後にある電力供給ネットワーク(PDN)アーキテクチャを早急に進歩させなければ、その性能に影響が出始めます。
AIアクセラレーターは、独自の設計と専用のハードウェアにより、従来品と比較してAI処理性能を大幅に向上させます。専用の機能により、汎用チップをはるかに上回る速度で複雑なAIアルゴリズムを解くことが可能になります。
AIアクセラレーターは通常、シリコンなどの半導体材料と、電子回路に接続されたトランジスタで作られています。材料に流れる電流がオン・オフに切り替わり、デジタルデバイスが読み取る信号が生成されます。高度なアクセラレーターでは、信号は1秒間に数十億回オン・オフが切り替わり、回路はバイナリコードを使用して複雑な計算を解くことができます。
AIアクセラレーターの中には、特定の目的のために設計されたものもあれば、より一般的な機能を持つものもあります。たとえば、NPUはディープラーニング専用に構築されたAIアクセラレーターで、GPUは動画や画像の処理向けに設計されたAIアクセラレーターです。
AIアクセラレーターの性能は高度なアルゴリズムの解読を主な目的としており、機械学習(ML)、ディープラーニング、ディープ・ニューラル・ネットワークの問題など、さまざまなAI関連のオペレーションとって不可欠なものとなっています。
主に並列処理、独自のメモリ・アーキテクチャ、および低精度と呼ばれる機能を通じて計算リソースをデプロイする独自の方法により、一度に多くのアルゴリズムを迅速かつ正確に解くことができます。
今日最も進化したAIアクセラレーターは、大規模で複雑な問題を小さな問題に分割して同時に解決することで、その速度を飛躍的に高めるように設計されています。
並列処理
多くの計算を一度に実行できる機能は、AIアクセラレーターの性能を向上させる他のどの機能よりも優れており、この機能は並列処理として知られています。AIアクセラレーターは他のチップとは異なり、従来であれば数時間、あるいは数日かかっていたタスクを数分、数秒、さらには数ミリ秒で完了させることができます。
この機能により、エッジコンピューティングなどのリアルタイムのデータ処理に依存するAIテクノロジーにとって不可欠なものとなっています。MLやディープラーニングのプロセスには非常に多くの複雑なアルゴリズムが存在するため、AIアクセラレーターはテクノロジーとそのアプリケーションの両方の進歩にとって極めて重要なものになります。
AIトレーニングの低精度
AIアクセラレーターは、電力を節約するために、低精度演算と呼ばれる機能を採用できます。ニューラル・ネットワークは、多くの汎用チップが使用する32ビットではなく、16ビット、あるいは8ビットの浮動小数点を使用しても、依然として非常に高い機能性を備えています。つまり、精度を犠牲にすることなく、より少ないエネルギー消費でより高速な処理速度を実現できるということです。
メモリー階層
AIアクセラレーターにおけるデータの移動方法は、AIワークロードの最適化に極めて重要です。AIアクセラレーターは、汎用チップとは異なるメモリー・アーキテクチャーを使用しているため、より低いレイテンシーと優れたスループットを実現できます。オンチップ・キャッシュや高帯域幅メモリーなどのこれらの特殊な設計機能は、高性能なAIワークロードに必要な大規模なデータ・セットの処理を高速化するために不可欠です。
AIアクセラレーターは、その機能に基づいて、データセンター向けのAIアクセラレーターと、エッジコンピューティング・フレームワーク向けのAIアクセラレーターの2つのアーキテクチャーに分けられます。データセンターのAIアクセラレーターには、Cerebras社がディープラーニング・システム用に構築したWafer-Scale Engine(WSE)などのスケーラブルなアーキテクチャと大型チップが必要です。一方、エッジコンピューティング・エコシステム用に構築されたAIアクセラレーターは、エネルギー効率とほぼリアルタイムの結果を出す能力に重点が置かれています。
Wafer Scale Integration
Wafer Scale Integration(WSI)とは、非常に大規模なAIチップ・ネットワークを単一の「スーパー」チップに構築し、コスト削減とディープラーニング・モデルの性能向上を実現するプロセスです。最も人気のあるWafer Scale Integrationは、Cerebras社がTSMCの5nmプロセスで製造したWSE-3チップ・ネットワークで、現在世界最速のAIアクセラレーターです。
NPU
NPU(ニューラル・プロセッシング・ユニット)は、ディープラーニングとニューラル・ネットワーク、およびこれらのワークロードに固有のデータ処理要件に対応するAIアクセラレーターです。NPUは他のチップよりも高速に大量のデータを処理できます。画像認識や、ChatGPTのような人気のあるAIおよびMLアプリケーションの背後にあるニューラル・ネットワークなど、機械学習に関連する幅広いAIタスクを実行できます。
GPU
GPUは、コンピューター・グラフィックスや画像処理の性能を向上させるために構築された電子回路で、ビデオ・カード、マザーボード、携帯電話など、さまざまなデバイスで使用されています。しかし、並列処理機能により、AIモデルのトレーニングにもますます利用されるようになっています。一般的な方法の1つは、多数のGPUを単一のAIシステムに接続して、そのシステムの処理能力を高めることです。
フィールド・プログラマブル・ゲート・アレイ(FPGA)
FPGAは、特定の目的に合わせて再プログラムするには専門知識が必要な高度にカスタマイズ可能なAIアクセラレーターです。他のAIアクセラレーターとは異なり、FPGAは特定の機能に適した独自の設計となっており、多くの場合、リアルタイムでのデータ処理に関連しています。FPGAはハードウェア・レベルで再プログラム可能で、より高度なカスタマイズが可能です。一般的なFPGAアプリケーションには、航空宇宙、モノのインターネット(IoT)、無線ネットワークなどがあります。
特定用途向け集積回路(ASIC)
ASICは、特定の目的またはワークロードを念頭に置いて設計されたAIアクセラレーターで、たとえば、Cerebras社が製造したWSE-3 ASICアクセラレーターの場合、ディープラーニングが挙げられます。FPGAとは異なり、ASICは再プログラムできませんが、単一の目的で構築されているため、通常、他の汎用アクセラレーターよりも優れた性能を発揮します。その一例が、GoogleのTensor Processing Unit(TPU)です。これは、Googleが独自に開発したTensorFlowソフトウェアを使用して、ニューラル・ネットワーク機械学習用に開発されたものです。
スマートフォンやPCから、ロボティクスや人工衛星などの最先端AIテクノロジーに至るまで、AIアクセラレーターは新しいAIアプリケーションの開発において重要な役割を果たします。AIアクセラレーターの使用例をいくつかご紹介します。
AIアクセラレーターは、ほぼリアルタイムでデータを取得して処理できるため、自動運転車、ドローン、その他の自律走行車の開発には不可欠となっています。その並列処理能力は比類のないものであり、カメラやセンサーからのデータを処理・解釈し、車両が周囲に反応できるように処理することができます。たとえば、自動運転車が信号機に到達すると、AIアクセラレーターがセンサーからのデータの処理速度を上げ、信号機や交差点にいる他の車の位置を読み取ることができます。
エッジコンピューティングは、アプリケーションと計算能力をIoT(モノのインターネット)デバイスなどのデータ・ソースに近づけ、インターネット接続の有無にかかわらずデータの処理を可能にするプロセスです。エッジAIは、データをデータセンターに移動して処理するのではなく、MLタスクのAI機能やAIアクセラレーターをエッジで実行できるようにします。これにより、多くのAIアプリケーションにおけるレイテンシーとエネルギー効率が低下します。
大規模言語モデル(LLM)は、自然言語を理解して生成する独自の機能を開発するために、AIアクセラレーターに依存しています。AIアクセラレーターの並列処理は、ニューラル・ネットワークの処理速度を向上させ、生成AIやチャットボットなどの最先端AIアプリケーションの性能を最適化します。
AIアクセラレーターは、MLとコンピューター・ビジョンの機能を備えているため、ロボティクス業界の発展には欠かせないものとなっています。AIで強化されたロボティクスは、個人の付き添いから手術器具に至るまで、さまざまなタスク向けに開発される中、AIアクセラレーターは、人間と同じ速度と精度で環境を検知して対応する機能を開発する上で、引き続き重要な役割を果たします。
データ移動を必要とせずに、洞察を引き出し、信頼のおける実用的な成果を迅速に獲得できます。オープンソースのフレームワークとツールを使用して、IBM Z上のデータの中でも最も価値のある企業データにAIと機械学習を適用します。
IBM AIインフラストラクチャーは、セキュアでスケーラブル、オープンで補償付きのソリューションです。AIワークロードの高度に動的で性能重視の性質をサポートしながら、少ないコスト、リスク、エネルギー消費で長期にわたってAIを運用できるよう設計されています。
AIシステムの開発に使用される、特別に設計されたコンピューター・マイクロチップである人工知能(AI)チップについて詳しく説明します。
人工知能(AI)がコンピューターや機械が人間の知能と問題解決能力をシミュレートさせる仕組みについて紹介します。
スーパーコンピューティングという、高性能コンピューティングの一形態が、強力なコンピューターを使用して解決までの全体的な時間を短縮する方法について説明します。
生成AIが、ユーザーのプロンプトやリクエストに応じて、テキスト、画像、動画、音声、ソフトウェア・コードなどのオリジナル・コンテンツを生成する様子を紹介します。
オープンなコラボレーションによって開発・保守され、誰でも無料で利用できるソフトウェア、オープンソース・ソフトウェアについて詳しく説明します。
コンピューター・サイエンスと人工知能(AI)のサブフィールドで、機械学習を利用してコンピューターに人間の言語を理解させコミュニケーションを取らせることを可能にする、自然言語処理(NLP)について紹介します。