AIインフラストラクチャーとは

病院で患者のCTスキャンを調べる2人の医師

共同執筆者

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

AIインフラストラクチャーとは

AI(人工知能)インフラストラクチャーは、AI搭載のアプリケーションやソリューションの作成と導入に必要なハードウェアとソフトウェアを指す用語で、AIスタックとも呼ばれます。

高性能なAIインフラストラクチャーによって開発者は、OpenAI社のChat GPTなどのチャットボット、顔認識や音声認識コンピューター・ビジョンのようなAIと機械学習(ML)のアプリケーションを効果的に作成し展開できます。規模や業界を問わず、あらゆる企業がAIの目標を実現するためにAIインフラストラクチャーに頼っています。AIインフラストラクチャーの重要性とその仕組みを説明する前に、いくつかの重要な用語を見てみましょう。

人工知能とは

AIは、人間の考え方をコンピューターがシミュレートし、問題を解決できるようにするテクノロジーです。AIテクノロジーは、インターネット、センサー、ロボティクスなどの他のテクノロジーと組み合わせることで、車両の操作、質問への回答、大量のデータから洞察を引き出すなど、通常は人間の入力を必要とするタスクを実行できます。AIの最も人気のあるアプリケーションの多くは、データとアルゴリズムに特化したAIの分野である機械学習モデルに依存しています。

機械学習(ML)とは

MLは、データとアルゴリズムを使用して人間の学習方法を模倣し、時間の経過とともに回答の精度を向上させるAIの重点分野です。MLは、予測を行う、または情報を分類するための意思決定プロセス、その作業の精度を評価するエラー機能、既知の例とモデル推定値の間の矛盾を減らす大規模言語モデル(LLM)とモデル最適化プロセスに依存しています。MLアルゴリズムは、モデルの精度に関して定義された閾値が満たされるまで、この「評価と最適化」のプロセスを繰り返します。

AIとMLの微妙な違いの詳細については、ブログ記事「AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What’s the difference? 」をご覧ください。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

AIインフラストラクチャーとITインフラストラクチャーの比較

企業がAIを活用する方法をますます多く発見するにつれて、その開発をサポートするために必要なインフラストラクチャーの構築が最も重要になってきています。サプライチェーンのイノベーションを促進するためにMLを導入する場合でも、生成AI チャットボットのリリースを準備する場合でも、適切なインフラストラクチャーを整えることが重要です。

AIプロジェクトがオーダーメイドのインフラストラクチャーを必要とする主な理由は、AIワークロードの実行に必要な処理能力が非常に大きいためです。このような処理能力を得るために、AIインフラストラクチャーは、従来のITインフラストラクチャー環境において典型的な従来の中央処理装置(CPU)ではなく、クラウド環境の低遅延と画像処理装置(GPU) の処理能力に依存しています。

さらに、AIインフラストラクチャーは、ITインフラストラクチャーで好まれるPC、ソフトウェア、オンプレミスのデータセンターではなく、クラウドやAI・MLのタスク用に特別に設計されたハードウェアとソフトウェアに集中しています。AIエコシステムでは、ソフトウェア・スタックには通常、TensorFlowやPyTorchなどのMLライブラリーとフレームワーク、Pythonや Java などのプログラミング言語、Apache SparkHadoopなどの分散コンピューティング・プラットフォームが含まれます。

オフィスでミーティングをするビジネスチーム

IBMお客様事例

お客様のビジネス課題(顧客満足度の向上、営業力強化、コスト削減、業務改善、セキュリティー強化、システム運用管理の改善、グローバル展開、社会貢献など)を解決した多岐にわたる事例のご紹介です。

AIインフラストラクチャーのメリット

AIインフラストラクチャーに投資している企業は、顧客向けの最先端のアプリケーションの開発をサポートするだけでなく、通常、プロセスとワークフローの大幅な改善を実感しています。高性能なAIインフラストラクチャーを開発した企業が期待できる最も一般的な6つのメリットをご紹介します。

拡張性と柔軟性の向上

AIインフラストラクチャーは通常クラウドベースであるため、オンプレミスのITインフラストラクチャーよりもはるかにスケーラブルで柔軟性に優れています。AIアプリケーションを動かすために必要なデータセットが大規模で複雑になるにつれて、AIインフラストラクチャーは並行して拡張するように設計されているため、組織は必要に応じてリソースを増やすことができます。柔軟なクラウド・インフラストラクチャーは適応性が高く、変化する企業の要件が変化するに合わせて、従来のITインフラストラクチャーよりも簡単にスケール・アップやスケール・ダウンができます。

性能と速度の向上

AIインフラストラクチャーは、GPUやテンソル・プロトコル・ユニット(TPU)などの最新のハイパフォーマンス・コンピューティング(HPC)テクノロジーを利用して、AI機能を支えるMLアルゴリズムを強化しています。AIエコシステムには並列処理機能があり、MLモデルのトレーニングに必要な時間を大幅に短縮できます。高頻度取引アプリや自動運転車など、多くのAIアプリケーションでは速度が非常に重要であるため、速度と性能の向上はAIインフラストラクチャーの重要な機能です。

連携の増加

高性能なAIインフラストラクチャーは、ハードウェアやソフトウェアだけではなく、開発者やエンジニアがAIアプリを構築する際に、より効果的に連携するためのシステムやプロセスも提供します。MLOpsの慣行に依拠することで、AI開発のライフサイクルが構築され、MLモデルの作成が合理化・自動化されるため、AIシステムによって、エンジニアはAIプロジェクトをより効果的に構築、共有、管理することができます。

コンプライアンスの向上

データ・プライバシーとAIをめぐる懸念が高まるにつれ、規制環境はますます複雑になっています。そのため、堅牢なAIインフラストラクチャーでは、新しいAIアプリケーション開発におけるデータ管理とデータ処理で、プライバシー法が厳格に遵守されるように徹底する必要があります。AIインフラストラクチャー・ソリューションは、適用されるすべての法律と基準が厳密に遵守され、AIコンプライアンスが実施されるように徹底して、ユーザー・データを保護し、企業を法的損害や社会的評判の失墜から守ります。

コスト削減

AIインフラストラクチャーへの投資には高額な費用がかかる場合がありますが、従来のITインフラストラクチャー上でAIのアプリケーションや機能を開発しようとすると、さらにコストがかかる可能性があります。AIインフラストラクチャーによって、AIプロジェクトの開発と導入において、リソースを最適化し利用可能な最高のテクノロジーを活用できるようになります。高性能なAIインフラストラクチャーに投資することで、時代に合わない非効率なITインフラストラクチャーでAIに対する取り組みを達成しようとするよりも、投資収益率(ROI)が向上します。

生成AI機能の活用

生成AIとは、ユーザーからの簡単なプロンプトを使用して、テキスト、画像、動画、コンピューター・コードなどのコンテンツを独自に作成できるAIです。生成AIアプリケーションであるChatGPTが2年前に発表されて以来、世界中の企業がこの新しいテクノロジーを活用する新しい方法を熱心に試してきました。生成AIで、企業と個人の生産性を飛躍的に向上させることができますが、それには現実的なリスクが伴います。生成AIを中心とした高性能なフレームワークを備えたAIインフラストラクチャーは、企業が生成AIの機能を安全かつ責任を持って開発する上で役立ちます。

AIインフラストラクチャーの仕組み

高度なAIとMLのアプリケーションを構築するために必要なリソースをエンジニアや開発者に提供する際、AIインフラストラクチャーは最新のハードウェアとソフトウェアを組み合わせて使用します。通常、AIインフラストラクチャーは、データ・ストレージとデータ処理、コンピューティング・リソース、MLフレームワーク、MLOpsプラットフォームの4つの構成要素に分類されます。ここでは、それらがどのように機能するかについて詳しくご紹介します。

データ・ストレージと処理

AIアプリケーションが効果を発揮するには、大規模なデータ・セットでトレーニングする必要があります。強力なAI製品とサービスの展開を検討している企業は、オンプレミスまたはクラウド・ベースのデータベース、データウェアハウス、分散ファイルシステムなど、スケーラブルなデータ・ストレージと管理ソリューションに投資する必要があります。さらに、多くの場合、AIモデルのトレーニングに使用する前にデータを処理、クリーニングするために、Pandas、SciPy、NumPyなどのデータ処理フレームワークとデータ処理ライブラリーが必要になります。

コンピューティング・リソース

MLとAIのタスクを実行するには、大量の計算能力とリソースが必要です。適切に設計されたAIインフラストラクチャーには、多くの場合、並列処理機能を提供し、MLタスクを高速化するために、画像処理装置(GPU)やテンソル・プロセッシング・ユニット(TPU)などの、目的に特化されたハードウェアが含まれています。

画像処理装置(GPU): GPUはその多くがNvidiaやIntelによって製造されています。多くの操作を一度に実行できる独自の機能を備えているため、AIモデルのトレーニングや実行に使用されている電子回路です。通常、AIインフラストラクチャーには、AIのタスクで一般的な行列計算やベクトル計算を高速化するためのGPUサーバーが含まれています。

テンソル・プロセッシング・ユニット(TPU):TPUは、AIワークロードのテンソル計算を高速化するためにカスタム構築されたアクセラレーターです。高いスループットと低遅延によって、多くのAIアプリケーションやディープラーニング・アプリケーションに最適です。

機械学習フレームワーク

MLフレームワークは、AIがMLモデルを設計、トレーニング、展開するために必要な特定のリソースを提供します。TensorFlowやPyTorchなどのMLフレームワークは、GPU タスクの高速化や、教師ありトレーニング、教師なしトレーニング、強化トレーニングという3種類のMLトレーニングに不可欠な機能など、AIアプリケーションに必要なさまざまな機能をサポートしています。強力なMLフレームワークは、機械学習のプロセスを高速化し、AIアプリケーションの開発と展開に必要なツールを開発者に提供します。

MLOpsプラットフォーム

MLOpsは、機械学習の自動化と高速化を実現するための連続した特定の慣行を含むプロセスです。MLOpsプラットフォームは、アプリケーションの検証、トラブルシューティング、運用開始後のアプリケーションの監視まで、データ収集とモデル・トレーニングで開発者とエンジニアを支援します。MLOpsプラットフォームはAIインフラストラクチャーの機能を支え、データ・サイエンティストやエンジニアなどが新しいAI対応ツールや製品、サービスをローンチできるよう支援します。

強力なAIインフラストラクチャーを構築するための6つのステップ

ここでは、あらゆる規模や業界の企業が、必要なAIインフラストラクチャーを構築するために実行できる6つのステップをご紹介します。

1. 予算と目標を明確にする

効果的なAIインフラストラクチャーを構築・維持したいと考えている企業が利用できる、多くのオプションについて調査する前に、AIインフラストラクチャーに何を求めるのかを明確に設定することが重要です。解決したい問題や投資予定額などに対して明確な答えを持つことで、ツールやリソースを選択する際の意思決定プロセスを合理化しやすくなります。

2. 適切なハードウェアとソフトウェアを選択する

ニーズに合った適切なツールとソリューションを選択することは、信頼できるAIインフラストラクチャーを構築するための重要なステップです。機械学習を高速化するためのGPUやTPUから、ソフトウェア・スタックを構成するデータ・ライブラリーやMLフレームワークまで、リソースを選択する際には、多くの重要な選択に直面します。目標と投資のレベルを常に念頭に置き、それに応じて選択肢を評価してください。

3. 適切なネットワーキング・ソリューションを見つける

高速で信頼性の高いデータの流れは、AIインフラストラクチャの機能性において重要です。5Gのような高帯域幅で低遅延のネットワークにより、ストレージと処理の間で大量のデータを高速かつ安全に移動できます。さらに、5Gネットワークは、プライバシー、セキュリティ、カスタマイズ性の追加レイヤーとして、パブリック・ネットワーク・インスタンスとプライベート・ネットワーク・インスタンスの両方を提供します。世界最高のAIインフラストラクチャ・ツールでも、設計された方法で機能するための適切なネットワークがなければ役に立ちません。

4. クラウド・ソリューションかオンプレミス・ソリューションかを決める

AIインフラストラクチャーのすべての構成要素は、クラウドとオンプレミスの両方で提供さているため、どちらが適切かを判断する前に、両方の利点を検討することが重要です。AWS、Oracle、IBM、Microsoft Azureなどのクラウド・プロバイダーは、柔軟性と拡張性に優れているため、一部の機能についてはより安価な従量課金制モデルを利用できますが、オンプレミスのAIインフラストラクチャーにも利点があり、多くの場合、より詳細な制御が可能になり、特定のワークロードのパフォーマンスが向上します。

5. コンプライアンス対策を確立する

AIとMLは高度に規制されたイノベーションの分野であり、この分野でアプリケーションをローンチする企業が増えるにつれて、さらに厳しく監視されるようになります。この分野を管理する現在の規制のほとんどは、データ・プライバシーとセキュリティーに関するものであり、違反した場合、企業は損害賠償金を課されたり社会的評判が失墜したりする可能性があります。

6. ソリューションを実装し保守する

AIインフラストラクチャーを構築するための最後のステップは、AIインフラストラクチャーの立ち上げと保守です。インフラストラクチャーを利用する開発者とエンジニアのチームに加えて、ハードウェアとソフトウェアを最新の状態に保ち、導入したプロセスが守られていることを担保する手段が必要になります。これには通常、ソフトウェアの定期的な更新とシステム診断の実行、プロセスおよびワークフローのレビュー、監査などがあります。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiの詳細はこちら
人工知能ソリューション

IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。

AIソリューションの詳細はこちら
人工知能(AI)コンサルティングおよびサービス

IBMコンサルティングAIサービスは、企業がAIをトランスフォーメーションに活用する方法を再考するのに役立ちます。

AIサービスの詳細はこちら
次のステップへ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモの予約