AI推論とは

共同執筆者

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

AI推論とは

人工知能(AI)推論とは、トレーニングされたAIモデルがパターンを認識し、これまで見たことのない情報から結論を導き出す能力です。

AI推論はAIテクノロジーの進歩に不可欠であり、人気の ChatGPTアプリケーションを支える機能である生成AIなど、最もエキサイティングなアプリケーションの基盤となっています。AIモデルはAI推論を利用して、人間の思考、理屈、プロンプトへの応答方法を模倣します。

AI推論は、意思決定アルゴリズムを使用して大規模なデータセットでAIモデルをトレーニングすることから始まります。AIモデルはニューラル・ネットワーク、つまり人間の脳のように構築された大規模言語モデル(LLM)でトレーニングされた意思決定アルゴリズムで構成されています。例えば、顔認識用に設計されたAIモデルは、何百万もの人間の顔の画像でトレーニングされる場合があります。最終的には、目の色、鼻の形、髪の色などの特徴を正確に識別することを学習し、それらを使って画像内の人物を認識できるようになります。

AI推論と機械学習の違い

AI推論と機械学習(ML)は密接に関連していますが、AIモデルのライフサイクルにおける異なる2つのステップです。

  • 機械学習 とは、教師あり学習のプロセスでトレーニング・データとアルゴリズムを使用して、AIが人間の学習方法を模倣できるようにし、その精度を徐々に向上させるプロセスです。

  • AI推論とは、データから判断、予測、結論付けるために、AIモデルがMLを通じて学習したことを適用するプロセスです。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

AI推論のメリット

AIモデルが、そのアプリケーションに適した堅牢なデータ・セットでトレーニングされていない場合、AIモデルはまったく効果的ではありません。このテクノロジーのデリケートな性質と、それが報道機関でどれほど綿密に精査されているかを考えると1、企業は慎重になる必要があります。しかし、さまざまな業界でデジタル・トランスフォーメーションとスケーラブルなイノベーションの可能性を提供するアプリケーションには、次のように多くのメリットがあります。

  • 精密で正確な結果: テクノロジーの進歩に伴い、AIモデルの精度は向上しています。例えば、最新のLLMでは、特定の著者の文体を模倣するように単語、文、文法を選択できます。アートやビデオの分野でも同じことができ、正確な雰囲気、トーン、芸術的なスタイルを伝えるように色やスタイルを選択できます。
  • 品質管理の向上: 最も刺激的なものになる可能性を秘めた最新のAIの拡張の1つは、システムの監視と検査の分野です。水質から気象パターンまで、さまざまなデータ・セットで訓練されたAIモデルが、現場の産業設備の正常性を監視するために使用されています。
  • ロボット学習: AI推論機能を備えたロボットやロボティクスは、ビジネス価値を高めるために様さまざまな作業に導入されています。おそらく、ロボット学習の用途の中で最も普及しているのは自動運転車でしょう。AI推論は、Tesla、Waymo、Cruzなどの自動運転車の会社で、ニューラル・ネットワークに交通ルールを認識して従うように教えるために広く使用されています。
  • 方向性のない学習: AI推論は、プログラムされずにデータに基づいてトレーニングされるため、効果的に実行するために必要な人的入力とリソースを削減できます。例えば、農業現場の画像でトレーニングされたAIモデルは、農家が雑草や不良作物を特定して減らすのに使用できます。
  • 情報に基づいたガイダンスと意思決定:AI推論の最も刺激的な応用例の1つは、AIがニュアンスや複雑さを理解し、学習したデータ・セットに基づいてアドバイスを提供する能力です。例えば、財務原則に基づいてトレーニングされたAIモデルは、適切な投資アドバイスを提供し、不正の可能性のある行為を特定できます。同様にAIは、病気の診断や航空機の操縦など、リスクの高い手順から、人為的ミスの可能性を排除できます。
  • エッジコンピューティング機能:AI推論とエッジコンピューティングによって、データをデータセンターに移動して処理する必要なく、AIのすべてのメリットをリアルタイムで実現できます。エッジにおけるAI推論の可能性は、倉庫内の在庫レベルの管理と監視から、自動運転車の安全な運用に必要なミリ秒単位の反応まで、幅広い影響を及ぼします。
AI Academy

AIの専門家になる

ビジネスの成長を促進するAIへの投資を優先できるように知識を習得します。今すぐ無料のAI Academyを試して、貴社のAIの未来をリードしましょう。

AI推論の課題

AI推論のメリットは数多くありますが、まだ急成長中の新しいテクノロジーですから、課題がないわけではありません。AIへの投資を検討している企業が考慮すべき、業界が直面している問題のいくつかをご紹介します。

  • コンプライアンス:AIアプリケーションとAI推論を規制する作業は困難であり、常に変化しています。その一例は、データ主権の領域です。これは、データはそれが生成された国または地域の法律の支配下にあるという概念です。複数の地域でAI目的のデータを収集、保存、処理するグローバル企業は、ビジネスに利益をもたらす方法でイノベーションを続けながら、複数の地域の法律を遵守し続けることが困難であると感じています。
  • 品質:AIモデルのトレーニングにおいて、モデルの成功には、トレーニングの対象となるデータの品質が非常に重要です。人間が下手な教師から学習した場合と同様に、質の低いデータ・セットでトレーニングされたAIモデルの性能は低下します。データ・セットは明確にラベル付けされ、AIモデルが学習しようとしているスキルに深く関連している必要があります。AI(特にAI推論の精度)に関わる重要な課題は、トレーニングに使用する適切なモデルを選択することです。
  • 複雑さ:データ品質と同様に、データの複雑さもAIモデルに問題を引き起こす可能性があります。再び人間の学生の例えを使用すると、AIのトレーニング内容が単純であればあるほど、学習が容易になります。カスタマー・サービス用チャットボットや仮想旅行エージェントなどの単純な問題に取り組むAIモデルは、医療画像や財務アドバイスなど、より複雑な問題向けに設計されたモデルと比べて、トレーニングが比較的簡単です。
  • スキルアップ:AIのような新しく急成長している分野の可能性を想像するのはスリリングですが、適切に機能するAIアプリケーションや正確なAI推論を作成するために必要な専門知識には、時間とリソースがかかります。人材の供給ルートがイノベーションのペースに追いつくまで、この分野の専門家は依然として高い需要があり、雇用には費用がかかります。
  • 台湾への依存:世界の半導体の60%、先進チップの90%(AI推論に必要なAIアクセラレーターを含む)は台湾島で製造されています。2さらに、世界最大のAIハードウェアとソフトウェアの企業であるNvidia社は、AIアクセラレーターをほぼ、台湾積体電路製造(TSMC)1社のみに依存しています。自然災害やその他の予測できない事件によって、AI推論とその多くのアプリケーションを強化するために必要なチップの製造と流通が脅かされる可能性があります。

AI推論の重要な構成要素

AI推論は、正確な応答を推論できるようになるまで、適切なデータ・セットでAIモデルをトレーニングする複雑なプロセスです。これは非常に計算負荷の高いプロセスであり、専用のハードウェアとソフトウェアが必要です。AI推論用にAIモデルをトレーニングするプロセスを見る前に、それを可能にする特殊なハードウェアをいくつか見てみましょう。

中央処理装置

中央処理装置(CPU)は、コンピューターの最も重要な機能構成要素です。AIのトレーニングと推論では、CPUがオペレーティング・システムを実行し、トレーニングに必要なコンピューティング・リソースの管理を支援します。

画像処理装置

画像処理装置(GPU)とは、高性能コンピューター・グラフィックスと画像処理用に構築された電子回路で、ビデオ・カード、マザーボード、携帯電話などのさまざまなデバイスで使用されています。しかし、その並列処理能力によって、AIモデルのトレーニングにも使用されることが増えています。1つの方法は、多数のGPUを単一のAIシステムに接続して、そのシステムの処理能力を高めることです。

フィールド・プログラマブル・ゲート・アレイ

フィールド・プログラマブル・ゲート・アレイ(FPGA)は、特定の目的に合わせて再プログラムするには専門知識が必要となる、高度にカスタマイズ可能なAIアクセラレーターです。他のAIアクセラレーターとは異なり、FPGAは特定の機能に適した独自の設計を採用しており、多くの場合、AI推論に不可欠なリアルタイムでのデータ処理に関係しています。FPGAはハードウェア・レベルで再プログラム可能なため、より高度なカスタマイズが可能です。

特定用途向け集積回路

ASICは、Cerebras社が製造するWSE-3 ASICアクセラレーターのディープラーニングのように、特定の目的またはワークロードを念頭に置いて設計されたAIアクセラレーターです。ASICは、データサイエンティストがAI推論機能を高速化し、コストを削減するのに役立ちます。FPGAとは異なり、ASICは再プログラムできませんが、単一の目的で構築されているため、通常、他の汎用アクセラレーターよりも優れたパフォーマンスを発揮します。その一例が、GoogleのTensor Processing Unit(TPU)です。これは、Googleが独自に開発したTensorFlowソフトウェアを使用して、ニューラル・ネットワーク機械学習のために開発されたものです。

AI推論の仕組み

デジタル・トランスフォーメーションの一環としてAIアプリケーションへの投資を検討している企業は、AI推論のメリットと課題について学んでおく必要があります。さまざまなアプリケーションを徹底的に調査し、使用する準備ができている方のために、効果的なAI推論を確立するための5つのステップをご紹介します。

データの準備

効果的なAIモデルとアプリケーションを作成するには、データの準備が不可欠です。企業は、組織内外のデータを使用してAIモデルをトレーニングするためのデータセットを作成できます。最適な結果を得るためには、両方を組み合わせて使用するのが一般的です。AIをトレーニングするデータを集める上でもう1つの重要な部分は、データのクレンジング、つまり重複するエントリーの削除とフォーマットの問題の解決です。

トレーニング・モデルの選択

データ・セットを収集したら、次のステップはアプリケーションに適したAIモデルの選択です。モデルは単純なものから複雑なものまでさまざまで、複雑なモデルは、それほど複雑でないモデルよりも多くの入力に対応し、微妙なレベルで推論することができます。このステップでは、ニーズを明確にすることが重要です。複雑なモデルをトレーニングするには、単純なモデルをトレーニングするよりも多くの時間、費用、その他のリソースが必要になる場合があるためです。

モデルのトレーニング

AIアプリケーションから望ましい出力を得るには、企業は通常、精密なAIトレーニングを何度も行う必要があります。モデルのトレーニングが進むにつれて、推論の精度は向上し、それらの推論に到達するために必要な計算能力やレイテンシーなどの計算リソースの量は減少します。モデルが成熟するにつれて、モデルは新しい段階に移行し、学習したデータに基づいて新しいデータに関する推論を開始できるようになります。モデルが設計どおりに動作し始めていることを確認できるため、これは刺激的なステップです。

出力の監視

モデルが運用可能と判断する前に、その出力に不正確さ、バイアス、またはデータ・プライバシーの問題がないか確認して監視することが重要です。このフェーズは後処理と呼ばれることもありますが、モデルの精度を確保するための段階的なプロセスを作成するフェーズです。後処理フェーズは、必要とする答えをAIが提供し、意図したとおりに機能することを保証するための方法論を構築する時期です。

デプロイメント

厳格な監視と後処理が完了すると、AIモデルをビジネス用に展開する準備が整います。この最後のステップには、AIモデルを機能させるためのアーキテクチャーとデータ・システムの実装のほか、日常業務におけるAIアプリケーションの使い方を利害関係者に教育するための変更管理手順の作成なども含まれます。

AI推論の種類

企業が必要とするAIアプリケーションの種類に応じて、選択できるAI推論にはさまざまな種類があります。企業がモノのインターネット(IoT)アプリケーションで使用するAIモデルの構築を検討している場合、ストリーミング推論(測定機能付き)が、おそらく最も適切な選択肢です。しかし、AIモデルが人間と対話するように設計されている場合は、(LLM機能を備えた)オンライン推論の方が適しています。ここでは、3種類のAI推論と、それぞれを際立たせる特性について説明します。

1. 動的推論

動的推論はオンライン推論とも呼ばれ、最速のAI推論であり、OpenAIのChatGPTなど、最も一般的なLLM AIアプリケーションで使用されています。動的推論では、要求された瞬間に出力と予測を行い、その後、機能するために低遅延と高速なデータ・アクセスが必要となります。動的推論のもう1つの特徴は、出力があまりにも早く届くため、エンドユーザーに届く前に確認する時間がないことです。そのため、一部の企業では、品質管理を確実にするために、アウトプットとエンドユーザーの間に監視レイヤーを追加しています。

2. バッチ推論

バッチ推論は、大規模なデータ・バッチを使用し、オフラインでAI予測を生成します。バッチ推論のアプローチでは、以前に収集されたデータがMLアルゴリズムに用いられます。数秒以内に出力が必要な状況には適していませんが、販売やマーケティングのダッシュボード、リスク評価など、1日中または1週間にわたって定期的に更新されるAI予測には、バッチ推論が最適です。

ストリーミング推論

ストリーミング推論では、通常はセンサーからの定期的な測定を通じて提供されるデータのパイプラインから、データをアルゴリズムに与えます。アルゴリズムはそのデータを使って計算と予測を継続的に行います。インターネットに接続されたセンサーを介して、都市の発電所や交通の監視に使用されるAIなどのIoTアプリケーションは、ストリーミング推論を使って意思決定を行います。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiをご覧ください。
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモを予約