AIの誤情報:会社のエクスポージャーとリスクを減らす方法

タブレットを見ながら建物の近くに立っている人

共同執筆者

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

正確な情報は、現代の企業の生命線です。彼らは、サプライチェーン管理から製品マーケティングまで、あらゆる重要なビジネス上の意思決定をAIに頼って行っています。

人工知能(AI)はこのようなデータ駆動型の意思決定を改善できる一方で、それを妨げる可能性もあります。AI生成コンテンツには、フェイクニュースの見出しやひどい法的アドバイスから、Elmerの液体のりを主要な材料として使用したピザのレシピまで、間違いだらけである可能性があります。1

このような厄介な状況が過去のものになる日は来るのでしょうか。AIの愛好家が信じたいと思うほど、答えはおそらくそうではないのでしょう。

IBMのMatt Candy氏は、生成AI(gen AI)モデルは常に、少なくとも一部の誤情報を不注意から生成する危険性があると説明しています。「これらの物事は本質的に予測的なものであるという事実のために、次の言葉が何であるかを予測し推測しているため、常に何らかのリスクがあるわけです」と、IBM Consultingの生成AI担当グローバル・マネージング・パートナーであるCandy氏は述べています。

Candy氏は、従来の機械学習(ML)モデルも誤情報を生成する可能性を免れているわけではないと付け加えています。「これらのモデルは、事実上、何らかの結果を予測しようとする統計的な種類のマシンです」と彼は言います。「つまり結局のところ、これらのモデルは不正確な答えや結果を予測する可能性があるのです。」

しかし幸いにも、自社のAIシステムが誤情報を生成して拡散させる可能性を減らすために企業が講じることができる手順は複数あります。

こうした対策でAI生成の誤情報のすべてのインスタンスを防ぐことができない場合、企業は誤情報が被害をもたらす前に検知するセーフガードを導入することもできます。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

誤情報を理解する

AI生成の誤情報から企業がどのように身を守ることができるかを検討する前に、誤情報と関連する概念を詳しく調べることが重要です。これらの概念は主に、今日の情報エコシステムにおけるAIの広範な使用よりも前からのものですが、これらの現象に対するAIの影響は大きいものです。

誤情報

誤情報とは正しくない情報のことです。一部の定義では、誤情報は他の情報を欺くために意図的に作成されるのではなく、エラーによって引き起こされるものであると述べています。

AI生成の誤情報の例としては、不正確または無意味なアウトプットを生成する大規模言語モデル(LLM)や、非現実的または不正確な描写(腕が多すぎる「実在の人物」など)を含むAI生成画像などが挙げられます。

AIのハルシネーションは、AI生成の誤情報の一般的な原因です。AIのハルシネーションは、AIアルゴリズムがトレーニング・データに基づかないアウトプットを生成したり、トランスフォーマーによって誤ってデコードされたり、識別可能なパターンに従わなかったりするときに発生します。

「ハルシネーションが起こる仕組みは、AIモデルが言語が流暢であることを確認しようとするだけでなく、異なる情報源をつなぎ合わせようとすることです」と、IBM ResearchのIBMフェロー、Kush Varshneyは説明します。「人間でも、複数のことを同時にやろうとすると、失敗することがあります。これはAIモデルでも起こっていることで、言語を流暢にしようとする一方で情報を見失い、その逆もまた然りなのです。」

偽情報

偽情報は誤情報の一種と見なされることもありますが、対象者を欺くために作成された偽のコンテンツであるという点で区別されます。例としては、陰謀論や、最近では捏造された音声および動画の資料が含まれます。

2024年のアメリカ大統領選挙に至るまで、チャットボットやその他のAIツールによって引き起こされた偽情報の顕著な事例が発生しました。これには、当時の大統領で民主党候補のジョー・バイデンの声になりますましたロボコールや、共和党のドナルド・トランプ大統領に対する虚偽の有名人の支持を伝える画像の拡散などが含まれます。2,3

AI生成のディープフェイクやその他の欺瞞的な偽情報コンテンツを検知するツールはさまざまな成果をもたらしてきましたが、最新世代のAIテキスト検出器は、以前のバージョンよりも効果的であることが証明されています。4,5一方で、TikTokやFacebookなどのソーシャル・メディア・プラットフォームは、AI生成コンテンツのラベリングを開始しています。6

悪意のある情報

誤情報や偽情報とは異なり、悪意のある情報は現実や事実に基づいた、潜在的に有害な情報です。悪意のある情報は、人や企業などの他者に損害を与えるために配布されるため、損害を与えます。

たとえば、機密情報を許可なしに共有することは、悪意のある情報の保護の下にあるもので、AIによって増幅された慣行です。詐欺師は生成AIツールを使用して、機密情報の入手と拡散に役立つ洗練された効果的なフィッシング・メールを作成できます。

AI生成の誤情報を根本から軽減する

すべてのAIのアウトプットに完全にエラーがないことを保証することは不可能かもしれませんが、AIシステムが不正確な情報や完全に捏造された情報を生成する可能性を大幅に低減するために企業が実行できる手順はいくつかあります。

  • データ品質の確保
  • 検索拡張生成(RAG)のデプロイ
  • 小規模な生成AIモデルを使用

データ品質の確保

AIモデルのパフォーマンスには、高品質のデータが不可欠です。偏りとハルシネーションの可能性を最小限に抑えるには、多様でバランスが取れ、適切に構造化されたデータでトレーニングする必要があります。テクノロジー企業やAI開発者は、データ準備ツールやデータ・フィルタリング・ツールを使用して、低品質のデータや悪意のある情報を含む憎悪的なコンテンツを削除することで、トレーニング・データの品質を向上させることができます。

検索拡張生成(RAG)のデプロイ

AIハルシネーションの可能性を減らすための最も人気のあるツールの 1 つは、検索拡張生成(RAG)です。RAGは、生成AIモデルを企業の組織データ、学術誌、専門的なデータセットなどの外部データソースに接続するアーキテクチャーです。このような情報にアクセスすることで、AIチャットボットやその他のツールは、より正確でドメイン固有のコンテンツを生成できるようになります。

小規模な生成AIモデルを使用

OpenAIのChatGPTに含まれる消費者向けLLMアプリケーションは世間の注目を集めていますが、企業は多くの場合、ハルシネーションに対する脆弱性が低く、ニーズにより適した、より小規模で専門的なAIモデルを見つけています。

「これらの大きなフロンティア・モデルは、できるだけ多くのデータでトレーニングされています」Candy氏は言います。「しかし、ほとんどの企業のユースケースについて考えると、シェイクスピア、Reddit、その他公開されているすべてのデータでトレーニングされたモデルは必要ありません。」

モデルが小さいほどコンテキスト・ウィンドウが狭くなり、使用するパラメーターも少ないため、ハルシネーションのリスクが低下します。「物事がごちゃごちゃになる可能性は低くなります」とVarshneyは付け加えます。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

AIの誤情報による損害の前の警告

AIが生成する誤情報による損害を回避する場合、ハルシネーションを軽減するための対策はパズルの一部にすぎません。企業はまた、ハルシネーションや不正確なアウトプットのすり抜けを検知するためのストラテジーやツールを用意する必要があります。

AIのハルシネーション検知ツール

現在、主要なAIガバナンス・プラットフォームと基盤モデルには、ハルシネーションを検知する機能が組み込まれています。IBM watsonx.governanceまた、IBM の最新のGranite Guardianリリース(IBM Granite Guardian 3.1、企業向けに設計されたIBMの Granite言語モデル・ファミリーの一部) はどちらも、回答の関連性や「忠実度」などの指標で生成AIモデルのパフォーマンスを評価します。

「彼らはそれを、ハルシネーションとは反対の『忠実さ』と呼んでいます。」Varshneyは説明します。「回答がソースドキュメントに忠実である場合は、ハルシネーションではありません。」Granite Guardian 3.1には、脱獄、冒とく、社会的偏見など、逆効果となるAIの使用と出力を検出する機能も備わっています。

人間による監視とやり取り

AIガバナンス・ツールがあるとしても、AI生成の誤情報の拡散を防ぐ上で、人間は依然として重要な役割を担っています。企業はAIシステムを導入する際には、人間による監視を可能にするコントロールポイントをどこに確立しているかを検討する必要があると、Candy氏は言います。「私たちは、人間の相互作用、人間によるチェックとバランス、人間の意思決定が行われるプロセスのポイントを意図的に設計する必要があります。」

ますます高度なタスクに対処できる強力なAIエージェントの出現により、このような人間による意思決定が特に重要になっている、と彼は指摘します。

たとえば、ライフサイエンス企業では複数のAIエージェントを使用して新薬開発に関するコンプライアンスレポートを調査および作成する場合がありますが、それでも官公庁・自治体に提出する前に、レポートをレビューおよび事実確認する従業員を1人割り当てます

「最終的には、そのプロセスには引き続き人間が関与し、チェックと検証を行うことになります」と、Candy氏は言います。「私は人間という駒の重要性を過小評価しません。」

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンスのソリューションとサービス

AIの潜在能力を最大限に引き出し、AIガバナンスが従業員のAIに対する信頼を高め、導入とイノベーションを加速し、顧客の信頼を向上させるのにどのように役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約