2025年のAI導入における5つの最大の課題

2025年2月14日

著者

Cole Stryker

Editorial Lead, AI Models

Gather

2025年のAI導入における5つの最大の課題

5年前、IBMのRob ThomasとPaul Zikopoulosは、人工知能(AI)の導入を成功させるため、AI Ladderという名前のフレームワークを組み込みました。これは、「リーダーがAIの導入を理解し、その導入を加速できるようにするための、統一された規範的なアプローチ」です。このフレームワークは本になり、次のようなやや古風とも思われるようなコピーで宣伝されました。

「誰もがAIについて話しています。なぜでしょうか。私たちは、AIがあらゆる業界のあらゆる規模の企業にとって大きなチャンスをもたらすと信じています」。

AIの現状を考えると、この時代では、AIが大きな問題になると著者が読者に説得する必要性を感じていたことが伺えて興味深いです。また、注目すべきは、ラダー、つまりはしごの各「段」、つまり「モダナイズ」「収集」「整理」「分析」「注入」です。

2020年当時、その最初の段階に足を踏み入れることさえできていない組織がまだ数多くありました。それからわずか5年の間に、コンサルティング大手、McKinsey社のレポートを読むまでもなく、AIが未来をつくることは明らかになりました。

事実上、あらゆる組織が、ある程度AIを導入することができます。新しいテクノロジーの進歩により、投資収益率(ROI)を即座に生み出すAIの統合が容易になりました。

AI導入に躊躇するのは、AIの可能性に関する不確実性を疑っているからではなく、AIを正しく実行できるかに自信が持てないためです。

IBM Institute of Business Valueが発表したレポートでは、AI導入に関する興味深いデータ、具体的には、組織が生成人工知能(生成AI)の導入を進める上で依然として妨げとなっている障害を明らかにしました。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

  1. 1. データの正確性やバイアスに関する懸念(45%)

回答者のほぼ半数が、データの正確性やバイアスについて懸念を示しました。ビジネス・リーダーは、ガバナンス透明性AI倫理を優先することで、このような懸念を払拭できるでしょう。

AIガバナンスは、AIテクノロジーの開発と応用におけるコンプライアンス、信頼、効率性を実現するために不可欠です。効果的なAIガバナンスには、イノベーションと信頼醸成を促進しながら、バイアス、プライバシー侵害、悪用などのリスクに対処する監視メカニズムが含まれます。

倫理的なAI委員会や規制フレームワークへの準拠などの強力なガバナンス構造は、説明責任と責任あるAIのデプロイメントの維持を促進します。

AI倫理とは、リスクと悪影響を軽減しながら AIの有益な影響を最適化する方法を研究する学際的な分野です。AI倫理には、データの責任とプライバシー、公平性、説明可能性、堅牢性、透明性、その他の倫理的考慮事項が含まれます。

公平性チェックやその他の是正措置はAI倫理に該当し、AIアウトプットの信頼性と公平性を確保するのに役立ちます。

AIの透明性により、人々は情報にアクセスして、AIソリューションがどのように作成され、どのように意思決定が行われるかをより深く理解できるようになります。研究者はAIを「ブラックボックス」と表現することがあります。これは、テクノロジーの複雑さが増す中で、AIの成果を説明、管理、規制することが依然として難しいためです。AIの透明性は、このブラックボックスを開いてAIの成果をより正確に理解するのに役立ちます。

レポート                        

AI in Action 2024でAIについて現実的に考えてみましょう。

2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。

  1. 2. モデルをカスタマイズするために利用できる独自のデータが不十分(42%)

回答者の約42%は、組織が十分な独自データにアクセスできないと感じていると回答しました。企業は、データ拡張、合成データ生成、戦略的なデータ・パートナーシップを組み合わせて使用​​することで、生成AIモデルをカスタマイズするための高品質データが不足するという重大な課題を克服できます。

効果的なアプローチの1つは、まったく新しいデータを収集せずに、言い換え、翻訳、ノイズの追加などの拡張手法を使用して既存のデータセットを強化し、多様性を高めることです。

コンピューター・シミュレーションによって人工的に作成された、またはAIアルゴリズムによって生成された合成データは、現実世界のデータに取って代わることができます。こうした合成データは、現実世界のデータがすぐに入手できない場合に、そのデータの代替または補足として使用できます。

もう一つの重要な戦略は、戦略的パートナーシップを形成し、業界全体のデータ共有イニシアチブに参加することです。競合関係にない企業、研究機関、コンソーシアムと連携することで、企業は倫理上の懸念を回避し、法的基準を遵守しながら、より大規模で多様なデータセットにアクセスできるようになります。

未加工データを共有せずに分散データ・ソース全体でモデルをトレーニングするフェデレーテッド・ラーニングは、セキュリティとコンプライアンスを維持しながら外部データからメリットを得るもう1つの方法です。

  1. 3. 生成AIの専門知識が不十分(42%)

生成AIはまだ新しいものですが、企業は人材育成、戦略的パートナーシップ、利用可能なAIツールに投資することで、生成AIに関する専門知識の不足に対処することができます。

最も効果的なアプローチの1つは、AIと 機械学習(ML)に関する専門的なトレーニング・プログラム、ワークショップ、認定を通じて、既存の従業員のスキルを向上させることです。AIツールの実践的な経験を提供し、継続的な学習の文化を育むことは、社内のスキル・ギャップを埋めるのに役立ちます。

企業は社内の専門知識を開発するだけでなく、AIベンダー、研究機関、コンサルティング会社と連携して専門知識にアクセスすることもできます。

AIのスタートアップ企業やテクノロジー・プロバイダーと提携することで、企業はすべてをゼロから組み込む必要なく、外部の専門知識を活用できるようになります。オープンソース・エコシステムを活用することで、貴重な洞察や事前に組み込まれたモデルも得られ、AI戦略を実行することに伴う複雑さが軽減されます。

もう1つの解決策は、技術的背景が限られている従業員でも生成AIを操作できるようにする、ローコードまたはノーコードのAIプラットフォームを採用することです。これらのツールはAIの導入とカスタマイズを簡素化し、企業が深い専門知識を必要とせずにAIを ワークフローに簡単に統合できるようにします。

  1. 4. コストをかける正当性またはビジネスケースが不十分(42%)

企業は、コスト削減、収益増加、競争優位性、リスク軽減に重点を置く中、生成AIイニシアチブにコストをかける正当性を明確にする必要があります。

ビジネス・プロセスの自動化、マーケティング・コンテンツの生成、デジタル・トランスフォーメーションの加速など、生成AI機能によってより効率的になる具体的なユースケースを特定する必要があります。

サプライチェーンの自動化による人件費の削減、市場投入までの時間の短縮、顧客エンゲージメントの向上など、AIのメリットを定量化することで、企業はROIを見積もることができます。

企業は、AIを活用した製品の提供、パーソナライズされた顧客体験、リアルタイムの意思決定など、新たな収益源の可能性も十分に考慮する必要があります。小規模でリスクの低いパイロット・プロジェクトから始めると、さらなる投資を正当化する具体的な成果が得られます。

コストをかける正当性を明確にする上で、リスク評価も有用です。組織は、既にAIを導入している競合他社に市場シェアを奪われたり、AIプロジェクトで解決できる非効率性が生じたりすることなど、何もしないことで生じるコストを検討する必要があります。

5. データや情報のプライバシーや機密性に関する懸念(40%)

プライバシーに関する懸念は、依然として、AI導入の大きな障壁となっています。ここでも、データ・ガバナンスと責任あるAIの原則が重要な役割を果たします。重要な最初のステップは、情報をAIモデルに取り込む前に、匿名化、差分プライバシー、暗号化などのデータ管理技術を使用して機密データの露出を制限することです。

これにより、個人を特定できる情報(PII)や独自のビジネス・データが公開されるリスクを軽減できます。企業はまた、AIシステムが厳格なアクセス制御と監査メカニズムに従って、誰がデータとやり取りし、どのようにデータが使用されているかを追跡できるようにする必要があります。

フェデレーテッド・ラーニングは効果的なアプローチであり、データ自体を移動することなく、複数の分散データセットにわたってAIモデルをトレーニングできるため、プライバシーが保護されます。

規制遵守ももう一つの重要な要素です。企業は、AIの使用をGDPRCCPAなどの世界的なデータ・プライバシー法や業界固有の規制に準拠させる必要があります。定期的にプライバシー影響評価を実施し、AIアプリケーションがデータを処理する方法に関する明確なドキュメントを維持することで、企業はコンプライアンスを維持し、顧客の信頼を築くことができます。

前進する

幸いなことに、多くの組織がこれらの課題にうまく対処し始めています。

  • 回答企業の80%は、AIまたは生成AIに関連するリスクを専門に扱うリスク管理部門を別に設けています。

  • 81%が、生成AIによってもたらされる潜在的なセキュリティー上の脅威を特定するために、定期的なリスク評価を実施しています。

  • 78%は、生成AIモデルの動作とトレーニング方法の説明可能性を高めるために、堅牢なドキュメントを維持しています。

  • 76%が、生成AIガバナンスのための明確な組織構造、ポリシー、プロセスを確立しています。

  • 72%が、データを管理し、潜在的なリスクに対処するためのポリシーと手順を策定しています。

AI導入における一般的な課題を克服するには、AI開発チームだけでなく、テクノロジー、財務、セキュリティー、法務など、各関係部門も含めた総合的なアプローチが必要です。一方、テクノロジーの進歩の速さを考慮すると、出遅れた企業が着手するのに最適なタイミングは、まさに今です。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiをご覧ください。
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモを予約