保険業界におけるAIのリスクと限界

職場でノートPCを一緒に使用している人事部の同僚の写真

人工知能(AI)は賛否両論を巻き起こしています。それは未来主義者を興奮させ、保守的な人々には不安を生み出します。前回の投稿では、識別AIと生成AIの機能の違いを説明し、AIが保険会社と被保険者の関わり方を変えるチャンスのある世界を概説しました。このブログでは議論を進め、AI導入のリスクを調査し、AI導入に対する安全で賢明な対応策を提案します。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

AIのリスクと限界

保険業界におけるAIの導入に関連するリスクは、技術面と使用面の2つのカテゴリーに大きく分類できます。

技術的なリスク—データの機密性

主な技術的リスクはデータの機密性の問題です。AI開発により、前例のない規模で情報の収集、ストレージ、処理が可能になり、他者の同意なしに低コストで個人データを特定、分析、使用することが非常に簡単になりました。AIテクノロジーとのやり取りから生じるプライバシー漏洩のリスクは、消費者の懸念と不信頼の大きな原因となっています。

AIがデータを操作して新しいコンテンツを作成する生成AIの出現により、企業のデータの機密性に新たなリスクが生じます。例えば、ChatGPTなどの生成AIシステムに企業データを供給して、機密の企業研究の要約を作成すると、データのフットプリントがAIのクラウド・サーバーに残り、競合他社からのクエリーにアクセスできることになります。

技術的リスク—セキュリティー

AIアルゴリズムは、AIに洞察を与える能力を与えるトレーニング・データを最適化するパラメーターです。アルゴリズムのパラメーターが漏洩した場合、第三者がモデルをコピーでき、モデルの所有者に経済的および知的財産の損失をもたらす可能性があります。さらに、サイバー攻撃者によってAIアルゴリズム・モデルのパラメーターが不正に変更された場合、AIモデルの性能が低下し、望ましくない結果につながる可能性があります。

技術的リスク—透明性

AIシステム、特に生成AIのブラックボックス特性により、AIアルゴリズムの意思決定プロセスの理解が難しくなっています。重要なのは、保険業種は金融規制のある業界であり、規制当局にとってアルゴリズムの透明性、説明可能性、監査可能性が極めて重要であるということです。

使用上のリスク—不正確さ

AIシステムのパフォーマンスは、学習するデータに大きく依存します。AIシステムが不正確なデータ、偏ったデータ、または盗作されたデータでトレーニングされると、たとえ技術的に適切に設計されていても、望ましくない成果をもたらすことになります。

使用リスク—悪用

AIシステムは、分析、意思決定、調整、その他の活動において正しく動作していても、悪用されるリスクはあります。オペレーターは、使用目的、使用方法、使用範囲等を故意に逸脱したり、逸脱した行為をすることにより、悪影響を及ぼす可能性があります。一例として、顔認識技術が人々の動きを違法に追跡するために使用されていることが挙げられます。

使用リスク—過度な依存

AIへの過度の依存が生じるのは、ユーザーが誤ったAIの推奨事項を受け入れ始め、コミッション・エラーを引き起こすことです。ユーザーは、AIに何ができるか、どれだけうまく機能するか、どのように機能するかを認識していないため、適切な信頼レベルを判断するのが困難です。このリスクの当然の結果として、AIユーザーのスキル開発の低下が挙げられます。例えば、新しい状況に対処したり、複数の視点を考慮したりする能力が低下したり、AIもアクセスできるケースのみに制限されたりする保険金請求査定人などが挙げられます。

AI Academy

AIの専門家になる

ビジネスの成長を促進するAIへの投資を優先できるように知識を習得します。今すぐ無料のAI Academyを試して、貴社のAIの未来をリードしましょう。

AIリスクの軽減

AIの導入によってもたらされるリスクは、AIの導入により生じる技術的リスクや使用上のリスクを軽減するためのガバナンス・アプローチを開発する必要性を浮き彫りにしています。

人間中心のガバナンス

使用リスクを軽減するために、三本柱のアプローチが提案されています。

  1. まず、AIツールの開発、選択、使用に関わるスタッフに必須のアウェアネスを形成するためのトレーニング・プログラムを実施し、期待に沿うようにします。
  2. 次に、ベンダー・アセスメント・スキームを実施し、ベンダーの管理の堅牢性を評価し、契約に適切な透明性を確保します。
  3. 最後に、AI開発ライフサイクル全体にわたって、基準、役割と説明責任、承認プロセス、メンテナンス・ガイドラインを設定するためのポリシー実施措置を確立します。

テクノロジー中心のガバナンス

技術的なリスクを軽減するには、ITガバナンスを拡張して、以下を考慮する必要があります。

  1. 拡張されたデータとシステムの分類法。これにより、AIモデルがデータのインプットと使用パターン、必要な検証とテスト・サイクル、および期待されるアウトプットを確実に把握できるようになります。モデルは内部サーバーでホストする必要があります。
  2. 影響の規模、脆弱性のレベル、監視プロトコルの範囲を定量化するリスク・レジスター。
  3. 定期的にテストを実行し、AIシステムのインプット、アウトプット、モデル・コンポーネントに関連するリスク問題を監視するための拡大された分析とストラテジー。

保険におけるAI—強力かつ不可避

保険業界におけるAIの有望性と可能性は、これまで以上に大規模で複雑な保険数理や保険金請求のデータセットから斬新な洞察を導き出す能力にあります。これらのデータセットは、行動データや生態学的データと組み合わされ、データベースを照会するAIシステムが誤ったデータ推論を導き出す可能性を生み出し、現実世界の保険に影響が及ぶ可能性があります。

効率的で正確なAIには、綿密なデータサイエンスが必要です。データベース内の知識表現の慎重なキュレーション、次元を減らすためのデータ・マトリックスの分解、欠損データ、冗長データ、外れ値データの連合効果を軽減するためのデータセットの前処理が必要です。保険AIのユーザーは、入力データの品質制限が保険に影響を及ぼし、保険数理分析モデルの精度を低下させる可能性があることを認識しなければなりません。

AIテクノロジーが成熟し続け、ユースケースが拡大するにつれて、保険会社はこのテクノロジーから遠ざかるべきではありません。しかし、保険会社は保険業界の専門知識をAIテクノロジーの開発に役立てる必要があります。入力データの出所を通知し、データ品質を保証する能力は、保険業界におけるAIの安全で制御されたアプリケーションに貢献します。

AI導入の旅を始めるにあたって、保険ケースをを探索し、作成しましょう。何よりも、強固なAIガバナンス・プログラムを導入してください。

 
関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiの詳細はこちら
人工知能ソリューション

IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。

AIソリューションの詳細はこちら
人工知能(AI)コンサルティングおよびサービス

IBMコンサルティングAIサービスは、企業がAIをトランスフォーメーションに活用する方法を再考するのに役立ちます。

AIサービスの詳細はこちら
次のステップ

AIを使用することで、IBM Concertはお客様のオペレーションに関する重要な洞察を明らかにし、改善のためのアプリケーション固有の推奨事項を提供します。Concertがどのようにビジネスを前進させることができるかをご覧ください。

Concertの詳細はこちら ビジネス・プロセス自動化ソリューションの詳細はこちら