AIの信頼性の担保

AIを構築、実行、および管理する際には、AIによる意思決定支援が信頼できるものでなくてはなりません。
Trust and Transperacy機能は、AIモデルの実行時に意思決定の説明やAIモデル内のバイアス検出を行い、潜在的に不公平な結果が起こり得ることを捕捉したり、検出したバイアスを軽減できるように、モデルに追加すべきデータを自動的に提案したりすることで、AIのブラックボックス化を解消します。


Watson OpenScale Webセミナー

AIのブラックボックス化を軽減するためのクラウドサービスがIBMの提供するWatson OpenScale。IBM以外のサービスで動くAIにも対応し、全社で使うさまざまなAIの統合管理・監視をサポートします。本セミナーでは、AIに信頼性や透明性が必要である理由と、Watson OpenScaleがそれをどうサポートするかをご紹介。

ユースケース:自動車保険請求

自動車保険請求のプロセスは、多くの費用と時間がかかります。
AIはこのプロセスを自動化するのに役立ちますが、AIからのレコメンデーションに透明性がなかったり、説明できないリスクが存在してしまいます。
IBMの提供する機能を使用すれば、保険会社は、AIがどのようにして保険請求のレコメンデーションや結論に至ったかを理解、説明することができ、これは潜在的な不正行為の検出にも役立ちます。

動画を見る

バイアスの検出と軽減

業務に基づいて決められた、公平性を測るための指標に基づいて、AIシステムが公平ではない判定結果を出したとき、これを自動的に検知ます。
AIモデルが実行され判定を行うタイミングに、どこでバイアスが起きているかを特定し、モデルの再トレーニングのために新しいデータをレコメンドして、バイアスの軽減をサポートします。

AIヘルス・モニタリング

ダッシュボード内で、AIの全体的な健康状態を理解することができます。
過去7日間の正確性、公平性、パフォーマンスを深掘りし、具体的なバイアスの原因を把握することができます。

適応可能なバイアスの閾値

AIヘルスを確保するためにバイアスと正確性の限界値を設定します。
設定した限界値を超えると、潜在的なバイアスの可能性を示すフラグが立てられ、バイアスの軽減に役立つ追加データがレコメンドされます。

AIによるレコメンデーションを説明

特定の業務トランザクションIDに基づいてレコメンデーションを照会し、なぜそれがレコメドされたかの説明を得ることができます。モデルによる予測への確信度や最終的な結果に寄与している要因が、理解できるビジネス用語で表示されます。