AIのバイアスを実例から解明
2023年10月16日
読了時間:6

企業が人工知能(AI)の利用を増やすにつれて、人々は人間の偏見がAIシステムにどの程度侵入しているか疑問を抱いています。現実世界でのAIバイアスの例は、差別的なデータとアルゴリズムがAIモデルに組み込まれると、モデルがバイアスを大規模に展開し、その結果として生じる悪影響を増幅させることを示しています。

企業は公平性を達成するためだけでなく、より良い結果を確実に出すために、AIバイアスの問題に取り組む意欲を持っています。しかし、現実世界で人種や性別に対する構造的な偏見をなくすことが難しいと証明されているように、AIから偏見をなくすことは簡単ではありません。

AIがビジネスのためにできることと(まだ)できないことと題された記事の中で、著者であるMcKinsey社のMichael Chui氏、James Manyika氏、Mehdi Miremadi氏は次のように述べています。「このような偏見は根強く残る傾向があります。なぜなら、偏見を認識し対処するには、データサイエンスの手法に精通するとともに、既存の社会的勢力について、よりメタ的に理解する必要があるからです。データ収集もその対象となります。全体として、偏見の解消はこれまでで最もやっかいな障害の1つであり、間違いなく、社会的に最も困難を伴うものであることが分かっています。」

現実に起きているAIバイアスの例は、バイアスを見極めて対処する方法についての有用な洞察を組織にもたらします。データサイエンティストは、これらの例を批判的に検討し、バイアス克服の成功を確認することで、機械学習モデルのバイアスを特定して防止するためのロードマップを構築し始めることができます。

人工知能におけるバイアスとは

AIバイアスは機械学習バイアスまたはアルゴリズム・バイアスとも呼ばれ、歴史的および現代社会の不平等を含む、社会の中で人間が持つ偏見を反映し永続させる、偏った結果を生み出すAIシステムを指します。バイアスは初期トレーニング用データ、アルゴリズム、またはアルゴリズムが生成した予測で見られることがあります。

偏見が解消されないと、人々の経済および社会参加が妨げられます。また、AIの可能性も小さくなってしまいます。企業は、歪んだ結果を生み出し、有色人種や女性、障害者、LGBTQコミュニティー、その他社会から取り残された人々の間で不信感を助長するようなシステムから利益を得ることはできません。

AIバイアスの根源

AIからバイアスを取り除くには、データ・セット、機械学習アルゴリズム、その他のAIシステム要素を詳しく調べて、潜在的なバイアスの原因を特定する必要があります。

トレーニング用データのバイアス

AIシステムはトレーニング用データに基づいた意思決定を学習するため、バイアスが存在するかどうかデータ・セットを評価することが不可欠です。1つの方法としては、トレーニング用データ内で過剰または過少なグループのデータ・サンプリングをレビューすることです。たとえば、白人が過剰に多い顔認識アルゴリズムのトレーニング用データは、有色人種を顔認識しようとした時にエラーとなる可能性があります。同様に、黒人が多数を占める地域で収集された情報を含むセキュリティー・データは、警察が使用するAIツールに人種的なバイアスを生み出すことが考えられます。

バイアスは、トレーニング用データのラベル付け方法によっても生じる場合があります。たとえばAI採用ツールで矛盾したラベルを使用したり、あるいは特定の特徴を除外したり評価しすぎたりすると、適格を持った求職者が検討対象から外されるおそれがあります。

アルゴリズムのバイアス

欠陥のあるトレーニング用データを使うと、アルゴリズムがエラーや不公平な結果を繰り返し生成したり、欠陥のあるデータに内在するバイアスを増幅したりする可能性があります。アルゴリズムのバイアスは、開発者がアルゴリズムの意思決定において、自らの意識的または無意識的な偏見に基づいて要素を不当に重み付けするなど、プログラミング・エラーによって引き起こされることもあります。たとえば、収入や語彙などの指標がアルゴリズムに使用されると、特定の人種や性別の人々を意図せず差別するおそれがあります。

認知バイアス

人が情報を処理し判断を行う時、自分の経験や好みに影響されることは避けられません。その結果、データの選択や重み付け方法を通じて、人々の偏見をAIシステムに組み込んでしまう可能性があります。認知バイアスにより、世界中のさまざまな集団からサンプリングしたデータ・セットではなく、アメリカ人から収集したデータ・セットが優先される場合があるというのがその一例です。

NISTによれば、このバイアスの原因は想像以上によく見られます。NISTは報告書「人工知能におけるバイアスの識別と管理の標準に向けて(NIST特別出版物1270)」で、次のように述べています。「人間的な要因、体系的かつ制度的な要因、そして社会的な要因もAIバイアスの大きな原因ですが、現在は見過ごされています。この問題にうまく対処するには、あらゆる形態のバイアスを考慮する必要があります。つまり、機械学習のパイプラインを超えて視野を広げ、このテクノロジーが私たちの社会の中でどのように生み出され、どのように影響を与えているかを認識し、調査するということです。」

現実におけるAIバイアスの例

社会がAIの仕組みとバイアスの可能性について認識を深めるにつれて、組織は幅広いユースケースで注目すべきAIバイアスの例を数多く明らかにしてきました。

  • 医療:女性やマイノリティー・グループのデータが過小評価されて予測AIアルゴリズムが歪む可能性があります。たとえばコンピューター診断支援(CAD)システムは、黒人の患者に対して白人の患者よりも精度の低い結果を返すことがわかっています。
  • 応募者追跡システム:自然言語処理アルゴリズムの問題が、応募者追跡システム内で偏った結果を生み出すことがあります。たとえばAmazon社では、採用アルゴリズムが男性の履歴書によく見られる「実行した」や「獲得した」といった言葉に基づいて応募者を優遇すると判明したため、使用を中止しました。
  • オンライン広告:検索エンジン広告のアルゴリズムに存在するバイアスは、職務に対する性別バイアスを助長するおそれがあります。ピッツバーグのカーネギーメロン大学の独自調査によると、Google社のオンライン広告システムには、高収入の求人が女性よりも男性に多く表示されることが明らかになりました。
  • 画像生成学術研究では、生成AIアートを生成するアプリケーションMidjourneyに偏りがあることが判明しました。専門的な職業に就いている人々のイメージを作成するように依頼したところ、若い人も年配の人も描かれましたが、年長者は必ず男性であり、職場における女性の役割に対する性差別が強化されていました。
  • 予測型取り締まりツール:刑事司法制度に関わる組織の一部で使用されるAI搭載の予測型取り締まりツールは、本来ならば犯罪が発生する可能性が高い地域を特定するものです。しかし過去の逮捕データに依存している場合が多いため、人種プロファイリングの既存パターンを強めたり、マイノリティー・コミュニティーの不当な標的化を助長する可能性があります。
バイアスの軽減とAIガバナンス

AIバイアスを特定して対処するには、AIガバナンス、つまり組織のAI活動を指揮、管理、監視する能力から始まります。実際には、AIガバナンスではAIテクノロジーの責任ある開発と利用を導くための一連の方針、プラクティス、フレームワークを作成します。AIガバナンスがうまくいけば、企業、顧客、従業員、そして社会全体に与えられる恩恵のバランスが確保されます。

AIガバナンスの方針を通じて、企業は以下のようなプラクティスを構築できます。

  • コンプライアンス:AIソリューションとAIに関連する決定は、関連業界の規制と法的要件に沿っていなければなりません。
  • 信頼:顧客情報の保護に取り組む企業は、ブランドの信頼を築き、信頼できるAIシステムを構築できる可能性が高まります。
  • 透明性:AIは複雑なので、アルゴリズムがブラックボックス・システムとなり、構築に使われたデータからほとんど知見が得られない場合があります。透明性があれば、システムの構築に偏りのないデータが使用され、公平な結果を返すことを保証するのに役立ちます。
  • 効率:AIにより見込まれる最大の利点の1つは、手作業を減らして従業員の時間を節約することです。ビジネス目標を達成し、市場投入までの時間を短縮し、コストを削減できるようにAIを設計する必要があります。
  • 公正性:AIガバナンスには、公正性、公平性、包摂性を評価するための手法が取り入れられることがよくあります。反事実的な公正性のようなアプローチは、モデルの決定におけるバイアスを特定し、性別、人種、性的指向といったデリケートな属性が変更された場合でも、公平な結果を保証します。
  • ヒューマン・タッチ:「人間参加型(ヒューマン・イン・ザ・ループ)」システムのようなプロセスでは、選択肢や推奨を提供する際、決定前に人がレビューを行ってさらなる品質保証を施します。
  • 強化学習:この教師なし学習手法では、報酬や罰を利用してシステムにタスクを学習させます。McKinsey社の指摘では、強化学習は人間の偏見を超え、「熟練した実務家でさえ考えたことがなかった、これまでに想像もつかなかった解決策や戦略」を生み出す可能性があるとしています。
バイアスとAIとIBM

適切なテクノロジーの組み合わせは、効果的なデータおよびAIガバナンス戦略にとって非常に重要であり、最新のデータ・アーキテクチャーと信頼できるAIプラットフォームがその主要なコンポーネントとなります。データ・ファブリック・アーキテクチャー内のポリシー・オーケストレーションは、複雑なAI監査のプロセスを簡素化できる優れたツールです。AI監査と関連プロセスをデータ・アーキテクチャーのガバナンス・ポリシーに組み込むことで、組織は引き続き検査が必要な領域を理解できます。

IBMコンサルティングでは、クライアントがバイアスやその他領域における評価プロセスを確立できるよう支援してきました。AIの導入が拡大し、イノベーションが進化するにつれて、長年にわたって企業構造に組み込まれてきたあらゆるテクノロジーと同様、セキュリティー・ガイダンスも成熟していくでしょう。以下、組織が環境全体でAIを安全に導入する準備を整えるのに役立つIBMのベスト・プラクティスをいくつか紹介します。

  1. ベンダー・ポリシーとプラクティスを評価することで、信頼できるAIを活用します。
  2. 安全にユーザー、モデル、データにアクセスできるようにします。
  3. AIモデル、データ、インフラストラクチャーを敵対的な攻撃から保護します。
  4. トレーニング、テスト、運用の各段階にデータ・プライバシーの保護を実装します。
  5. AI開発ライフサイクルに、脅威のモデル化と安全なコーディング手法を導入します。
  6. AIアプリケーションとインフラストラクチャーの脅威を検知し、それに対応します。
  7. IBM AIフレームワークを通じてAIの成熟度を評価および決定します。
 
著者
IBM Data and AI Team