企業が人工知能(AI)の利用を増やすにつれて、人々は人間の偏見がAIシステムにどの程度侵入しているか疑問を抱いています。現実世界でのAIバイアスの例は、差別的なデータとアルゴリズムがAIモデルに組み込まれると、モデルがバイアスを大規模に展開し、その結果として生じる悪影響を増幅させることを示しています。
企業は公平性を達成するためだけでなく、より良い結果を確実に出すために、AIバイアスの問題に取り組む意欲を持っています。しかし、現実世界で人種や性別に対する構造的な偏見をなくすことが難しいと証明されているように、AIから偏見をなくすことは簡単ではありません。
AIがビジネスのためにできることと(まだ)できないことと題された記事の中で、著者であるMcKinsey社のMichael Chui氏、James Manyika氏、Mehdi Miremadi氏は次のように述べています。「このような偏見は根強く残る傾向があります。なぜなら、偏見を認識し対処するには、データサイエンスの手法に精通するとともに、既存の社会的勢力について、よりメタ的に理解する必要があるからです。データ収集もその対象となります。全体として、偏見の解消はこれまでで最もやっかいな障害の1つであり、間違いなく、社会的に最も困難を伴うものであることが分かっています。」
現実に起きているAIバイアスの例は、バイアスを見極めて対処する方法についての有用な洞察を組織にもたらします。データサイエンティストは、これらの例を批判的に検討し、バイアス克服の成功を確認することで、機械学習モデルのバイアスを特定して防止するためのロードマップを構築し始めることができます。
AIバイアスは機械学習バイアスまたはアルゴリズム・バイアスとも呼ばれ、歴史的および現代社会の不平等を含む、社会の中で人間が持つ偏見を反映し永続させる、偏った結果を生み出すAIシステムを指します。バイアスは初期トレーニング用データ、アルゴリズム、またはアルゴリズムが生成した予測で見られることがあります。
偏見が解消されないと、人々の経済および社会参加が妨げられます。また、AIの可能性も小さくなってしまいます。企業は、歪んだ結果を生み出し、有色人種や女性、障害者、LGBTQコミュニティー、その他社会から取り残された人々の間で不信感を助長するようなシステムから利益を得ることはできません。
AIからバイアスを取り除くには、データ・セット、機械学習アルゴリズム、その他のAIシステム要素を詳しく調べて、潜在的なバイアスの原因を特定する必要があります。
AIシステムはトレーニング用データに基づいた意思決定を学習するため、バイアスが存在するかどうかデータ・セットを評価することが不可欠です。1つの方法としては、トレーニング用データ内で過剰または過少なグループのデータ・サンプリングをレビューすることです。たとえば、白人が過剰に多い顔認識アルゴリズムのトレーニング用データは、有色人種を顔認識しようとした時にエラーとなる可能性があります。同様に、黒人が多数を占める地域で収集された情報を含むセキュリティー・データは、警察が使用するAIツールに人種的なバイアスを生み出すことが考えられます。
バイアスは、トレーニング用データのラベル付け方法によっても生じる場合があります。たとえばAI採用ツールで矛盾したラベルを使用したり、あるいは特定の特徴を除外したり評価しすぎたりすると、適格を持った求職者が検討対象から外されるおそれがあります。
欠陥のあるトレーニング用データを使うと、アルゴリズムがエラーや不公平な結果を繰り返し生成したり、欠陥のあるデータに内在するバイアスを増幅したりする可能性があります。アルゴリズムのバイアスは、開発者がアルゴリズムの意思決定において、自らの意識的または無意識的な偏見に基づいて要素を不当に重み付けするなど、プログラミング・エラーによって引き起こされることもあります。たとえば、収入や語彙などの指標がアルゴリズムに使用されると、特定の人種や性別の人々を意図せず差別するおそれがあります。
人が情報を処理し判断を行う時、自分の経験や好みに影響されることは避けられません。その結果、データの選択や重み付け方法を通じて、人々の偏見をAIシステムに組み込んでしまう可能性があります。認知バイアスにより、世界中のさまざまな集団からサンプリングしたデータ・セットではなく、アメリカ人から収集したデータ・セットが優先される場合があるというのがその一例です。
NISTによれば、このバイアスの原因は想像以上によく見られます。NISTは報告書「人工知能におけるバイアスの識別と管理の標準に向けて(NIST特別出版物1270)」で、次のように述べています。「人間的な要因、体系的かつ制度的な要因、そして社会的な要因もAIバイアスの大きな原因ですが、現在は見過ごされています。この問題にうまく対処するには、あらゆる形態のバイアスを考慮する必要があります。つまり、機械学習のパイプラインを超えて視野を広げ、このテクノロジーが私たちの社会の中でどのように生み出され、どのように影響を与えているかを認識し、調査するということです。」
社会がAIの仕組みとバイアスの可能性について認識を深めるにつれて、組織は幅広いユースケースで注目すべきAIバイアスの例を数多く明らかにしてきました。
AIバイアスを特定して対処するには、AIガバナンス、つまり組織のAI活動を指揮、管理、監視する能力から始まります。実際には、AIガバナンスではAIテクノロジーの責任ある開発と利用を導くための一連の方針、プラクティス、フレームワークを作成します。AIガバナンスがうまくいけば、企業、顧客、従業員、そして社会全体に与えられる恩恵のバランスが確保されます。
AIガバナンスの方針を通じて、企業は以下のようなプラクティスを構築できます。
適切なテクノロジーの組み合わせは、効果的なデータおよびAIガバナンス戦略にとって非常に重要であり、最新のデータ・アーキテクチャーと信頼できるAIプラットフォームがその主要なコンポーネントとなります。データ・ファブリック・アーキテクチャー内のポリシー・オーケストレーションは、複雑なAI監査のプロセスを簡素化できる優れたツールです。AI監査と関連プロセスをデータ・アーキテクチャーのガバナンス・ポリシーに組み込むことで、組織は引き続き検査が必要な領域を理解できます。
IBMコンサルティングでは、クライアントがバイアスやその他領域における評価プロセスを確立できるよう支援してきました。AIの導入が拡大し、イノベーションが進化するにつれて、長年にわたって企業構造に組み込まれてきたあらゆるテクノロジーと同様、セキュリティー・ガイダンスも成熟していくでしょう。以下、組織が環境全体でAIを安全に導入する準備を整えるのに役立つIBMのベスト・プラクティスをいくつか紹介します。
watson.governanceにできることの詳細はこちら