AI倫理
円形のオーロラ
AI倫理

AI倫理とは、社会全体に利益をもたらすことを目的として、倫理的な方法でAIシステムを構築する際に、データサイエンティストや研究者の指針となるフレームワークです。詳しく説明します。


この記事では、現在の業界におけるAI倫理について市場の包括的な見解を示します。 IBMの視点について詳しくは、こちらのAI倫理ページを参照してください。

今日の AI 倫理の進歩

AI倫理の原則を実践する方法については、こちらをご覧ください。 (318 KB)


AI倫理とは

倫理とは、私たちが善悪を見分けるのに役立つ一連の道徳的原則のことです。 AI倫理とは、人工知能の設計や成果について推奨する一連の指針です。 人間には、親近性バイアスや確証バイアスなどのさまざまな認知バイアスがあり、その固有のバイアスが私たちの行動、さらにはデータに現れます。 データはあらゆる機械学習アルゴリズムの基盤なので、このバイアスを念頭に置いて実証試験やアルゴリズムを構築することが大切です。人工知能はこれら人間のバイアスを類のない速さで増幅し、拡大する可能性があるためです。

ビッグデータの出現により、企業全体で自動化の推進とデータ駆動型の意思決定に対する関心が高まっています。 通常は(必ずしもそうとは限りませんが)ビジネス成果の向上を図るという意図があるものの、特に事前の調査設計の不備やデータセットの偏りのために、一部のAIアプリケーションで予期せぬ結果が出ることがあります。

不公平な結果の事例が明らかになるにつれ、主に研究やデータサイエンスのコミュニティーから、AI倫理に関する懸念に対処するための新たな指針が登場してきました。 AI分野の大手企業もこの指針の策定に強い関心を持っています。自社製品で倫理規定を守らなかったために、何らかの影響が出始めているからです。 この分野での努力を怠ると、評判や規制、法律上のリスクにさらされ、多額の罰金を科せられる可能性があります。 他のすべての技術の進歩と同様に、新しい分野では行政規制よりもイノベーションが先に進む傾向があります。 政府業界で適切な専門知識が蓄積されれば、企業が従うべきAIプロトコルが増えることが期待され、人権や市民の自由の侵害が回避できるようになります。

注目の製品

IBM Cloud Pak for Data

Watson Studio


AI倫理の原則の確立

AIの使用を管理するための規定やプロトコルが開発される一方で、学術界では、実証試験の研究やアルゴリズム開発における倫理を導く手段としてベルモント・レポート(IBM外部へのリンク)(PDF、121 KB)が活用されています。 以下の主な3つの原則は、実証試験とアルゴリズム設計におけるベルモント・レポートの指針です。

  1. 人格の尊重: この原則は、個人の自律性を尊重するものであり、病気、精神障がい、年齢制限などさまざまな理由で自律性が低下している個人を保護することを研究者に期待するものです。 この原則は、主に「同意」の考え方に言及しています。 個人は、自分が参加する実証試験の潜在的なリスクとメリットを認識して、実証試験前や実証試験中にいつでも参加または離脱を選択できることが必要です。
  2. 善行: この原則は、医師が「害を与えない」ことを誓う医療倫理に通じるものです。 この考え方は人工知能にも容易に応用できます。人工知能のアルゴリズムは、善意で任意のシステムを改善しようとしているにもかかわらず、人種、性別、政治的傾向などの偏りを増幅させる可能性があります。
  3. 公平性: この原則は、公平性や平等性などの問題を取り扱います。 誰が実証試験や機械学習の恩恵を受けるのでしょうか。 ベルモント・レポートでは負担と恩恵を分配する5つの方法を提示しています。
    • 均等な配分
    • 個人のニーズ
    • 個人の努力
    • 社会貢献
    • メリット
関連リンク

IBMのAI倫理


現在のAIの主な懸念事項

いくつかの問題がAI技術を取り巻く倫理的な議論の最前線で生じています。 懸念には次のようなものがあります。

 

シンギュラリティー(技術的特異点)


このトピックは多くの人々の注目を集めていますが、研究者の多くは、AIが近い将来あるいはすぐにでも人間の知性を超えるという考えには懸念を示していません。 これは超知能とも呼ばれ、スウェーデン人の哲学者ニック・ボストロムは「科学的創造性や一般的な知恵、社会的スキルなどを含む事実上すべての分野において、最も優秀な人間の脳を大幅に上回る知性」と定義しています。 「強いAI」と超知能は社会の中で目前に迫っているわけではないものの、その考えは、自動運転車のような自律システムの活用を検討する上で、いくつかの興味深い疑問を投げかけるものとなっています。 自動運転車が自動車事故に巻き込まれることは決してないと考えるのは非現実的ですが、そのような状況では誰が責任を負うのでしょう? それでも自動運転車を追求すべきでしょうか。それとも、このテクノロジーの統合を制限して、ドライバーの安全を高める半自動運転車にとどめるべきでしょうか? その最終的な答えはまだ出ていませんが、新しい革新的なAI技術の発展に伴い、この種の倫理的な議論が行われています。

 

仕事へのAIの影響


人工知能に関する世間の認識の多くは、人の仕事がなくなるのではという点に集中していますが、この懸念はおそらく捉え直されるべきです。 破壊的な新しいテクノロジーが登場するたびに、特定の職務に対する市場の需要は変化を遂げます。 例えば自動車業界の場合、GMを始めとする多くのメーカーが、グリーン・イニシアチブに合わせて電気自動車の生産に焦点を当てるようシフトしています。 エネルギー産業が無くなることはありませんが、エネルギー源は燃料から電気へとシフトしています。 人工知能もこれと同様に、求められる仕事内容を他の分野へとシフトさせるものと捉える必要があります。 データが日々増大し、変化するのに伴い、これらのシステムの管理を支援する担当者が必要になるでしょう。 カスタマー・サービスのように、仕事に対する需要の変化によって影響を受ける可能性が最も高い業界においても、より複雑な問題に対処する人材は依然として必要です。 人工知能の重要な側面と雇用市場へのその影響は、市場で求められるこうした新しい分野に個人が移行するのを後押しすることになるでしょう。

 

プライバシー


プライバシーは、データ・プライバシー、データ保護、データ・セキュリティーの文脈で議論される傾向があり、こうした懸念が、政策立案において近年さらなる前進を遂げることへとつながりました。 例えば、2016年には、欧州連合と欧州経済領域内の人々の個人データを保護するためにGDPR法が策定され、自身の個人データをより細かく管理できるようになりました。 米国では、個々の州がカリフォルニア消費者プライバシー法(CCPA)などの政策を策定しており、これによって、企業はデータの収集について消費者に通知することが求められます。 こうした最近の法律により、企業は個人を特定できるデータ(PII)をどのように保存し使用するかを、再考せざるを得なくなりました。 その結果、セキュリティーに関する投資は、監視やハッキング、サイバー攻撃の脆弱性や機会を排除しようとする企業にとって、ますます優先度が高くなっています。

 

バイアスと差別


多くのインテリジェント・システム全体でのバイアスと差別の事例は、人工知能の使用に関して多くの倫理的問題を提起しました。 トレーニング・データ自体がバイアスに寄与する可能性がある場合、バイアスや差別をどのように防ぐことができるのでしょうか? 企業は通常、自社の自動化の取り組みに関して善意の目的を持っていますが、Reuters(IBM外部へのリンク)は、AIを採用実務に組み込むことでもたらされる、いくつかの予期しない結果に着目しています。 Amazon社は、プロセスを自動化し簡素化する取り組みの中で、求人中の技術職への応募者の性別に対して、意図せずバイアスをかけてしまい、最終的にそのプロジェクトを打ち切らなければならなくなりました。 このような出来事が表面化する中、Harvard Business Review (IBM外部へのリンク)は、ある職種の候補者を評価する際に どのデータを使用できるかなど、採用実務におけるAIの活用を巡って、他にも鋭い問題提起を行っています。

バイアスや差別は、人事業務に限ったことではありません。顔認識ソフトウェアからソーシャル・メディアのアルゴリズムまで、多くのアプリケーションで見受けられます。

企業がAIのリスクを認識するようになるにつれて、AIの倫理と価値に関するこの議論も活発になっています。 例えば、昨年、IBMのCEOのArvind Krishnaは、IBMが汎用的な顔認識と分析のための自社製品を廃止したことを伝え、「IBMは、他のベンダーが提供する顔認識テクノロジーを含むあらゆるテクノロジーを、大規模監視、人種プロファイリング、基本的人権と自由に対する侵害、または、当社の価値観と信頼性と透明性の原則に一致しない目的のために使用することに断固反対し、容認しません」

と強調しました。

これについて詳しくは、IBMの方針についてのブログで、「顔認識技術の輸出管理のための精密な規制方法」に関するIBMの見解をご覧ください。

 

説明責任


AIの実践を規制する重要な法律がないため、倫理的なAIが実践されることを保証する実際の施行メカニズムはありません。 企業がこれらのガイドラインを順守する現在のところの動機は、非倫理的なAIシステムを使えば収益に悪影響が及ぶという点にあります。 このギャッ しかし、現時点では、これらはあくまでガイドおよび 研究に過ぎず、(IBM外部へのリンク)(PDF、984 KB)では、責任の分散と潜在的な結果に対する先見性の欠如という組み合わせから、こうした枠組みが必ずしも社会への危害の防止に役立つとは限らないことが示されています。


AI倫理の確立方法

人工知能ではモラル・マシンが生み出されませんでした。そのため、チームでは、現在の倫理的な懸念に対応し、この分野における「新しい仕事のあり方」を築くためにフレームワークやコンセプトの構築を始めました。 このガイドラインには、毎日より多くの構造が取り込まれていますが、次の事項の取り込みに際しては一定のコンセンサスが存在します。

  • ガバナンス:企業は、AIの倫理の管理のために、既存の組織構造を活用することができます。 データを収集している企業であれば、データの標準化と品質保証を促進するための管理システムを既に構築している可能性があります。 社内の規制と法務のチームは、政府規定の遵守のため、既に管理チームと連携していると思われます。そのため、現在の優先事項からつながる自然な流れで、このチームの守備範囲が倫理的なAIにまで拡大されます。 このチームは、組織の認識を管理し、ステークホルダーが企業の価値観や倫理基準に沿って行動するように奨励することもできます。  
  • 説明可能性:機械学習モデル、特にディープ・ラーニング・モデルは、モデルがどのようにして判断を下すのかが不明であるため、多くの場合「ブラックボックス・モデル」と呼ばれます。 こちらの研究(IBM外のリンク)(PDF 1.8 MB)によると、説明可能性とは、「機械の理論的根拠を表す、人間が理解できる説明」を生成することで、モデルの組み立てやアウトプットに関するそのあいまいさを解消しようとするものです。  この種の透明性はAIシステムとの信頼関係を築き、モデルが特定の判断を下す理由を人間が理解できるようにする上で重要です。 私たちがその理由を明確に理解できれば、偏見や差別などのAIリスクを回避できるようになります。  

倫理的なAIの実現が、AIの成功に重要であることは間違いありません。 一方で大事なことは、AIは社会に良い影響を与える大きな可能性を秘めていることです。 放射線科などの医療分野へのAIの統合で、その効果が認められ始めています。 AI倫理に関するこのような議論は、このテクノロジーを有効活用しようとする取り組みのなかで、設計の中に潜む有害性を適切に評価することにつながります。


AI倫理の組織

倫理基準は民間企業のデータ・エンジニアやデータサイエンティストにとって主な関心事ではありません。そのため、人工知能の分野で倫理的な行動を促進するための組織がいくつか登場しています。 詳しい情報をお求めの場合、以下の団体やプロジェクトが倫理的なAIの導入に関するリソースを提供しています。

  • AlgorithmWatch:この非営利団体では、AIプログラムのアルゴリズムや決定プロセスを説明可能で追跡可能なものすることに焦点を当てています。 詳細については、こちら(IBM外部のリンク)をクリックしてください。
  • AI Now Institute:このニューヨーク大学の非営利団体は、人工知能の社会的影響を研究しています。 詳細については、こちら(IBM外部のリンク)をクリックしてください。
  • DARPA: アメリカ国防総省の国防高等研究計画局(Defense Advanced Research Projects Agency)(IBM外部のリンク)は、説明可能なAIとAI研究の推進に取り組んでいます。
  • CHAI: Center for Human-Compatible Artificial Intelligence (IBM外部のリンク)では信頼できるAIや証明可能で有益なシステムを推進するために、さまざまな研究機関や大学が協力しています。
  • NASCAI: 米国人工知能安全保障委員会(National Security Commission on Artificial Intelligence)(IBM外部のリンク)は、「米国の国家安全保障と国防のニーズに包括的に対応するために、人工知能、機械学習、周辺技術の開発を進めるために必要な方法と手段を検討する」第三者委員会です。

IBMのAI倫理についての見解

IBMでもAIの倫理について独自の視点を確立しています。信頼と透明性の原則を設けることで、AIに関する会話の中で、お客様は自社の価値がどこにあるのか把握できるようになります。 IBMには、データとAIへのIBMのアプローチを規定する、以下の3つの基本原則があります。

  1. AIの目的は人間のインテリジェンスを高めることです。 つまり、私たちはAIが人間のインテリジェンスに取って代わることではなく、AIが人間のインテリジェンスをサポートすることを求めています。 あらゆる技術革新には、特定の職務の需要と供給の変化が伴います。そのため、IBMは、この技術に関連したスキル・トレーニングを促進するグローバル・イニシアチブに投資することで、このAIへの移行における労働者の支援に取り組んでいます。
  2. データと洞察はそれを生み出した企業に帰属します。 IBMのお客様は、自社のデータを自社だけが所有しているという安心感を得ることができます。 IBMは今までも、そしてこれからも、お客様のデータへのアクセス権を監視プログラムのために政府に提供しません。IBMはお客様のプライバシー保護に今後も努めていきます。
  3. AIシステムには透明性と説明可能性が必要である。 テクノロジー企業は、誰がAIシステムをトレーニングし、そのトレーニングでどのようなデータが使用されたか、さらに最も重要な点である、アルゴリズムの推奨事項に何が含まれていたかを明確にする必要があるとIBMは考えます。

また、IBMは、責任を持ってAIテクノロジーを採用するために一連の重点分野を策定しました。 以下に示します。

  • 説明可能性:AIシステムでは、特に、さまざまな目的を持つ各種ステークホルダーに関して、アルゴリズムの推奨事項に何が含まれているのかについて、透明性を確保する必要があります。
  • 公平性: これは、AIシステムが個人や個人のグループを公平に扱うことを意味します。 AIは適切に調整されることで、人間がより公平な選択をすること、人間の偏見に対抗すること、包括性を促進することを支援できます。
  • 堅牢性: AIを活用したシステムは、敵対的な攻撃から積極的に防御し、セキュリティー・リスクを最小限に抑え、システムの成果に対する信頼性を高めなければなりません。
  • 透明性:信頼性を高めるためには、ユーザーは、サービスがどのように機能するかを確認し、その機能性を評価し、長所と限界を把握することが必要です。
  • プライバシー: AIシステムは、消費者のプライバシーとデータの権利を最優先で保護し、個人データがどのように使用および保護されるかについて、ユーザーに明示的に確約する必要があります。

これらの原則と重点分野は、IBMのAI倫理へのアプローチの基盤を形成しています。 倫理と人工知能に関するIBMの見解について詳しくは、こちらをご覧ください。

 


AI倫理とIBM

IBMは、自社製品が倫理的なガイドラインと原則を念頭に置いて構築され、利用されるように努めています。 IBMがお客様に提供している製品の1つに、AIの倫理的な基準に基づいて監視やコンプライアンスを向上させるIBM Watson Studioがあります。

IBM Cloud Pak for Data

IBM Watson Studioは、信頼できるAIを運用するためのモニターと管理に役立ちます。 組織では、実働中のAIモデルを可視化して追跡し、規制リスクを軽減するためのモデルの検証とテストを行い、AIライフサイクルを可視化することができます。 今すぐIBMidにご登録し、無料のIBM Cloudアカウントを作成してください。

人工知能の倫理についてのIBMの見解について詳しくは、こちらをお読みください。

 


関連ソリューション

IBM Watson Studio

AIモデルを構築、実行、管理します。 オープンソース・コードやビジュアル・モデリングを使用して、任意のクラウド上でデータを準備し、モデルを構築できます。 結果の予測と最適化を行うこともできます。


IBM Cloud Pak for Data

Cloud Pak for Dataはオープンで拡張可能なデータ・プラットフォームです。どのクラウドでも、すべてのデータをAIとアナリティクスで活用できるデータ・ファブリックを提供します。


IBMのAI倫理

信頼できるAIに対するIBMの分野横断的な多次元的アプローチをご紹介します。