ホーム

Topics

AI倫理

AI倫理とは
AI倫理に対するIBMのアプローチを学ぶ AI倫理のためのソリューションを見る
以下の雲、円グラフ、グラフのピクトグラムのコラージュを使用したイラスト
AI倫理とは

倫理とは、正しいことと誤ったことを識別するための助けとなる一連の道徳的指針です。AI倫理は、リスクや不利な結果を軽減しながら、AIの有益な影響を最適化する方法を研究する学際的な分野です。

AI倫理での問題の例としては、データに対する責任とプライバシー、公平性、説明可能性、堅牢性、透明性、環境サステナビリティー、インクルージョン、道徳的行為者性、バリュー・アライメント、説明責任、信頼、テクノロジー誤用などが挙げられます。この記事の目的は、今日の業界でのAI倫理にまつわる包括的な市場見通しを提示することです。IBMの視点の詳細はこちら、当社のAI倫理のページをご覧ください。

ビッグデータの出現により、企業は自動化とデータに基づく意思決定を組織全体で推進することに前にも増して力を入れるようになりました。その意図は(常にではないにしても)多くの場合ビジネス成果の向上ですが、企業は一部のAIアプリケーションで予期せぬ結果を見ています。その原因は特に、事前の調査設計が不十分なことと、データ・セットに偏りがあることです。

結果に公平性を欠く実例が明らかになってきたことで、AIの倫理に関する懸念に対処するための新しいガイドラインが登場しました。その主な出所は研究コミュニティーやデータサイエンスコミュニティーです。AI分野の大手企業も、こうしたガイドラインの具体化に強い関心を持つようになっています。倫理基準が自社製品内で守られなかった結果がどのようなものか、身をもってわかり始めているためです。この領域でのデリジェンスが欠けていると、評判、規制、法律の面で問題にさらされ、結果的に高くつきます。テクノロジーが高度化するといつもそうですが、新しい分野、新興分野では、イノベーションの方が政府による規制の先を行く傾向があります。官公庁や自治体の業務内で専門知識が適切なものとなってきたことで、企業が人権や市民的自由の侵害を回避できるようになるために従うべきAIプロトコルが増えることが見込まれます。

一般提供開始:watsonx.governance

サード・パーティーのプラットフォーム上に構築された生成AIのための、責任ある透明で説明可能なワークフローを加速します。

関連コンテンツ
電子書籍
AIデータ・ストアに関する電子ブックに登録する
ガイド
アプリケーション、分析、生成AIにふさわしいデータベースを活用する方法
AI倫理の指針を確立する

AIの使用を管理するためのルールとプロトコルが策定される一方、学術コミュニティーでは実験的研究とアルゴリズム開発の中での倫理ガイドとしてベルモントレポート(リンクは ibm.com外にあります)を活用してきました。ベルモントレポートから導き出され、実験とアルゴリズム設計のガイドととなる指針は、主に次の3つです。

  1. 人格の尊重:この指針は、個人の自律性を認め、また、病気、精神障害、年齢制限などのさまざまな状況により自律性を十分に持たない個人を保護することを研究者に期待するものです。この指針で主に言及しているのは、同意という考え方です。個人は、自分が参加する実験の潜在的なリスクとメリットを認識すべきであり、実験前や実験中であっても参加と取りやめのいずれの選択も可能であるべきです。
  2. 善行:この指針は、医師が「危害を加えない」ことを誓う医療倫理にならったものです。この考え方は、人工知能に対して容易に適用できるものです。そのアルゴリズムには、正しい行いをして所与のシステムを改善することが意図されているにもかかわらず、人種、性別、政治的傾向などに関するバイアスを増幅する可能性があるのです。
  3. 正義:この指針は、公平や平等といった問題を扱うものです。実験と機械学習のメリットを享受すべきなのは誰なのでしょうか。ベルモントレポートには、負担とメリットの分配を次の5つの考えによって行うことが示されています。
    • 平等な分配
    • 個人のニーズ
    • 個人の努力
    • 社会的貢献
    • メリット
関連リンク IBMのAI倫理 アルゴリズムによる安全対策を実装するための5つのステップ
今日のAIでの主な懸念事項

現実世界のAIテクノロジーを巡っては、数多くの問題が倫理的な議論の最前線にあります。その中のいくつかを挙げます。

基盤モデルと生成AI

2022年リリースのChatGPTは、真の意味で人工知能の転機となりました。OpenAIのチャットボットの機能は、法的準備書面の作成からコードのデバッグに至るまで、AIで何ができるのか、実質すべての業種や業務にAIはどう適用されうるのか、さまざまな可能性を新たに切り開くものでした。ChatGPTも類似のツールも基盤モデル、つまりAIモデルに基づいて構築されており、下流タスクに幅広く適応できます。基盤モデルは通常、数十億個のパラメーターで構成される大規模な生成モデルであり、自己教師あり学習によりラベルなしデータでトレーニングされます。こうすることで基盤モデルでは、あるコンテキストで学習したことを別のコンテキストに即適用できるので、高度な適応性をもって多種多様なタスクを実行できるようになります。とはいえ基盤モデルには、偏見、虚偽コンテンツの生成、説明可能性の欠如、誤用、社会的影響といった潜在的問題や倫理的懸念が数多く存在していることが、テクノロジー業界で全般的に認識されています。こうした問題の多くはAI全般に関連するものですが、基盤モデルの能力と可用性に照らせば、新たな緊急課題となります。

技術的特異点

このテーマは世間の注目を集めていますが、多くの研究者は、近い将来にAIが人間の知能を超えるという考えを憂慮していません。これは超知能とも呼ばれ、Nick Bostrum氏が「科学的な創造性、一般的な通念、社会的スキルなど、事実上あらゆる分野で人間が持つ最高の脳をはるかに上回る知性」と定義しています。強いAIや超知能は、社会に差し迫っているわけではないとはいえ、自動運転車のような自律システムの使用を考える際にいくつかの興味深い疑問を提起します。無人自動車は事故を起こさないと考えるのは現実的ではありません。しかし、そのような状況で誰が責任を負うかという点は曖昧です。それでも自動運転車を開発すべきでしょうか。それとも、このテクノロジーはドライバーの安全運転を支援する半自動運転車に限定すべきなのでしょうか。この件についてはまだ結論が出ていませんが、新しい革新的なAIテクノロジーの発展に伴い、この種の倫理的議論が起こっています。

AIが雇用に与える影響

人工知能に対する一般的なイメージは、雇用の減少が中心となっていますが、このような懸念は見直すべきでしょう。破壊的創造をもたらす新しいテクノロジーが登場するたびに、特定の職務に対する市場の需要が変化していることがわかります。たとえば自動車産業に目を向けると、GMなど多くのメーカーが、環境への取り組みに合わせて電気自動車の生産に重点を移行しています。エネルギー産業は消滅しませんが、エネルギー源は燃料経済から電気へ移行しつつあります。人工知能も同様に考える必要があります。人工知能によって仕事の需要が他の分野に移るということです。データは日々増加し変化するため、そのシステム管理を支援する人が必要になります。カスタマー・サービスなど、仕事需要の変化から最も影響を受けやすい業界では、より複雑な問題に対処できる人材が今後も必要とされるでしょう。人工知能とその雇用市場への影響に関して最も重要なのは、個人が需要のある新しい分野に移行できるようにすることです。

プライバシー

プライバシーは、データ・プライバシー、データ保護、データ・セキュリティといった文脈で議論される傾向があります。このような懸念から、政策立案者はここ数年でさらなる進歩を遂げることができました。たとえば、2016年には、欧州連合と欧州経済地域の人々の個人データを保護するためのGDPR法が制定され、個人がデータをより細かく管理できるようになりました。米国では、カリフォルニア州の消費者プライバシー法(CCPA)のような政策が各州で策定されており、企業はデータ収集について消費者に通知することが義務付けられています。この最近の法律により、企業は個人を特定できるデータ(PII)の保存方法と使用方法を再考せざるを得なくなりました。その結果、企業は監視、ハッキング、サイバー攻撃の脆弱性や機会を排除しようと努めており、セキュリティー投資の中でも優先順位が高まっています。

偏見と差別

多くのインテリジェントシステムにおける偏見や差別の事例により、人工知能の使用に関しての倫理にまつわる疑問が多数提起されています。トレーニングデータセット自体に偏見が加わることがあるなら、偏見や差別からどのように保護できるでしょうか。企業は通常、善意をもって自動化に取り組んでいますが、AIを採用業務に組み込むと、予期しない結果が生じえます。Amazonは、プロセスを自動化し簡素化する取り組みの中で、技術職の求職者に対し意図せず性別による偏見を与えてしまい(ibm.com外部へのリンク)、最終的にプロジェクトを中止せざるを得なくなってしまいました。こうしたイベントが表面化していく中で、Harvard Business Review(ibm.com外部へのリンク)は、採用業務におけるAIの使用について、他にも鋭い疑問を提起しています。役職の候補者を評価する際にどのようなデータを使用可能にするべきか、といったものです。

偏見や差別は人事部門に限りません。顔認識ソフトウェアからソーシャル・メディア・アルゴリズムまで、さまざまなアプリケーションに存在します。

企業がAIのリスクを認識するようになるにつれて、AIの倫理と価値に関する議論もより活発になっています。たとえばIBMのCEOを務めるArvind Krishnaは昨年、IBMの汎用顔認識・分析製品を提供停止する発表を出した際、「IBMは、他のベンダーが提供する顔認識技術を含めいかなるテクノロジーについても、大量監視や人種プロファイリング、基本的人権と自由を侵害するような使用方法、または当社の価値観や信頼・透明性の原則にそぐわない目的に使用することに断固として反対し、容認しません」という意向を強く述べました。

説明責任

AIの実践的な活用方法を規制する普遍的で包括的な法律はありませんが、多くの国や州が地域ごとにそうした法律の整備に取り組んでいます。現在施行されているAI規制は一部分で、今後さらに多くの法律が施行されることになります。このギャップを埋めるために、倫理学者と研究者の協力の一環として、社会におけるAIモデルの構築と配布を管理するための倫理フレームワークが登場しました。しかし、現時点でフレームワークはあくまでも指標でしかありません。研究(リンクはibm.com外部)では、責任の分散と潜在的な結果に対する先見性の欠如が結びつくことにより、社会を危険にさらす可能性があることが示されています。

AI倫理をどう確立するか

人工知能の性能は、設計、開発、トレーニング、調整、使用の方法によって決まります。AI倫理とは、AIシステムのライフサイクルにおける全段階で、倫理基準とガイドラインのエコシステムを確立するということなのです。

組織、政府、研究者は一様に、現在のAIが抱える倫理的懸念に対処し、この分野で仕事の未来を形作るためのフレームワークを組み立て始めています。ガイドラインには日々、より多くの枠組みが導入されています。同時に、以下の内容を組み込むことについてある程度の意見の一致が得られています。

ガバナンス

ガバナンスとは、組織内のポリシー/プロセス、スタッフ、システムを通じてAIライフサイクルを監督する行動です。ガバナンスは、AIシステムを組織の原則と価値観で意図されているとおり、利害関係者が期待するとおり、関連規制で求められるとおりに動作させるための助けとなります。上手くいくガバナンスプログラムには、次の要素があります。

  • AIで作業する人員の役割と責任を定義します。

  • AIライフサイクルに関与するすべての人々に、責任ある方法でAIを構築するよう教育します。

  • AIとAIリスクについて、構築、管理、監視、伝達するためのプロセスを確立します。

  • ツールを活用して、AIの性能と信頼性をAIライフサイクル全体で向上させます。

AI倫理委員会はガバナンスに特に効果的なメカニズムです。IBMのAI倫理委員会は全社から集まったさまざまなリーダーで構成されており、IBMの倫理ポリシーと実践に対する一元的なガバナンス、レビュー、意思決定プロセスを行っています。IBMのAI倫理委員会に関する詳細はこちら

原則と重点領域

AI倫理に対する組織のアプローチは、信頼できるAIを実現するために、組織全体にわたり製品、ポリシー、プロセス、実践に適用可能な原則に基づいて行う場合があります。原則の策定にあたり、その中心となり支えとなるべきは説明可能性(explainability)や公平性などの重点領域です。この領域は、基準を策定し、実践を調整する際の基盤となり得ます。

AIは、倫理を中核として構築すれば社会に良い影響を与える大きな可能性を秘めています。放射線医療といった医療分野への統合で見受けられるようになりました。AI倫理を巡る議論は、設計段階からAIの使用に関連する潜在的リスクを適切に評価し、軽減するためにも重要です。

AI倫理を推進する組織

倫理基準は民間企業のデータエンジニアやデータサイエンティストにとって一番の関心事ではないため、人工知能分野での倫理的行動を推進する組織が数多く登場しています。詳細情報を求める向きには、AI倫理を制定するためのリソースが、次に示す組織やプロジェクトから提供されています。

  • Algorithm Watch:この非営利団体で注力するのは、AIプログラムでのアルゴリズムと意思決定プロセスを説明可能かつ追跡可能にすることです。詳細については、こちらをクリックしてください(リンクは ibm.com外にあります)。
  • AI Now Institute: ニューヨーク大学にあるこの非営利団体は、人工知能の社会的影響を研究するところです。詳細については、こちらをクリックしてください(リンクは ibm.com外にあります)。
  • DARPA:米国国防総省の国防高等研究計画局(リンクは ibm.com外にあります)は、説明可能なAIとAI研究を推進することに焦点を当てています。
  • CHAI:Center for Human-Compatible Artificial Intelligence(リンクは ibm.com外にあります)は、さまざまな機関や大学の協力によるものであり、信頼できるAIと、証明可能で有益なシステムを促進しています。
  • NASCAI:National Security Commission on Artificial Intelligence(リンクは ibm.com外にあります)は、「人工知能、機械学習、および関連テクノロジーの開発を進展させるのに欠かせない方法と手段について検討することで、米国の国家安全保障と防衛のニーズに包括的に対応する」第三者委員会です。
AI倫理に関するIBMの見解

また、AI倫理に関する独自の視点を確立しているIBMは、「信頼と透明性の原則」を作成し、AIに関する対話の中でIBMの価値がどこにあるのかを顧客に理解してもらえるようにしています。IBMには、データやAI開発に対するアプローチを決定づける3つの基本原則があります。

  1. AIの目的は、人間のインテリジェンスの補強です。これは、人間のインテリジェンスをAIに置き換えようとするのではなく、AIでサポートする、という意味です。新しいテクノロジーによるイノベーションには特定の職務の需要と供給の変化が伴うため、IBMは、こうしたテクノロジーに関するスキルトレーニングを促進する世界的な取り組みに投資することにより、今般の移行期にある従業員をサポートすることに努めています。
  2. データと洞察は、その作成者に帰属します。IBMの顧客なら、自分が、自分だけが、自分のデータを所有している、という安心感を得られます。IBMは、監視プログラムを目的とした顧客データへのアクセス権を政府に提供しておらず、今後も提供しません。これからも顧客のプライバシー保護に努めていきます。
  3. AIシステムは透明性が高く、説明可能でなければなりません。IBMは、テクノロジー企業は自社のAIシステムを誰がトレーニングするのか、そのトレーニングでどのようなデータが使用されたのか、そして最も重要なことには、自社のアルゴリズムの推奨事項に何が盛り込まれているのかを明確にする必要があると考えます。

またIBMは、AIテクノロジーの責任ある導入をガイドする5つの柱策定しました。次に挙げるとおりです。

  • 説明可能性:AIシステムの透明性を保つ必要があります。特にアルゴリズムの推奨事項に何が盛り込まれているかについては、さまざまな目的を持った多様な利害関係者に関する部分で透明性を保たなければなりません。
  • 公平性:これは、個人または個人のグループがAIシステムで公平に扱われることをいいます。AIが十分に調整されていれば、人間がより公平な選択をし、人間の偏見に対抗し、インクルーシブ性を促進するよう支援するものとなります。
  • 堅牢性:AI搭載システムには、敵対的な攻撃を積極的に防御し、セキュリティーリスクを最小限に抑え、システム成果の信頼性を高めることが求められます。
  • 透明性:信頼を高めるには、ユーザーがサービスの仕組みを把握し、その機能を評価し、その強みと限界を理解することができる必要があります。
  • プライバシー:AIシステムは、消費者のプライバシーとデータの権利を優先して保護するもの、個人データがどのように使用され保護されるかについて明示的に保証していると利用者に示すものでなければなりません。

こうした指針と重点分野が、AI倫理に対する当社のアプローチの基礎を成しています。倫理と人工知能に関するIBMの見解については、こちらで詳細をお読みください。

 

関連ソリューション
IBMのAI倫理

信頼できるAIを追求するIBMの分野横断的で多角的なアプローチ

IBMのAI倫理の詳細はこちら
IBM Watson Studio

AIモデルを構築、実行、管理します。オープンソースコードまたはビジュアルモデリングを使用して、任意のクラウド上でデータを準備し、モデルを構築します。結果を予測して最適化します。

Watson Studioの詳細はこちら
IBM watsonx.governance

生成AIモデルと機械学習モデルの両方で、責任ある透明で説明可能なデータとAIのワークフローを実現します。

IBM watsonx.governanceの詳細はこちら
次のステップ

生成モデルと機械学習モデルの両方のライフサイクル全体にわたって、責任があり、透明性があり、説明可能な AI ワークフローを加速します。組織のAI活動を指揮、管理、監視し、拡大するAI規制をより適切に管理し、リスクを検出、軽減します。

watsonx.governanceの詳細はこちら デモの予約