ホーム
Topics
AI倫理
倫理とは、正しいことと誤ったことを識別するための助けとなる一連の道徳的指針です。AI倫理は、リスクや不利な結果を軽減しながら、AIの有益な影響を最適化する方法を研究する学際的な分野です。
AI倫理での問題の例としては、データに対する責任とプライバシー、公平性、説明可能性、堅牢性、透明性、環境サステナビリティー、インクルージョン、道徳的行為者性、バリュー・アライメント、説明責任、信頼、テクノロジー誤用などが挙げられます。この記事の目的は、今日の業界でのAI倫理にまつわる包括的な市場見通しを提示することです。IBMの視点の詳細はこちら、当社のAI倫理のページをご覧ください。
ビッグデータの出現により、企業は自動化とデータに基づく意思決定を組織全体で推進することに前にも増して力を入れるようになりました。その意図は(常にではないにしても)多くの場合ビジネス成果の向上ですが、企業は一部のAIアプリケーションで予期せぬ結果を見ています。その原因は特に、事前の調査設計が不十分なことと、データ・セットに偏りがあることです。
結果に公平性を欠く実例が明らかになってきたことで、AIの倫理に関する懸念に対処するための新しいガイドラインが登場しました。その主な出所は研究コミュニティーやデータサイエンスコミュニティーです。AI分野の大手企業も、こうしたガイドラインの具体化に強い関心を持つようになっています。倫理基準が自社製品内で守られなかった結果がどのようなものか、身をもってわかり始めているためです。この領域でのデリジェンスが欠けていると、評判、規制、法律の面で問題にさらされ、結果的に高くつきます。テクノロジーが高度化するといつもそうですが、新しい分野、新興分野では、イノベーションの方が政府による規制の先を行く傾向があります。官公庁や自治体の業務内で専門知識が適切なものとなってきたことで、企業が人権や市民的自由の侵害を回避できるようになるために従うべきAIプロトコルが増えることが見込まれます。
サード・パーティーのプラットフォーム上に構築された生成AIのための、責任ある透明で説明可能なワークフローを加速します。
AIの使用を管理するためのルールとプロトコルが策定される一方、学術コミュニティーでは実験的研究とアルゴリズム開発の中での倫理ガイドとしてベルモントレポート(リンクは ibm.com外にあります)を活用してきました。ベルモントレポートから導き出され、実験とアルゴリズム設計のガイドととなる指針は、主に次の3つです。
現実世界のAIテクノロジーを巡っては、数多くの問題が倫理的な議論の最前線にあります。その中のいくつかを挙げます。
2022年リリースのChatGPTは、真の意味で人工知能の転機となりました。OpenAIのチャットボットの機能は、法的準備書面の作成からコードのデバッグに至るまで、AIで何ができるのか、実質すべての業種や業務にAIはどう適用されうるのか、さまざまな可能性を新たに切り開くものでした。ChatGPTも類似のツールも基盤モデル、つまりAIモデルに基づいて構築されており、下流タスクに幅広く適応できます。基盤モデルは通常、数十億個のパラメーターで構成される大規模な生成モデルであり、自己教師あり学習によりラベルなしデータでトレーニングされます。こうすることで基盤モデルでは、あるコンテキストで学習したことを別のコンテキストに即適用できるので、高度な適応性をもって多種多様なタスクを実行できるようになります。とはいえ基盤モデルには、偏見、虚偽コンテンツの生成、説明可能性の欠如、誤用、社会的影響といった潜在的問題や倫理的懸念が数多く存在していることが、テクノロジー業界で全般的に認識されています。こうした問題の多くはAI全般に関連するものですが、基盤モデルの能力と可用性に照らせば、新たな緊急課題となります。
このテーマは世間の注目を集めていますが、多くの研究者は、近い将来にAIが人間の知能を超えるという考えを憂慮していません。これは超知能とも呼ばれ、Nick Bostrum氏が「科学的な創造性、一般的な通念、社会的スキルなど、事実上あらゆる分野で人間が持つ最高の脳をはるかに上回る知性」と定義しています。強いAIや超知能は、社会に差し迫っているわけではないとはいえ、自動運転車のような自律システムの使用を考える際にいくつかの興味深い疑問を提起します。無人自動車は事故を起こさないと考えるのは現実的ではありません。しかし、そのような状況で誰が責任を負うかという点は曖昧です。それでも自動運転車を開発すべきでしょうか。それとも、このテクノロジーはドライバーの安全運転を支援する半自動運転車に限定すべきなのでしょうか。この件についてはまだ結論が出ていませんが、新しい革新的なAIテクノロジーの発展に伴い、この種の倫理的議論が起こっています。
人工知能に対する一般的なイメージは、雇用の減少が中心となっていますが、このような懸念は見直すべきでしょう。破壊的創造をもたらす新しいテクノロジーが登場するたびに、特定の職務に対する市場の需要が変化していることがわかります。たとえば自動車産業に目を向けると、GMなど多くのメーカーが、環境への取り組みに合わせて電気自動車の生産に重点を移行しています。エネルギー産業は消滅しませんが、エネルギー源は燃料経済から電気へ移行しつつあります。人工知能も同様に考える必要があります。人工知能によって仕事の需要が他の分野に移るということです。データは日々増加し変化するため、そのシステム管理を支援する人が必要になります。カスタマー・サービスなど、仕事需要の変化から最も影響を受けやすい業界では、より複雑な問題に対処できる人材が今後も必要とされるでしょう。人工知能とその雇用市場への影響に関して最も重要なのは、個人が需要のある新しい分野に移行できるようにすることです。
プライバシーは、データ・プライバシー、データ保護、データ・セキュリティといった文脈で議論される傾向があります。このような懸念から、政策立案者はここ数年でさらなる進歩を遂げることができました。たとえば、2016年には、欧州連合と欧州経済地域の人々の個人データを保護するためのGDPR法が制定され、個人がデータをより細かく管理できるようになりました。米国では、カリフォルニア州の消費者プライバシー法(CCPA)のような政策が各州で策定されており、企業はデータ収集について消費者に通知することが義務付けられています。この最近の法律により、企業は個人を特定できるデータ(PII)の保存方法と使用方法を再考せざるを得なくなりました。その結果、企業は監視、ハッキング、サイバー攻撃の脆弱性や機会を排除しようと努めており、セキュリティー投資の中でも優先順位が高まっています。
多くのインテリジェントシステムにおける偏見や差別の事例により、人工知能の使用に関しての倫理にまつわる疑問が多数提起されています。トレーニングデータセット自体に偏見が加わることがあるなら、偏見や差別からどのように保護できるでしょうか。企業は通常、善意をもって自動化に取り組んでいますが、AIを採用業務に組み込むと、予期しない結果が生じえます。Amazonは、プロセスを自動化し簡素化する取り組みの中で、技術職の求職者に対し意図せず性別による偏見を与えてしまい(ibm.com外部へのリンク)、最終的にプロジェクトを中止せざるを得なくなってしまいました。こうしたイベントが表面化していく中で、Harvard Business Review(ibm.com外部へのリンク)は、採用業務におけるAIの使用について、他にも鋭い疑問を提起しています。役職の候補者を評価する際にどのようなデータを使用可能にするべきか、といったものです。
偏見や差別は人事部門に限りません。顔認識ソフトウェアからソーシャル・メディア・アルゴリズムまで、さまざまなアプリケーションに存在します。
企業がAIのリスクを認識するようになるにつれて、AIの倫理と価値に関する議論もより活発になっています。たとえばIBMのCEOを務めるArvind Krishnaは昨年、IBMの汎用顔認識・分析製品を提供停止する発表を出した際、「IBMは、他のベンダーが提供する顔認識技術を含めいかなるテクノロジーについても、大量監視や人種プロファイリング、基本的人権と自由を侵害するような使用方法、または当社の価値観や信頼・透明性の原則にそぐわない目的に使用することに断固として反対し、容認しません」という意向を強く述べました。
AIの実践的な活用方法を規制する普遍的で包括的な法律はありませんが、多くの国や州が地域ごとにそうした法律の整備に取り組んでいます。現在施行されているAI規制は一部分で、今後さらに多くの法律が施行されることになります。このギャップを埋めるために、倫理学者と研究者の協力の一環として、社会におけるAIモデルの構築と配布を管理するための倫理フレームワークが登場しました。しかし、現時点でフレームワークはあくまでも指標でしかありません。研究(リンクはibm.com外部)では、責任の分散と潜在的な結果に対する先見性の欠如が結びつくことにより、社会を危険にさらす可能性があることが示されています。
人工知能の性能は、設計、開発、トレーニング、調整、使用の方法によって決まります。AI倫理とは、AIシステムのライフサイクルにおける全段階で、倫理基準とガイドラインのエコシステムを確立するということなのです。
組織、政府、研究者は一様に、現在のAIが抱える倫理的懸念に対処し、この分野で仕事の未来を形作るためのフレームワークを組み立て始めています。ガイドラインには日々、より多くの枠組みが導入されています。同時に、以下の内容を組み込むことについてある程度の意見の一致が得られています。
ガバナンスとは、組織内のポリシー/プロセス、スタッフ、システムを通じてAIライフサイクルを監督する行動です。ガバナンスは、AIシステムを組織の原則と価値観で意図されているとおり、利害関係者が期待するとおり、関連規制で求められるとおりに動作させるための助けとなります。上手くいくガバナンスプログラムには、次の要素があります。
AIで作業する人員の役割と責任を定義します。
AIライフサイクルに関与するすべての人々に、責任ある方法でAIを構築するよう教育します。
AIとAIリスクについて、構築、管理、監視、伝達するためのプロセスを確立します。
ツールを活用して、AIの性能と信頼性をAIライフサイクル全体で向上させます。
AI倫理委員会はガバナンスに特に効果的なメカニズムです。IBMのAI倫理委員会は全社から集まったさまざまなリーダーで構成されており、IBMの倫理ポリシーと実践に対する一元的なガバナンス、レビュー、意思決定プロセスを行っています。IBMのAI倫理委員会に関する詳細はこちら。
AI倫理に対する組織のアプローチは、信頼できるAIを実現するために、組織全体にわたり製品、ポリシー、プロセス、実践に適用可能な原則に基づいて行う場合があります。原則の策定にあたり、その中心となり支えとなるべきは説明可能性(explainability)や公平性などの重点領域です。この領域は、基準を策定し、実践を調整する際の基盤となり得ます。
AIは、倫理を中核として構築すれば社会に良い影響を与える大きな可能性を秘めています。放射線医療といった医療分野への統合で見受けられるようになりました。AI倫理を巡る議論は、設計段階からAIの使用に関連する潜在的リスクを適切に評価し、軽減するためにも重要です。
倫理基準は民間企業のデータエンジニアやデータサイエンティストにとって一番の関心事ではないため、人工知能分野での倫理的行動を推進する組織が数多く登場しています。詳細情報を求める向きには、AI倫理を制定するためのリソースが、次に示す組織やプロジェクトから提供されています。
また、AI倫理に関する独自の視点を確立しているIBMは、「信頼と透明性の原則」を作成し、AIに関する対話の中でIBMの価値がどこにあるのかを顧客に理解してもらえるようにしています。IBMには、データやAI開発に対するアプローチを決定づける3つの基本原則があります。
またIBMは、AIテクノロジーの責任ある導入をガイドする5つの柱策定しました。次に挙げるとおりです。
こうした指針と重点分野が、AI倫理に対する当社のアプローチの基礎を成しています。倫理と人工知能に関するIBMの見解については、こちらで詳細をお読みください。
信頼できるAIを追求するIBMの分野横断的で多角的なアプローチ
AIモデルを構築、実行、管理します。オープンソースコードまたはビジュアルモデリングを使用して、任意のクラウド上でデータを準備し、モデルを構築します。結果を予測して最適化します。
生成AIモデルと機械学習モデルの両方で、責任ある透明で説明可能なデータとAIのワークフローを実現します。