ここでは、今日の業界におけるAI倫理について市場の包括的な見解を提供することを目的としています。IBMの見解について詳しくは、こちらから「AI倫理」ページをご参照ください。
倫理とは、私たちが善悪を見分けるのに役立つ一連の道徳的原則のことです。AI倫理とは、人工知能の設計や成果について推奨する一連の指針です。人間には、親近性バイアスや確証バイアスなどのさまざまな認知バイアスがあり、その固有のバイアスが私たちの行動、さらにはデータに現れます。データはあらゆる機械学習アルゴリズムの基盤となるため、このバイアスを念頭に置いて実証試験やアルゴリズムを構築することが大切です。人工知能はこうした人間のバイアスを前例のない速さで増幅させ、拡張させる可能性があるためです。
ビッグデータの出現により、企業全体で自動化の推進とデータ駆動型の意思決定に対する関心が高まっています。通常は(必ずしもそうとは限りませんが)ビジネス成果の向上を図るという意図がありますが、企業は、特に事前のリサーチ・デザインが不十分であったり、データセットが偏っていることにより、一部のAIアプリケーションで予期しない結果に直面することがあります。
不公平な結果の事例が明らかになるにつれ、主に研究コミュニティーやデータ・サイエンス・コミュニティーから、AI倫理に関する懸念に対処するための新たな指針が登場するようになりました。AI分野の大手企業もこの指針の策定に強い関心を持っています。それは自社製品が倫理規定を守らないことにより、影響を受けることがあるということを経験し始めているためです。この分野での努力を怠ると、評判や規制、法律上のリスクにさらされ、多額の罰金を科せられる可能性があります。他のすべての技術の進歩と同様に、新しい分野では行政規制よりもイノベーションが先に進む傾向があります。政府業界で適切な専門知識が蓄積されれば、企業が従うべきAIプロトコルが増えることが期待され、人権や市民の自由の侵害が回避できるようになります。
IBMの次世代AIおよびデータ・プラットフォームを使用して、エンタープライズ向けのAIの能力を倍増します
AI倫理の原則を実践する方法については、こちらをご覧ください。
AIの使用を管理するための規定やプロトコルが開発される一方で、学術界では、実証研究やアルゴリズム開発における倫理を導く手段としてBelmont Report(IBM外部へのリンク)(英語)(PDF、121 KB)が活用されています。以下の主な3つの原則は、実証試験とアルゴリズム設計におけるBelmont Reportの指針です。
IBMのAI倫理
多くの問題が、AI技術を取り巻く倫理的な議論の最前線で生じています。懸念には次のようなものがあります。
このトピックは多くの人々の注目を集めていますが、研究者の多くは、AIが近い将来あるいはすぐにでも人間の知性を超えるという考えには懸念を示していません。これは超知能とも呼ばれ、スウェーデン人の哲学者ニック・ボストロムは「科学的創造性や一般的な知恵、社会的スキルなどを含む事実上すべての分野において、最も優秀な人間の脳を大幅に上回る知性」と定義しています。「強いAI」と超知能は社会の中で目前に迫っているわけではないものの、その考えは、自動運転車のような自律システムの活用を検討する上で、いくつかの興味深い疑問を投げかけるものとなっています。自動運転車が自動車事故に巻き込まれることは決してないと考えるのは非現実的ですが、そのような状況では誰が責任を負うのでしょう。それでも自動運転車を追求すべきでしょうか。それとも、このテクノロジーの統合を制限して、ドライバーの安全を高める半自動運転車にとどめるべきでしょうか。その最終的な答えはまだ出ていませんが、新しい革新的なAI技術の発展に伴い、この種の倫理的な議論が行われています。
人工知能に関する世間の認識の多くは、人の仕事がなくなるのではという点に集中していますが、この懸念はおそらく捉え直されるべきです。破壊的な新しいテクノロジーが登場するたびに、特定の職務に対する市場の需要は変化を遂げます。例えば自動車業界の場合、GMを始めとする多くのメーカーが、グリーン・イニシアチブに合わせて電気自動車の生産に焦点を当てるようシフトしています。エネルギー産業が無くなることはありませんが、エネルギー源は燃料から電気へとシフトしています。人工知能もこれと同様に、求められる仕事内容を他の分野へとシフトさせるものと捉える必要があります。データが日々増大し、変化するのに伴い、これらのシステムの管理を支援する担当者が必要になるでしょう。カスタマー・サービスのように、仕事に対する需要の変化によって影響を受ける可能性が最も高い業界においても、より複雑な問題に対処する人材は依然として必要です。人工知能の重要な側面と雇用市場へのその影響は、市場で求められるこうした新しい分野に個人が移行するのを後押しすることになるでしょう。
プライバシーは、データ・プライバシー、データ保護、データ・セキュリティーの文脈で議論される傾向があり、こうした懸念が、政策立案において近年さらなる前進を遂げることへとつながりました。例えば、2016年には、欧州連合と欧州経済領域内の人々の個人データを保護するためにGDPR法が策定され、自身の個人データをより細かく管理できるようになりました。米国では、個々の州がカリフォルニア消費者プライバシー法(CCPA)などの政策を策定しており、これによって、企業はデータの収集について消費者に通知することが求められます。こうした最近の法律により、企業は個人を特定できるデータ(PII)をどのように保存し使用するかを、再考せざるを得なくなりました。その結果、セキュリティーに関する投資は、監視やハッキング、サイバー攻撃の脆弱性や機会を排除しようとする企業にとって、ますます優先度が高くなっています。
多くのインテリジェント・システム全体でのバイアスと差別の事例は、人工知能の使用に関して多くの倫理的問題を提起しました。トレーニング・データ自体がバイアスに寄与する可能性がある場合、バイアスや差別をどのように防ぐことができるのでしょうか。企業は通常、自社の自動化の取り組みに関して善意の目的を持っていますが、Reuters社(IBM外部へのリンク)は、AIを採用プロセスに組み込むことで、一部で、予期しない結果が発生していることに注目しています。Amazon社は、プロセスを自動化し簡素化する取り組みの中で、求人中の技術職への応募者の性別に対して、意図せずバイアスをかけてしまい、最終的にそのプロジェクトを打ち切らなければならなくなりました。このような出来事が表面化する中、Harvard Business Review(IBM外部へのリンク)は、ある職種の候補者を評価する際にどのデータを使用するべきかなど、採用プロセスにおけるAIの使用を巡って、他にも鋭い問題提起を行っています。
バイアスや差別は、人事業務に限ったことではありません。顔認識ソフトウェアからソーシャル・メディアのアルゴリズムまで、多くのアプリケーションで見受けられます。
企業がAIのリスクを認識するようになるにつれて、AIの倫理と価値に関するこの議論も活発になっています。例えば、昨年、IBMのCEOのArvind Krishnaは、IBMが汎用的な顔認識と分析を行うことを目的とした自社製品を廃止したことを伝え、「IBMは、他のベンダーが提供する顔認識テクノロジーを含むあらゆるテクノロジーを、大規模な監視、人種によるプロファイリング、基本的人権と自由に対する侵害、または、当社の価値観、および信頼性と透明性の原則に一致しない目的のために使用することに断固反対し、容認しません」と強調しました。
AIの実践を規制する重要な法律がないため、倫理的なAIが実践されることを保証する実際の施行メカニズムはありません。企業がこれらのガイドラインを順守する現在のところの動機は、非倫理的なAIシステムを使えば収益に悪影響が及ぶという点にあります。このギャップを埋めるために、倫理的枠組みが登場しています。これは、社会におけるAIモデルの構築と配布を管理することを目的とした、倫理学者と研究者の間のコラボレーションの一環です。しかし、現時点では、これらはあくまでガイドに過ぎず、研究(IBM外部へのリンク)(英語)(PDF、1MB)によると、責任が分散されてしまうことと、潜在的な結果に対する先見性が欠如しているということから、必ずしも社会に対する危害防止に役立つとは限らないことが示されています。
人工知能ではモラル・マシンが生み出されませんでした。そのため、チームでは、現在の倫理的な懸念に対応し、この分野における「新しい仕事のあり方」を築くためにフレームワークやコンセプトの構築を始めました。このガイドラインには、毎日より多くの構造が取り込まれていますが、以下に挙げる取り込みに際しては一定のコンセンサスが存在します。
倫理的なAIの実現が、AIの成功に重要であることは間違いありません。一方で大事なことは、AIは社会に良い影響を与える大きな可能性を秘めていることです。放射線科などの医療分野でのAIの活用で、その効果が認められ始めています。AI倫理に関するこのような議論は、このテクノロジーを有効活用しようとする取り組みの中で、その設計の中に潜む有害性を適切に評価することにつながります。
倫理基準は民間企業のデータ・エンジニアやデータサイエンティストにとって主な関心事ではありません。そのため、人工知能の分野で倫理的な行動を促進するための組織がいくつか登場しています。詳しい情報をお求めの場合、以下の団体やプロジェクトが倫理的なAIの導入に関するリソースを提供しています。
IBMでもAIの倫理について独自の視点を確立しています。信頼と透明性の原則を設けることで、AIに関する会話の中で、お客様は自社の価値がどこにあるのか把握できるようになります。IBMには、データとAIへのIBMのアプローチを規定する、以下の3つの基本原則があります。
また、IBMは、責任を持ってAIテクノロジーを採用するために一連の重点分野を策定しました。これらには以下が含まれます。
これらの原則と重点分野は、IBMのAI倫理へのアプローチの基盤を形成しています。倫理と人工知能に関するIBMの見解について詳しくは、こちらをご覧ください。
IBMは、自社製品が倫理的なガイドラインと原則を念頭に置いて構築され、利用されるように努めています。IBMがお客様に提供している製品の1つに、AIの倫理的な基準に基づいて監視やコンプライアンスを向上させるIBM Watson Studioがあります。
IBM Cloud Pak for DataのIBM Watson Studioは、信頼できるAIを運用するためのモニターと管理に役立ちます。組織では、実働中のAIモデルを可視化して追跡し、規制リスクを軽減するためのモデルの検証とテストを行い、AIライフサイクルを可視化することができます。今すぐIBMidにご登録の上、無料のIBM Cloudアカウントを作成してください。
人工知能の倫理についてのIBMの見解について詳しくは、こちらをご覧ください。
信頼できるAIに対するIBMの分野横断的な多次元的アプローチをご紹介します。
AIモデルを構築、実行、管理します。オープンソース・コードやビジュアル・モデリングを使用して、あらゆるクラウド上でデータを準備し、モデルを構築します。結果を予測して、最適化します。
生成AIモデルと機械学習モデルの両方で、責任ある透明で説明可能なデータとAIのワークフローを実現します。