第05章:AIと
オートメーションの倫理
今日下す決断は、今後何年にもわたり影響を及ぼします
ノートPCで作業している人と、モニター正面に投影される画面のアイソメ図
問われる倫理

生成AIは比較的新しいテクノロジーですが、AIの歴史の流れを大きく変える重要な要因となっています。これは、ビジネスの本質そのものを転換すると予想されます。AI投資が急増する状況の中、特に生成AIと基盤モデルが提示する可能性を踏まえると、こうした投資が長期的に有効で、法令に準拠し、正当であり続けるには、AI倫理が不可欠な要素となります。IBMでは信頼の糸口は社内の倫理文化にあると考えていますが、スケーラブルなAIに必要なのはあらゆる側面で機能するガバナンスです。AIをどこにどのように導入するかについて今企業が下す決断は、今後何年にもわたりさまざまな影響を及ぼすことになるでしょう。

すべての章を表示
追加情報 レポート

CEOによる生成AIガイド

事実として、調査対象となった経営幹部の79%が全社的なAIアプローチにとってAI倫理は重要であると回答する一方で、AI倫理の共通原則を運用済みという回答は25%未満にとどまりました。 CEOによる生成AIガイド
保護策の設置

AIの倫理とガバナンスに関する論点は、取締役会主導で組織内議論を規律する必要があります。できることとするべきことの間には大きな隔たりがあるためです。AIをどのように社内で使用するかについても同じことが言えます。従業員への潜在的影響に加え、顧客果てはより広範な世界への影響を検討する必要があります。「企業がAIの導入開始前に講じることができる最も重大な措置の1つとして、最低レベルから最高レベルに至るすべての職務にAIが及ぼす影響を含め、AIをいつどこで使用するかを明示する保護策を設けることが挙げられます」—Melissa Long Dolson

こうした保護策には、基盤モデルの健全性や、従業員と顧客のプライバシー保護、知的財産のメンテナンス、リスク管理、規制コンプライアンスを盛り込む必要があります。また、保護手段と責任階層に関する明確なビジョンも必要です。例えばIBMは、責任あるAIに関して次の3原則を提示しています。


  • AIの目的は人間の知性の補強
  • データと洞察はその作成者に帰属
  • AIシステムをはじめとする新テクノロジーは、透明で説明可能であること

 



AIガバナンスの活用で責任ある↪AIワークフローを構築
企業がAIの導入開始前に講じることができる最も重大な措置の1つとして、AIをいつどこで使用するかを明示する保護策を設けることが挙げられます。 Melissa Long Dolson
新しい役割と議論

AIとITオートメーションを効果的に管理するには、新しい役割を検討する必要もあります。例えば、AI倫理最高責任者を雇うか、AI倫理学者やAI倫理委員会も必要か、あるいはこの3つすべてが必要かといったことを検討します。こうした監督業務以外にもすぐ必要となる新しい役割があります。AIプロンプト、深層学習エンジニア、AIチャットボット開発者、AI設計者、AI監査人など、枚挙にいとまがありません。これらのどの役割にも責任を持って業務を遂行するための明確なガイドラインが必要です。

こうした複雑な議論に単純な回答はありませんが、早急に解決する必要があります。なぜなら、ビジネス界ではAIを震源とする激変が起きているためです。世界経済フォーラムは、こうした新テクノロジーによって2025年までに全世界で8.500万の雇用が失われると予測しています。ただし同フォーラムでは、9,700万の職務が新たに創出されるとも推察しています1。こうして新たに創出される労働力は、人間がAIの力を借りて厳格な倫理観に基づいたルールを指針にして担う必要があります。

このトピックを掘り下げるには、IBMの生成AIガイドの一部である「責任あるAIと倫理」をご覧ください。

倫理は人任せにできない
 
第06章→
IBMでITオートメーションを
始める方法
第06章を読む すべての章を表示