生成AIは比較的新しいテクノロジーですが、AIの歴史の流れを大きく変える重要な要因となっています。これは、ビジネスの本質そのものを転換すると予想されます。AI投資が急増する状況の中、特に生成AIと基盤モデルが提示する可能性を踏まえると、こうした投資が長期的に有効で、法令に準拠し、正当であり続けるには、AI倫理が不可欠な要素となります。IBMでは信頼の糸口は社内の倫理文化にあると考えていますが、スケーラブルなAIに必要なのはあらゆる側面で機能するガバナンスです。AIをどこにどのように導入するかについて今企業が下す決断は、今後何年にもわたりさまざまな影響を及ぼすことになるでしょう。
AIの倫理とガバナンスに関する論点は、取締役会主導で組織内議論を規律する必要があります。できることとするべきことの間には大きな隔たりがあるためです。AIをどのように社内で使用するかについても同じことが言えます。従業員への潜在的影響に加え、顧客果てはより広範な世界への影響を検討する必要があります。「企業がAIの導入開始前に講じることができる最も重大な措置の1つとして、最低レベルから最高レベルに至るすべての職務にAIが及ぼす影響を含め、AIをいつどこで使用するかを明示する保護策を設けることが挙げられます」—Melissa Long Dolson
こうした保護策には、基盤モデルの健全性や、従業員と顧客のプライバシー保護、知的財産のメンテナンス、リスク管理、規制コンプライアンスを盛り込む必要があります。また、保護手段と責任階層に関する明確なビジョンも必要です。例えばIBMは、責任あるAIに関して次の3原則を提示しています。
AIとITオートメーションを効果的に管理するには、新しい役割を検討する必要もあります。例えば、AI倫理最高責任者を雇うか、AI倫理学者やAI倫理委員会も必要か、あるいはこの3つすべてが必要かといったことを検討します。こうした監督業務以外にもすぐ必要となる新しい役割があります。AIプロンプト、深層学習エンジニア、AIチャットボット開発者、AI設計者、AI監査人など、枚挙にいとまがありません。これらのどの役割にも責任を持って業務を遂行するための明確なガイドラインが必要です。
こうした複雑な議論に単純な回答はありませんが、早急に解決する必要があります。なぜなら、ビジネス界ではAIを震源とする激変が起きているためです。世界経済フォーラムは、こうした新テクノロジーによって2025年までに全世界で8.500万の雇用が失われると予測しています。ただし同フォーラムでは、9,700万の職務が新たに創出されるとも推察しています1。こうして新たに創出される労働力は、人間がAIの力を借りて厳格な倫理観に基づいたルールを指針にして担う必要があります。
このトピックを掘り下げるには、IBMの生成AIガイドの一部である「責任あるAIと倫理」をご覧ください。
1 景気後退と自動化技術が仕事の未来を変える一方で、新たな仕事の需要も(ibm.com外部へのリンク)、世界経済フォーラム2020年報告書より。