AIとのバランス:効果とリスクヘッジ

窓のあるオフィスでの非公式なチームミーティング

子供のころ、父は常に「善い行いをしなさい(do good)」と言っていました。子どもの私は、それはまずい文法だと思い、「うまく行う(do well)」だと主張して修正したものでした。私の子どもたちでさえ、彼の「do good」というアドバイスを聞くと私をからかいます。私は、文法に関しては彼に目をつぶってあげたのを認めます。

責任ある人工知能(AI)の場合、組織は危害を回避する機能を中心に据える必要があります。一部の組織は、「善をなすこと(doing good)」のためにAIを使用することを目指している場合もあります。しかし、AIには「良い」と同意する前に、明確なガードレールが必要な場合があります。

「Presidio AI フレームワーク」の論文を読んで、拡大するAIライフサイクル全体にわたってガードレールを使って、生成AIリスクに対処する方法を学んでください (リンクはibm.comの外部にあります )

生成AIが主流になりつつある中、組織はプロセスを変革し、コストを削減し、ビジネス価値を高める可能性に期待を寄せています。ビジネスリーダーは、顧客、患者、従業員、パートナー、市民により良いサービスを提供し、全体的なエクスペリエンスを向上させるために、ビジネス・ストラテジーを再設計することに熱心です。生成AIは、世界中の組織に扉を開き、新たな機会とリスクをもたらしています。人事(HR)のリーダーシップは、そうした課題の管理において重要な役割を果たしています。

AI 導入の増加に伴う影響に適応するには、 NIST欧州AI規制法、NYC 144、米国 EEOC、ホワイトハウス AI 法 (前述のリンクはすべて ibm.com の外部にあります) などの複雑な規制要件に準拠することが必要になる可能性があります。これらの規制要件は、人事および組織ポリシー、そして社会、職業スキル、団体交渉の労働協約にも直接影響を及ぼします。責任あるAIを採用するには、NIST、OECD責任あるAI研究所データ&トラスト・アライアンスIEEE(これまでのリンクはすべてibm.comの外部にあります)などの主要な国際リソースによって確認されているように、マルチ利害関係者ストラテジーが必要です。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

これは単なるITの役割ではありません。人事が果たす重要な役割

人事部門のリーダーは、AIやその他のテクノロジーを考慮し、現在の業務に必要なスキルと将来のスキルについて、企業にアドバイスするようになりました。WEFによると、雇用主は今後5年間で労働者のスキルの44%が破壊されると推定しています。人事担当者は、従業員の仕事を拡大し、より高度な業務に集中できるようにすることで生産性を向上させる可能性を、これまで以上に模索しています。AIの機能が拡大するにつれ、AIの活用が従業員、パートナー、顧客を犠牲にすることのないよう、すべてのビジネス・リーダーが考慮しなければならない倫理的な懸念や疑問が生じています。

組織が責任を持ってAIを業務に統合するためにIBMが推奨する信頼と透明性の原則を学びましょう

従業員の教育と知識管理はいま、年に1回のチェックボックスではなく、継続的なプロセスとして、IT、法務、コンプライアンス、ビジネス・オペレーターとのマルチ・ステークホルダー戦略として緊密に調整されています。そのため、人事リーダーは、AIの機能を適用する場所を特定し、責任あるAIのストラテジーを確立し、AIやオートメーションのようなツールを使用して、信頼できる透明性の高いAIの採用を通じて、従業員への配慮と尊重を確保することに役立つよう、方針を策定して従業員のAIの見識を高めるためのプログラムの開発に本質的に関与する必要があります。

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

組織内での AI 倫理の導入における課題と解決策

AIの導入とユースケースは拡大し続けていますが、組織はAI機能をプロセスやシステムに導入することに伴う多くの考慮事項や結果に対して十分に準備ができていない可能性があります。IBM Institute for Business Valueの調査によると、調査対象のエグゼクティブの79% は、企業全体のAIアプローチにおいてAI倫理の重要性を強調しているものの、AI倫理の共通原則を運用化したと答えたのは25% 未満にとどまっています。

このような相違が存在するのは、政策だけではデジタルツールの普及と利用の増加を排除できないためです。労働者が適切な承認なしに、ChatGPTやその他のブラックボックス・パブリック・モデルなどのスマートデバイスやアプリを使用することが増えていることは根強い問題となっており、そこには関連するリスクについて従業員に通知するための適切なチェンジ・マネジメントが含まれていません。

例えば、従業員はこれらのツールを使用して、機密性の高い顧客データを使用して顧客にEメールを書いたり、マネージャーが個人的な従業員データを開示する成績評価を作成したりすることができるのです。

これらのリスクを軽減するには、各部門、事業単位、機能レベル内に、責任あるAIプラクティスのフォーカル・ポイントまたはアドボケイトを組み入れることが有効な場合があります。この例は、潜在的な倫理的課題や運用上のリスクを回避する取り組みを人事部門が推進し、推進する機会となる可能性があります。

最終的には、企業の広範な価値観や事業ストラテジーに沿った共通の価値観や原則を持ち、全従業員に周知されるような責任あるAIストラテジーを構築することが不可欠です。このストラテジーは、従業員を支持し、組織がビジネス目標を前進させるAIとイノベーションを取り入れる機会を特定する必要があります。また、AIの有害な影響を防ぎ、誤った情報や偏見に対処し、社内と社会の両方で責任あるAIを推進するための教育を従業員に提供し、サポートする必要があります。

責任あるAIを採用するために考慮すべき3つの事柄

ビジネスおよび人事のリーダーが責任あるAIのストラテジーを策定する際に留意すべき、上位3つの考慮事項は次のとおりです。

従業員をストラテジーの中心に据える

別の言い方をすれば、高度なテクノロジー戦略を計画する際に、人を優先します。つまり、AIが従業員とどのように連携するかを特定し、従業員が業務で優れた成果を上げるために AI がどのように役立つかを具体的に従業員に伝え、働き方を再定義するのです。教育がなければ、従業員は自分の仕事に取って代わるAIの導入や、労働力の排除のためにAIが導入されることについて過度に不安を感じる可能性があります。これらのモデルがどのように構築されるかについて、従業員と正直に直接コミュニケーションをとりましょう。人事リーダーは、潜在的な仕事の変化や、AIやその他のテクノロジーによって生まれる新しいカテゴリーや仕事の現実に取り組む必要があります。

導入テクノロジーと企業の両方を考慮したガバナンスを実現

AIは一枚岩ではありません。組織はさまざまな方法でAIをデプロイできるため、責任あるAIが自社にとって何を意味するのか、どのように使用する予定なのか、またどのように使用を控えるのかを明確に定義する必要があります。OECDやRAIIのガイドラインに沿って、透明性、信頼、平等性、公平性、堅牢性、多様なチームの使用などの原則を、生成AIに関係するかどうかにかかわらず、それぞれのユースケースで検討し、設計する必要があります。さらに、モデルドリフトとプライバシー対策に関する定期的なレビューを、各モデルと、バイアス軽減のための多様性、公平性、包括性に関する具体的なメトリクスについて実施する必要があります。

業務に必要な適切なスキルとツールを特定して調整する

実際には、一部の従業員はすでに生成AIツールを使って、質問への回答やEメールの作成、その他の日常的なタスクの実行に役立てています。したがって、組織は、これらのツールを使用する計画を伝え、使用する従業員に対する期待値を設定し、これらのツールの使用が組織の価値観と倫理と一致していることを確認するために直ちに行動する必要があります。また、組織は、従業員がAIに関する知識を高め、潜在的なキャリアパスを理解するのに役立つスキル開発の機会を提供する必要があります。

組織が責任を持ってAIを導入する方法に関する詳細なガイダンスについては、「生成AIから価値を解き放つ」のペーパーをダウンロードしてください

導入を成功させるには、責任あるAIを実践し、組織に組み込むことが不可欠です。IBMは、責任あるAIをクライアントやパートナーとの AIアプローチの中心に据えている。2018年、IBMは、倫理的で、責任のある、信頼できるAIの文化を支える分野横断的な中心機関として、AI倫理委員会を設立しました。研究、事業単位、人事、ダイバーシティーとインクルージョン、法務、政策渉外、調達、コミュニケーションなど、さまざまな部門のシニアリーダーで構成されています。取締役会は、AI関連の取り組みと決定について指揮し、実施します。IBMはAIのメリットと課題を真剣に受け止め、すべての活動に責任を埋め込んでいます。

私は、父のこの文法ルール違反を許します。AIは、多くの人間、ガードレール、監視、ガバナンス、AI倫理フレームワークを関与させて、正しく管理されれば「良いことをします」。

 

著者

Jennifer Kirkwood

Executive

HR/Talent & Data, Partner, IBM Consulting

関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・ソリューション

AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約