AIの安全性とは、AIが人類に利益をもたらし、潜在的な危害やネガティブな結果を最小限に抑える方法で設計および使用されるようにするための実践と原則を指します。
安全なAIシステムの構築は、AIの普及と影響力の拡大により、企業や社会にとって重要な考慮事項です。AIの安全性は、AIシステムが可能な限り責任を持って使用され、AIの将来が人間の価値観を念頭に置いて開発されることを担保する上で役立ちます。
安全なAIの開発と維持には、潜在的なAIリスク(バイアス、データ・セキュリティー、外部脅威に対する脆弱性など)を特定し、これらのリスクを回避および軽減するためのプロセスを作成することが含まれます。たとえば、バイアス軽減、堅牢性テスト、倫理的AIフレームワークなどのAI安全対策はすべて、企業が組織内で責任を持ってAIツールを開発し、使用するための助けになります。
AIシステムがより洗練されるにつれて、人々の生活や、インフラ、金融、国家安全保障などの重要な現実世界の領域に深く組み込まれるようになってきました。これらのテクノロジーは、それを使用する組織や社会全体にプラスの影響とマイナスの影響の両方をもたらす可能性があります。
AIのネガティブな影響に対する懸念は、高まっています。2023年の調査では、アメリカ人の52%が人工知能の使用増加に期待よりも懸念を抱いていることがわかりました。1別の調査では、回答者の83%が、AIが誤って壊滅的な出来事につながるのではないかと懸念を抱いています。2
その他の調査では、その懸念は根拠のないものではないことが示されています。2024年のレポートによると、調査回答者の44%が、組織がAIの使用によってネガティブな影響(不正確性やサイバーセキュリティーの問題など)を経験したと回答しています。3安全性への取り組みは後回しにされることが多く、Center for AI Safetyによる2023年のImpact Reportによると、AIの安全性向上に焦点を当てた技術研究は、わずか3%です。4
AIの安全対策は、社会全体における公共の安全、プライバシー、基本的権利を保護するために必要です。偏ったり、不透明であったり、または人間の価値観に沿っていないAIシステムは、社会的不平等を永続させたり、増幅させたりする可能性があります。
専門家はまた、一部の高度なAIシステムが、人間と同等かそれ以上の知能を持つのではないかと心配しています。汎用人工知能(AGI)とは、人間と同じように理解し、学習し、思考タスクを実行する潜在的なAIシステムを指します。人工超知能(ASI)とは、知的範囲と認知機能がどの人間よりも高度な仮説上のAIシステムを指します。AGIやASIの開発は、そのようなシステムが人間の価値観に合致していなかったり、人間の監視下に置かれていなかったりすると危険ではないか、という懸念を提起するものです。自律性が高すぎると、これらのシステムは人類に存続の脅威をもたらすだろう、と批評家は述べています。
ビジネスの観点では、安全なAIは消費者の信頼を築き、法的責任を回避し、誤った意思決定を回避するために役立ちます。AIの使用を自社の価値観に沿ったものにするための措置を講じる組織は、自社と顧客への悪影響を回避できます。
AIリスクはいくつかの種類に分類可能で、それぞれが異なるAI安全対策とリスク管理の取り組みを必要とします。
AIシステムは、社会的なバイアスを永続化させたり、増幅させたりする可能性があります。AIが不完全または誤解を招くデータや入力に基づいてトレーニングされると、結果としてアルゴリズムのバイアスが発生します。これは、不公平な意思決定につながる可能性があります。たとえば、差別的なデータに基づいてトレーニングされたAIツールは、特定の背景にある応募者の住宅ローンを承認する可能性が低くなったり、女性の応募者よりも男性の応募者の採用を推奨したりする可能性が高くなる場合があります。
AIシステムには、個人データに不適切にアクセスしたり、暴露したり、悪用したりする可能性があり、これはプライバシー上の懸念につながります。機密データが侵害された場合、AIシステムの作成者やユーザーが責任を問われる可能性があります。
高度なAIシステム、特に自律エージェントとして動作するように構築されたAIシステムの結果は、予測できない場合があります。それらのアクションも有害かもしれません。独立した意思決定が可能である場合、止めるのは難しい可能性があります。人間による制御の要素がなければ、不適切な動作をするAIシステムに介入したり、シャットダウンしたりすることが不可能となるかもしれません。
AGI、ASI、およびその他の高度なAIシステムは、管理を誤ると、人類を危険にさらしたり、グローバルシステムを混乱させたりするような行動をとる可能性があります。軍拡競争のようなAI競争の危険性は、地政学的な安定をリスクにさらします。
AIは、大規模な社会操作やサイバー戦争に悪用される可能性もあります。2023年、非営利団体CAIS(Center for AI Safety)は、さまざまなAI研究者やリーダーたちによって裏打ちされた一文の声明を発表しました。その声明では「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といったその他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と述べられました。5
意図しない結果やエラーはAIリスクの発生源ですが、悪意のある攻撃者はまた、このテクノロジーを意図的に使用して損害を与えることができます。AIは、サイバー攻撃、誤報キャンペーン、違法な監視、さらには身体的危害のために兵器として利用される可能性があります。これらの脅威は、個人レベル・社会レベルで存在します。
AIの安全性とAIセキュリティーは、人工知能において関連しながらも異なる側面です。AIの安全性は、固有の問題や意図しない結果に対処することを目的としており、AIセキュリティーはAIシステムを外部の脅威から保護することに重点を置いています。
AIの安全性は、AIを人間の価値観と結び付け、AIシステムが企業や社会に悪影響を与える可能性を低減しようとするものです。この概念では、人間の価値観と目標をAIモデルにエンコードするプロセスであるAIアライメントを重視しています。
AIセキュリティーとは、サイバー攻撃やデータ侵害などの外部の脅威からAIシステムを保護することです。これには、AIモデルの機密性と完全性の保護が含まれます。AIセキュリティーとは、人工知能を使用して組織のセキュリティー体制を強化することを指す場合もあります。この定義では、潜在的な脅威を予測して対処するために、AIと機械学習(ML)を使用することが含まれます。
AIのリーダーや企業は、AIテクノロジーの責任ある開発と利用を支援するためにさまざまなプラクティスを導入しています。AIの安全対策には、以下のようなものがあります。
アルゴリズムは、トレーニングの対象となるデータに存在する偏見を永続化させたり、増幅させたりする場合があります。この問題を克服するために、企業はアルゴリズム・バイアスに対処する取り組みに投資しています。多様なデータ・セットの収集、アルゴリズムの公平性評価、バイアス除去などの手法は、潜在的な問題を特定するのに役立ちます。
厳格なテストと検証のプロセスにより、AIシステムは災害に耐え、技術的なリスクを特定できるようになります。敵対的テスト、ストレス・テスト、形式検証などの手法は、AIツールとモデルが意図したとおりに動作し、望ましくない動作を示さないことを確認する際に有用です。
多くのAIモデル、特に大規模言語モデル(LLM)は、人間が解釈するのが難しい決定を行う「ブラックボックス」です。意思決定プロセスに透明性がなければ、ユーザーはその結果や推奨事項を信頼しづらくなります。説明可能なAI(XAI)は、複雑なAIシステムの背後にある不透明なプロセスを明らかにすることを目指しており、結果に到達する方法を示す解釈可能性に重点を置いています。
多くの組織では、AIシステムの開発と使用をガイドする倫理的なAIフレームワークを導入しています。これらのフレームワークと関連するベンチマークには通常、透明性、公平性、説明責任性、プライバシーなどの原則が含まれます。これらのフレームワークは、AIツールの使用と開発におけるガードレールを提供します。
オートメーションは多くの企業にとってAIの魅力の一つですが、安全上の理由から、人間による制御を維持することも重要です。つまり、人間のオペレーターがAIシステムのパフォーマンスを監視し、必要に応じて介入し、重要な状況では最終的な決定を下すということです。人間参加型アプローチによって、実際の人がAIシステムの動作に責任を持つことができます。
暗号化、アクセス制御、異常検知などの強力なセキュリティー対策を実装することで、AIシステムを悪用や不正アクセスから保護できます。企業は、AIシステムの保全性を損なう可能性のあるサイバー攻撃やサイバー脅威から保護するために、サイバーセキュリティー対策に投資する場合もあるでしょう。
AIの安全性は、研究者、業界リーダー、政策立案者の協力が必要な、複雑で進化を続ける分野です。多くの企業が、業界コンソーシアム、研究イニシアチブ、標準化の取り組みに参加し、知識、ベスト・プラクティス、学んだ教訓を共有しています。協力することで、AIコミュニティはより堅牢で信頼性の高い安全対策を開発できます。
AIの安全性研究は、多くの利害関係者による共同の取り組みです。
AIの安全性は、AIシステムの設計、構築、テストを担当する開発者とエンジニアから始まります。彼らは、AIの目標を人間の価値観と一致させる方法や、透明性があり説明可能なモデルの作成方法など、基本的な疑問に重点を置くかもしれません。また彼らは、モデルやツールが意図したとおりに動作することを確認するためのテストや検証も担当します。
IBM、OpenAI社、Google DeepMind社、Microsoft社、Anthropic社など、AI開発をリードする企業は、AIに対する安全性への取り組みの最前線に立っています。専任のAI安全チームに投資し、倫理ガイドラインを確立し、責任あるAIの原則を遵守することで、有害な結果を防ごうとしています。
人間による監視を可能にするバイアス検知ツールやシステムなど、研究段階と導入段階の両方におけるリスクに取り組むためのフレームワークやプロトコルを策定している企業もあります。また、多くの企業が業種・業務間の連合において協力し、知識を共有してAIの安全性に関する業界全体の基準を設定しています。
より広範なAIガバナンスの取り組みは、世界的なAI安全対策の重要な部分です。国連、世界経済フォーラム、経済協力開発機構(OECD)などの国際機関は、AIの倫理と安全に焦点を当てた取り組みを主導しています。世界中の各政府も、AIの安全に関する規則や規制を策定しています。
米国では、米国国立標準技術研究所(NIST)の一部である人工知能安全研究所(AISI)が、安全性の問題に取り組んでいます。その取り組みは、研究の推進やリスク軽減策の開発などの優先事項に焦点を当てています。
欧州連合では、 EU AI法にさまざまな安全基準とガイドライン、および違反に対する罰則が含まれています。これとは別に、英国は安全なAI開発を促進するためにAI安全研究所を設立しました。シンガポール、日本、カナダなど、他のいくつかの国または地域でも、公共の安全に焦点を当てた研究を行い、開発と規制に情報を提供するためのAI安全機関が設立されています。
非政府組織(NGO)やシンクタンク、およびその他のグループの政策立案者や研究者は、安全性の問題に取り組んでいます。彼らは、国家安全保障、人権、立法政策の問題を検討し、AI開発が社会的な価値観や利益に沿うようにするための方法を推奨しています。またリスクに対する認識を高め、倫理ガイドラインを設定し、透明性を促進し、責任ある研究を奨励します。
AIの安全性に関する一部の主要な非営利団体やアドボカシー・グループには、次のような団体が含まれます。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
1「Growing public concern about the role of artificial intelligence in daily life」、Pew Research Center、2023年8月。
2「Poll Shows Overwhelming Concern About Risks From AI」、AI Policy Institute(AIPI)、2023年7月。
3「The state of AI in early 2024」、McKinsey社、2024年5月。
4「2023 Impact Report」、Center for AI Safety、2023年11月
5「Statement on AI Risk」、Center for AI Safety、2023年3月。