AI倫理
責任あるAIの実現を推進する上で、IBMの分野横断的で多角的なアプローチが効果的です。基盤モデルの持つ機会とリスク、そして軽減策に関するIBMの見通しについてご説明します。
基盤モデル: 機会、リスク、 軽減策
AI倫理についてwatsonxに関連するサークルとルール
AIに対する信頼の構築

AIは、日々の生活、ビジネス、行政、医療などに溶け込んでいます。IBMは、人々や企業が責任を持ってAIを利用できるよう支援しています。信頼性の高いシステムは、倫理原則をAIのアプリケーションとプロセスに埋め込むことによってのみ構築できます。

watsonx.aiでは、従来の機械学習と、基盤モデルによる新しい生成AI機能を統合しました。

AI Academy

エピソードを見る:AIにおける信頼、透明性、ガバナンス

AIガバナンスが責任あるAIワークフローの構築にどのように役立つかをご覧ください。
私たちの原則と柱

信頼と透明性の原則は指針となる価値観であり、AI倫理に対するIBMの取り組み方を特徴づけるものです。

AIの目的は人間の知性の補強

IBMは、AIはすべての人の業務を改善すべきであり、AI時代がもたらす恩恵は一部の特別な人だけでなく、多くの人に届くべきだと考えています。

データと洞察はその作成者に帰属

お客様のデータやインサイトは、お客様だけのものです。IBMは、政府が掲げるデータ・ポリシーは公平、公正であるべきで、開放性を最重要視すべきだと考えています。

テクノロジーの透明性と説明可能性

企業は、AIシステムを訓練するのは誰なのか、訓練でどのようなデータを使用したか、そして、最も重要なこととして、AIシステムのアルゴリズムの推奨事項に何が含まれていたかを明確にする必要があります。

信頼と透明性の原則
中核

この原則は、信頼の柱によって支えられています。これは私たちのAI倫理の基盤です。

 

説明可能性

優れた設計は、透明性を犠牲にすることなく、シームレスな体験を実現します。

AI Explainability 360

公平性

適切に調整されたAIは、人間がより公正な選択をすることを支援します。

AI Fairness 360

堅牢性

システムはきわめて重要な決断に使われるため、AIは安全で堅固なものでなければなりません。

Adversarial Robustness 360

透明性

透明性は信頼を強化します。透明性を高める最善の方法は、開示を行うことです。

AI FactSheets 360

プライバシー

AIシステムは、消費者のプライバシーとデータ権を最優先し、保護する必要があります。

AI Privacy 360ツールキット

watsonxの概要 Watsonxは、ビジネス全体にわたるAIの効果を増強させるために設計された、新しい企業向けAIとデータのプラットフォームです。 watsonxプラットフォームの詳細はこちら watsonx.ai

今すぐ利用可能- 基礎モデルと機械学習モデルを簡単にトレーニング、検証、調整、デプロイ。

watsonx.aiの詳細はこちら
watsonx.data

今すぐ利用可能 - あらゆるデータを対象に、あらゆる場所でAIワークロードを拡張。

watsonx.dataの詳細はこちら
watsonx.governance

信頼のおける、透明性が高く説明可能なデータとAIの活用を加速します。

 

watsonx.governanceの詳細はこちら

生成AIの倫理

倫理的に設計され責任を持って市場に導入されれば、生成AI機能は今までになかったような機会に対応し、ビジネスと社会の両方に利益をもたらします。

基盤モデル: 機会、リスク、軽減策 IBMの見解を読む
CEOのための生成AIガイド:プラットフォーム、データ、ガバナンス

人間の価値観が、責任あるAIの要です。

AI ガバナンスの緊急性

IBMとData & Trust Allianceが、生成AIの時代におけるガバナンスの必要性についてインサイトを提供します。

基盤モデルに関する政策立案者への提言

リスクとコンテキストに基づいてAI規制にアプローチすることで、基盤モデルによってもたらされるリスクなどの潜在的リスクを軽減できます。

倫理原則に全社規模で取り組む

IBMのAI倫理委員会は、倫理的で、責任のある信頼できるAIをIBM全体で推進するための中心的かつ分野横断的な組織として設立されました。

IBMの倫理ポリシー、実践、コミュニケーション、研究、製品、サービスに関する一元的なガバナンス、レビュー、意思決定プロセスを支えることが、Francesca RossiとChristina Montgomeryが共同議長を務める同委員会の役割です。この委員会は、長年にわたるIBMの原則と倫理的思考を浸透させることで、IBMと全社員が、IBMの価値観に対して説明責任を持てるようにするための働きを担っています。

詳細はこちら

2022年IBM Impactレポートを読む

 

Francesca Rossi

Francescaの詳細はこちら

Christina Montgomery

Christinaの詳細はこちら

IBMの見解

基盤モデルに関する政策立案者への提言

基盤モデルによってもたらされる機会、およびそのリスクと潜在的な軽減策に関するIBMの視点。

詳細はこちら

基盤モデル: 機会、リスク、軽減策

リスクと有望な軽減策について認識することは、責任をもって基盤モデルを構築し使用するための重要な第一歩です。

詳細はこちら

データ駆動型ビジネス・モデルの精密規制

データ駆動型ビジネス・モデルのリスクに関する、政策立案者向けの7つの推奨事項を概説したホワイト・ペーパーです。

詳細はこちら

AIの精密規制

企業は、リスク・ベースのAIガバナンス・ポリシーのフレームワークとターゲット・ポリシーを活用して、信頼できるAIを開発し、運用する必要があります。

詳細はこちら

責任あるニューロテクノロジーの発展

ブレイン・コンピューター・インターフェースのプライバシー・リスクに関する資料をご覧ください。

詳細はこちら

データに対する責任

データを収集、保存、管理、処理する企業には、データの所有権とプライバシー、セキュリティーと信頼性を確保した上で、責任を持ってデータを取り扱う義務があります。

詳細はこちら

顔認識

IBMは、顔認識および解析のためのソフトウェアの提供を中止しました。IBMでは、厳密な規制に基づいて策定されたガバナンスの枠組みが重要であると考えています。

詳細はこちら

AIの偏りを緩和

AIシステムが持つ偏りを最小限に抑えるためのテスト、評価および緩和戦略を強化する、5つの優先事項について説明します。

詳細はこちら

AIシステムを信頼するための学習

スマート・マシンの時代における説明責任、コンプライアンス、倫理に関する草分け的な論文です。

詳細はこちら

AIバイアス監査におけるリスクのあるグループを保護するための基準

AIバイアス監査におけるリスクのあるグループの保護に関するIBMの視点をご覧ください。

詳細はこちら
AI倫理を推進するさまざまなパートナーシップと社内の取り組み 全米商工会議所

人間味のあるオートメーション:AIがどのように政府を変革できるか

詳細はこちら
Notre Dame大学とIBM Tech Ethics Lab

社会が抱える問題にテクノロジーを使用して対処することで生じる倫理的な懸念に取り組んでいます。

詳細はこちら
欧州委員会のExpert Group on AI

信頼できるAIに向けた倫理指針を定義しています。

詳細はこちら
Rome Call for AI Ethics

IBMはバチカンと提携して、AIに関する倫理的ガイドラインを承認しています。

詳細はこちら
AIに関するパートナーシップ

世界からさまざまな声を集めて、AIを有益なものにするベスト・プラクティスを定義します。

詳細はこちら
AIに関する日常的な倫理

AIの設計と開発に倫理を組み込むためのガイドです。

詳細はこちら
未来を見据えた量子技術の推進

確かな未来を見据えて明日に備えます。

詳細はこちら
データと信頼性の連携

責任あるデータとAIの活用を通じて信頼を実現します。

詳細はこちら
コンプライアンスを超えたAI倫理の推進

抽象理論から具体的な実践にAI倫理を進化させる方法を説明します。

レポートを読む

IBM Institute for Business Value

信頼できるAIからビジネス価値を獲得する仕組みをご覧ください。

詳細はこちら