人工知能(AI)は、AIライフサイクル全体にわたる意思決定に対する人間の監視、代理権、説明責任を含め、バランスを取るように設計する必要があります。IBMの最初の「信頼と透明性の原則」は、AIの目的は人間の知性を補強することだと述べています。拡張された人間の知能とは、AIの使用によって人間の知能が独立して動作したり、それに取って代わったりするのではなく、人間の知能を強化することを意味します。これらすべては、AIシステムが人間として扱われるのではなく、人間の知性と可能性を強化するサポート・メカニズムとして見なされるべきであることを意味します。
人間の知能を強化するAIは、AIシステムにサポートされているとしても、意思決定に対する人間の責任を維持します。したがって、人間はAIシステムと対話することで、雑務を回避することなく、スキルを向上させる必要があります。AIテクノロジーへの包括的かつ公平なアクセスと包括的な従業員トレーニングと潜在的な再教育をサポートすることで、IBMの信頼できるAIの柱の原則をさらにサポートし、公平性、透明性、説明可能性、堅牢性、プライバシーに支えられたAI駆動型経済への参加を実現します。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
人間の知能を拡張するという原則を実践するために、次のベスト・プラクティスをお勧めします。
人間の監視、研究、AIの意思決定コーディネーション、サンプル・ユースケース、性能に関する基準や規制の観点の詳細については、以下の「ヒューマン・インテリジェンス(人間の知能)の拡張」をご覧ください。