ヒューマン・イン・ザ・ループ(HITL)とは、人間が自動化システムの操作、監督、意思決定に積極的に関与するシステムやプロセスを指します。AIの文脈では、HITLとは、人間がAIのワークフローのいずれかの段階に関与し、正確性、安全性、説明責任、倫理的意思決定を確保することを意味します。
機械学習(ML)は近年めざましい進歩を遂げていますが、最先端のディープラーニングモデルであっても、トレーニング・データから外れたあいまいさ、バイアス、または特殊なケースに対応するのは難しいことがあります。人間からのフィードバックは、モデルの改善に役立つとともに、AIシステムのトレーニングが不十分な場合のセーフガードとしても機能します。HITLは、人間の洞察を「ループ」、すなわちAIシステムと人間の間で継続的に行われる対話とフィードバックのサイクルに組み込みます。
HITLの目的は、AIシステムが自動化の効率性を達成しつつも、人間による監督がもたらす精度、微妙な判断、倫理的推論を犠牲にしないようにすることです。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
ヒューマン・イン・ザ・ループ機械学習では、人間がAIワークフローに対して監督や入力を提供することができます。ヒューマン・イン・ザ・ループ機械学習の主なメリットは以下のとおりです。
精度と信頼性
倫理的な意思決定と説明責任
透明性と説明可能性
ワークフローを自動化する目的は、人間が管理に費やす時間と労力を最小限に抑えることです。しかし、自動化されたワークフローは、さまざまな形で問題を起こす可能性があります。モデルが、トレーニングによって対応できるよう準備されていない特殊なケースに直面することもあります。HITLアプローチでは、人間が誤った入力を修正できるため、モデルは時間の経過とともに改善する機会を得られます。人間は、自身の専門知識を活用して異常な挙動を特定でき、その知見をモデルの理解に組み込むことができます。
重要度の高いアプリケーションでは、人間がアラート、レビュー、フェールセーフを設定することで、自律的な意思決定が適切に検証されるように支援できます。人間は偏ったり誤解を招く出力を検出し、望ましくない下流の結果を防ぐことができます。継続的な人間によるフィードバックは、AIモデルが変化する環境に適応し続けるのに役立ちます。
機械学習においてバイアスは継続的な課題であり、人間の知性も時に偏りがあることが知られていますが、ヒューマン・イン・ザ・ループ機械学習によって人間が介入することで、データやアルゴリズム自体に組み込まれたバイアスを特定・軽減でき、AIの出力の公平性を高めることができます。
人間がAIの出力を承認したり、上書きしたりする場合、責任はモデルや開発者だけに帰属するわけではありません。
モデルの能力を超える倫理的判断が必要な意思決定も存在します。例えば、アルゴリズムによる採用プラットフォームの推薦は、従来疎外されてきた特定のグループに不利に働く可能性があります。機械学習モデルは近年、判断における微妙なニュアンスを取り入れる能力で大きな進歩を遂げていますが、それでもなお、人間による監督が最適な場合があります。HITLにより、規範や文化的文脈、倫理的グレーゾーンをより深く理解している人間が、複雑なジレンマが生じた場合に自動化された出力を一時停止したり、上書きしたりすることが可能になります。
ヒューマン・イン・ザ・ループのアプローチは、意思決定がなぜ覆されたのかを記録し、透明性や外部レビューを支援する監査証跡を提供できます。この記録により、より堅牢な法的防御、コンプライアンス監査、社内の説明責任レビューが可能になります。
一部のAI規制では、一定レベルのヒューマン・イン・ザ・ループが義務付けられています。例えば、EU AI規則の第14条では、「高リスクAIシステムは、使用中に自然人が効果的に監督できるよう、適切なヒューマンとマシン間のインターフェース・ツールを含めた設計・開発が行われるものとする」と規定されています。
規則によると、この監督は、手動操作、介入、上書き、リアルタイム監視などの方法を通じて、健康・安全・基本的権利へのリスクを防止または最小化することを目的としています。関与する人間は、そのシステムの能力と限界を理解し、適切な使用方法の訓練を受け、必要に応じて介入する権限を持つ「有資格者」でなければなりません。この監督は、危害の回避と適切な機能の維持を促進することを目的としています。
HITLは、エラーが害を及ぼす前に検出することで安全網として機能し、特に医療や金融のような高リスクまたは規制のある分野で有効です。HITLの手法は、AIの出力の理由が不明瞭な「ブラックボックス」効果の緩和に役立ちます。開発および展開プロセスに人間による監督と管理を組み込むことで、技術的、倫理的、法的、運用上のリスクを問わず、実務者がリスクを特定し軽減するのに役立ちます。
ヒューマン・イン・ザ・ループ機械学習は、機械学習システムの性能向上に有効な手法ですが、欠点がないわけではありません。
拡張性とコスト
ヒューマン・エラーと不整合
プライバシーとセキュリティー
人間によるアノテーションは、特に大規模データセットや反復的なフィードバック・ループの場合、時間がかかり費用も高くなります。データ量やシステムの複雑さが増すと、人間に依存することがボトルネックになる場合があります。例えば、コンピューター・ビジョン・モデル向けに数百万枚の画像を高精度でラベル付けするには、数千時間に及ぶ人手作業が必要になる場合があります。医療や法律のような特定分野では、さらに高額な専門家をループに参加させる必要がある場合があります。医療画像スキャンで腫瘍のラベル付けを誤ると、重大な誤診につながる可能性があります。
人間はより高い精度を提供できる一方で、ある意味では機械よりもバイアスや誤りが生じやすい場合があります。人間はデータやタスクを異なる解釈で捉える場合があり、特に明確な正解や不正解が存在しない分野ではその傾向が強くなります。人間のアノテーターは、人間であるがゆえに、データをラベリングする際に疲れたり、気が散ったり、混乱したりすることがあります。また、主観的な問題に対してさまざまな見解を持つため、ラベリングに一貫性が欠けることがあります。
人間を内部レビュー・プロセスに関与させるとプライバシー上の懸念が生じる可能性があり、善意のアノテーターであっても、フィードバックの過程でアクセスした機密データを意図せず漏えいまたは誤用してしまう場合があります。
トレーニングの前、中、後に的確で高品質な人間のフィードバックを導入することで、トレーニングを加速させ、機械学習モデルをより堅牢で解釈可能にし、実世界のニーズに適合させるフィードバック・ループを構築できます。人間の関与をAIワークフローに組み込む方法には、次のようなものがあります。
教師あり学習
RLHF
能動学習
教師あり学習アプリケーションでは、データサイエンティストがデータに正しくラベルを付与する必要があります。このデータ・アノテーションによってデータセットが作成され、それが機械学習アルゴリズムのトレーニングに使用されます。これは、人間の入力が不可欠かつ最優先となるワークフローです。
例えば、自然言語処理のコンテキストにおける教師ありアプローチでは、人間がテキストを「スパム」または「スパムではない」とラベリングし、その区別を機械に学習させる場合があります。コンピューター・ビジョンのユースケースでは、教師ありアプローチとして、人間が一連の画像に「自動車」「バス」「オートバイ」とラベリングし、モデルが物体検出タスクを実行できるようにする場合があります。
別の例として、人間のフィードバックによる強化学習(RLHF)は、人間からの直接的なフィードバックでトレーニングされた「報酬モデル」を利用し、それを通じて強化学習によって人工知能エージェントの性能を最適化します。RLHFは、目標が複雑、不明確、または定義しにくいタスクに特に適しています。
能動学習では、モデルが不確実または信頼度の低い予測を特定し、必要な箇所にのみ人間の入力を求めます。これにより、ラベリング作業が最も難しい、あるいはあいまいな例に集中され、より迅速かつ正確なトレーニングが可能になります。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。