信頼できるAIのためのツール

仕事中のソフトウェア開発者

ChatGPTで学生の不正行為を摘発する新しいツールが開発されました。99.9%効果的です。しかし、OpenAI社は倫理上の懸念にとらわれることから、これをリリースしていません。

これは、AIが直面している大きな課題の1つの例にすぎません。テクノロジーが倫理的に使用されていることを確認するためにテクノロジーを監視するにはどうすればよいでしょうか。

ここ数年、AI業界の大手企業は、責任を持って自社のテクノロジーを使用することを強く求めてきました。また、AIを倫理的に使用することは、企業が行うべき正しいことではなく、消費者も望んでいることです。実際、IBM® Global AI Adoption Indexによると、企業の86%は、倫理的なガイドラインを採用し、データとAIモデルの使用方法を明確にしている企業を顧客は好むと考えています。

「私たちは皆、企業がAIを倫理的に使用することを認識していることを望んでいます」とIBMの信頼できるAIグローバルリーダーであるPhaedra Boinodirisは述べています。「より大きな疑問は、企業やその他の組織が導入したAIからの安全で責任ある成果に対して責任を負うことがなぜ重要なのかということです。」

AI倫理ツールは役に立つでしょうか。ツール自体にバイアスがあるでしょうか。ここでは、最新の研究結果を簡単にご紹介します。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

ディープフェイク検出器

ディープフェイク詐欺の試みは、2022年から2023年にかけて3000%増加しており、より精巧になっています。2月には、香港の多国籍企業の財務担当者が、同社のCFOを含む複数のディープフェイク・キャラクターとのビデオ電話会議を作成した犯罪者に騙され、2500万米ドルを支払わされました。

5月、OpenAI社は独自のディープフェイク検出ツールを偽情報研究者に公開したと発表した。このツールはDALL-E 3で作成された画像の98.8%を検出できました。OpenAI社はまた、Google社やAdobe社らと共に、メディアコンテンツの歴史と出典を認証する標準を開発する業種・業務連合(C2PA)の運営委員会に参加しました。

その基準が設定されるまで、企業はギャップを埋められると期待しているツールを構築しています。8月にMcAfee社は「McAfee Deepfake Detector」を発表しました。このツールは、ディープ・ニューラル・ネットワーク・モデルを使用して、ブラウザーで再生されている動画内の偽のAI音声を検出します。2022年、インテルはビデオピクセルの血流を分析し、96%の精度で人間とディープフェイクを区別するFakeCatcherを発表しました。そして、同様のツールは複数開発されています。この分野の著名なスタートアップ企業には、ニューヨークのReality DefenderイスラエルのスタートアップClarityエストニアを拠点とするSentinelなどがあります。これらはすべて、AIを使用してさまざまな種類のディープフェイクのパターンを検出するスキャン・ツールを提供しています。

ディープフェイク検知技術は急速に進化しているため、潜在的なアルゴリズム・バイアスを念頭に置くことが重要です。バッファロー大学のコンピューター科学者でディープフェイク専門家のSiwei Lyu氏と彼のチームは、バイアスを最小限に抑えるために設計された初のディープフェイク検出アルゴリズムを開発しました。UBの研究者は、検知アルゴリズムで偽物と識別された何百もの顔の写真コラージュを作成しました。その結果、偽物では全体的に肌の色が濃いことがわかりました。

「ディープフェイクは過小評価されている少数派グループを攻撃するために使用される可能性があるため、検知テクノロジーが過小評価されないようにすることが重要です」とLyu氏は言います。ディープフェイク検知の将来とは。「ディープフェイクの基盤となる生成AIテクノロジーは、今後も間違いなく次に進むので、ディープフェイクの数、品質、形態は増加するでしょう。将来の[検出]テクノロジーには、悪用の可能性を減らすためのより多くの制限策が備えられると予想しています。」

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

アンチ顔認識(AFR)テクノロジー

顔認識システムは、ユーザーの身元を認証する便利な方法として、ますます一般的になってきています。このシステムは、人種的偏見からデータ・プライバシーに至るまで、長い間倫理的問題を抱えてきました。AI倫理シンクタンク「Artificiality」の共同創設者であるHelen Edwards氏は、「一部のバイアスは交差的であり、何層もの偏見を生じさせている」と考察します。

5月、オーストラリアの顔認識スタートアップ企業であるOutabox社のデータが侵害され、100万人以上のユーザーの生体認証データが公開されました。今年初め、AndroidおよびiOSデバイスを狙ったトロイの木馬「GoldPickAxe」が、銀行口座に侵入するために顔データを盗み取ろうとしているのが発見されました。

顔生体認証データを保護するための有望なアプローチは、人間の目では認識できないが、認識システムを混乱させる方法でデータをスクランブルすることです。これを行うための最初のツールの1つは、シカゴ大学で開発されたプロジェクトであるFawkesでした。Guy Fawkesの仮面にちなんで名付けられたこのプログラムは、ピクセルを微妙に変化させることで写真を隠蔽するよう設計されています。プロジェクトのwebサイトより無料でダウンロードできます。

最近では、浙江大学のUSSLABの研究者が、カメラ・センサー・レベルでAFRを実現することを目指したCamProの先駆者となりました。CamProは、活動認識などの他のアプリケーションを妨げることなく、顔識別の精度を0.3%に削減する画像を生成します。

AI書き込み検出器

AIによって生成された文章を特定することは、企業や教育機関にとって次に直面する課題です。リーディング大学のブラインド・テストでは、5つの異なる心理学モジュール試験では、ChatGPTが書いた解答と実際の学生が書いた解答が混在していました。6月の調査では、ChatGPT試験の解答の94%が試験の採点者によって見落とされていたことが判明しました。また、AIが生成した解答は、実際の学生の解答よりも平均で0.5グレード高い結果となりました。

この問題に取り組むために、さまざまなAI書き込み検出器が市場に大量に投入され、繰り返しや完璧な文法など、AIが生成するテキストの共通の特徴を求めています。しかし、専門家は、まだ信頼性が低いことを警告し、しばしばバイアスを示します。

昨年スタンフォード大学で行われた研究によると、AI検出器は英語を母国語としない人の文章に平均61.3%のフラグを立てましたが、英語を母国語とする人の文章を評価した場合は、エラーがはるかに少なくなっていました。

AIが生成した文章を自分たちのもののように使用することは、不正行為であるだけでなく、場合によっては盗作にもなり、重大な法的影響を伴うことがあります。このような懸念から、一部の企業ではAI書き込み検出器を使用してライターの文章をテストしています。このため、企業がAIが作成した文章を使用したとして間違ってライターを非難し、ライターの評判やキャリアを傷つけることになりました。

LLMバイアス検出器

データ・セットには、作成者の無意識のバイアスが含まれることがよくあります。そのため、このデータでトレーニングを行うLLMでは、アルゴリズムのバイアスが根強い問題となっています。

ある例では、コーネル大学の研究者がChatGPTとAlpacaを使用して男性と女性向けの推薦状を生成しましたが、その推薦状は男性に有利な大きな偏りを示しました。「ケリーは温かみのある人物です」や「ジョセフはロールモデルである」などの生成された言葉は、これらのバイアスが職場の女性にどのような影響を与えるかを示しました。

研究者たちは、バイアスにフラグを立てて軽減する方法を見つけることに取り組んでいます。イリノイ大学アーバナ・シャンペーン校のチームはQuaCer-Bを開発しました。これは、与えられたディストリビューションからサンプリングされたプロンプトに対して証明可能なLLMバイアス指標を生成し、APIおよびオープンソースのLLMの両方で利用可能です。

「AI業界は現在、小規模なベンチマーク入力でモデルをテストすることにより、モデルの安全性と信頼性を評価することに依存しています」と、QuaCer-Bを支える主任研究者の1人であるUIUCのGagandeep Singh教授は述べています。「ただし、ベンチマークに基づいて安全に生成することは、LLMが生成したコンテンツが、現実世界で未見の多様なシナリオを処理する際に倫理的であることを保証するものではありません。QuaCer-Bを使用することで、LLM開発者は、実際のデプロイメントに対するモデルの適合性について情報に基づいた意思決定を行うことができ、またモデルを改善するための障害の原因も特定することができます。

AIが次に進むにつれて、新しい倫理的問題もそれに伴って進化し続けるでしょう。また、AI倫理の専門家は、技術の非倫理的な使用にフラグを立て、監視し、防止するためのツールは出発点ですが、これをワンストップのソリューションとは考えていません。

「難しいのは、適切なツールを購入しないことです」とBoinodirisは付け加えます。「責任を持ってAIをキュレートすることは、総合的なアプローチを必要とする社会技術的な課題です。そして、その方程式の最も困難な部分は人です。」

「思慮深い規制と執行に加えて、倫理的なAIの鍵は市場投入後の監査であり、性能を継続的に監視し、リスクを最小限に抑えることです」と、適用倫理と責任あるAIに関する国連およびEUの助言者、Gemma Galdón-Clavell氏は説明します。「自動車業界について考えてみましょう。警告ライトや近接センサーはドライバーが衝突を回避するのに役立ちますが、一般道路を可能な限り安全に保つためには、シートベルト、エアバッグ、定期的な検査が必要です。」

 
関連ソリューション
IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・ソリューション

AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。

AIガバナンス・ソリューションの詳細はこちら
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモの予約