生成AIブームは、話題沸騰のチャットボットから数十億ドル規模の企業価値評価まで、あらゆるものを生み出しました。しかしその基盤となる倫理観は、依然として懸念されるほど脆弱なままです。
わずか1か月の間に、 OpenAIは連邦裁判所で商標訴訟で勝訴・敗訴を繰り返し、Anthropicはユーザーが文章が曖昧で誤解を招くと批判した後、自社のClaudeモデルで生成された ブログを静かに撤回しました 。AIシステムがさまざまな業種・業務やインターフェースに拡張されるにつれて、責任、安全性、整合性に関する疑問はもはや理論的なものではなくなります。これらは運用上の課題となっているのです。
能力と信頼性の間のこの隔たりは、AI界隈で高まる倫理的課題の核心です。倫理は通常、構造的な層ではなく、上乗せされたものとして扱われています。しかし、IBMでは、一部のチームは、システムのトレーニング、マーケティング、デプロイメントに倫理的制約を直接組み込むことで、このパターンを逆転させようとしています。
オープンソースツールと製品伝道活動にルーツを持つ開発者コミュニティのベテランであるPJ Hagertyも、この仕事に携わっている 1 人です。IBMのAIアドボカシー・リードとしての仕事は、開発者がAIをより効果的に、責任を持って使用できるように支援することです。しかし、実際には、これは、誇大広告に対抗し、限界を明確にし、現実的な期待を設定するなど、より広範なことを意味します。「私たちは知性を作っているのではありません」と彼は私に言いました。「道具を作っているのです。そのように行動しましょう。」
今日、AIで注目されているのは、アウトプット、つまりモデルが何を生成するか、どれだけ正確か、どれだけ説得力があるか、どれだけベンチマークに対して優れているか、に集中しています。しかしHagertyにとって、真の倫理的緊張はそれ以前の基盤モデルのレベルから始まります。これは最新のAIの生のインフラストラクチャーであり、Webからかき集めた膨大なデータセットでトレーニングされた機械学習の基盤層です。これは、ChatGPT や Claude のような大規模言語モデル(LLM) の原動力です。
「基盤こそが重要な場所です」とHagerty氏は言います。「システムが最初に学ぶのはそこであり、もしそこがガラクタでいっぱいなら、そのガラクタは消えません。」
これらの基盤モデルは汎用性を目的に設計されています。それこそが強力であり、危険でもあるのだとHagertyは言います。特定のタスクや制約を念頭に置いて構築されていないため、貴重な意味構造から有害なインターネットごみまで、あらゆるものを吸収する傾向があります。そして、一度トレーニングされたモデルを監査するのは困難です。モデルの作成者でさえ、モデルが何を知っているか、与えられたプロンプトにどのように応答するかについて確信が持てないことはよくあります。
Hagertyは、これを超高層ビルで欠陥のあるコンクリート基礎を作ることに例えました。最初から配合が間違っていれば、ひび割れはすぐには見えないかもしれません。しかし、時間が経つにつれて、構造は不安定になります。AIにおいては、システムがデプロイされた後の脆弱な動作、意図しないバイアス、または壊滅的な誤用がこれに相当します。初期段階で慎重に形成しないと、モデルはトレーニング中に吸収したリスクを下流のすべてのアプリケーションに持ち込むことになります。
こうした懸念を抱いているのは彼だけではありません。スタンフォード大学のCenter for Research on Foundation Models (CRFM)の研究者たちは、大規模トレーニングの新たなリスク、例えばバイアス伝播、知識のハルシネーション、データ汚染、失敗の特定の困難さについて繰り返し警告しています。これらの問題は軽減することはできますが、排除することはできません。そのため、データ、キュレーション、フィルタリング、ガバナンスなどの初期の設計選択がより重要になります。
Hagerty の見解では、意味のある進展に対する最大の倫理的障壁の一つは、企業が「AI」と言うときの意味が非常に曖昧であることです。5つのプロダクトチームに「AI搭載」とは何か尋ねれば、おそらく5つの異なる答えが返ってくるでしょう。Hagerty は、この定義の曖昧さが現代の根本的な倫理的欠陥の 1 つであると考えています。
「ほとんどの場合、人々がAIと言えば、自動化を意味します。あるいは決定木。あるいはif/else文かもしれません」と彼は言います。
用語の曖昧さは単なる学問的な言い争いではありません。企業が決定論的ソフトウェアを知的推論として提示すると、ユーザーはそれを信頼する傾向があります。スタートアップ企業が基本的な検索およびフィルターツールを生成モデルとして売り込むとき、投資家たちは幻想に資金を投じています。Hagertyはこれを「ハイプ・リーケージ(Hype Leakage)」と呼び、混乱と評判の低下の増大する原因であると見ています。
金融や医療などの規制の厳しい業界では、結果がより深刻になる可能性があります。ユーザーが、システムが実際よりも深い知識を持っていると誤解した場合、人間が行うべき決定を委任してしまう可能性があります。ツールとエージェントの境界線が曖昧になり、それに伴い説明責任も曖昧になります。
この問題は、無駄な労力にもつながります。Hagertyは、時系列予測におけるLLMの誤用に関する研究を引き合いに出しています。時系列予測とは、過去のデータに基づいて将来の値を予測するために使われる統計的手法です。しかし、一部の企業は、目新しさを追い求めたり、革新性を示したりするために、とにかく LLM を使用しようとしています。
「人々はGPUを燃やしてまで間違った答えを得ています」と彼は言います。「さらに悪いことに、それを進歩と呼んでいるのです。」
倫理的問題は非効率性だけではありません。虚偽表示も問題です。チームは、ほとんど理解していないテクノロジーを中心に製品を構築し、自社の機能を誇張するマーケティングを追加し、使用しているものを評価する手段を持たないユーザーに展開しています。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
AIに対する多くの国民の不安は、大量失業の可能性に集中しています。AIは弁護士、教師、プログラマー、作家に取って代わるでしょうか?Hagertyはこの質問は時期尚早であり、また質問の組み立て方も不適切だと考えています。
「こうしたツールのほとんどは、人の代わりにはなりません」と彼は言います。「彼らはタスクを置き換えており、そのタスクは本当に退屈なものだけです」
彼は、watsonx Code Assistantのようなコード・アシスタントや、CursorやAmazonのCodeWhispererのようなツールを挙げました。これらのシステムは、アプリケーション全体をゼロから作成するわけではありません。予測可能なコード・ブロックを記入し、定型業務を提案し、反復的なロジックを記述するオーバーヘッドを削減します。得られるのは創造性ではなく、スピードです。
Hagertyはこれが純粋な利益だと信じています。若手開発者はより早く始めることができます。シニアエンジニアは構文ではなくアーキテクチャに集中できます。参入障壁が低く、保守の手間も軽減されます。しかし、これを解決した問題として考えることは避けるべきだと警告しています。
「これらのモデルはオープンウェブ上で訓練されています」と彼は言います。「そして、これらのデータセットには、私のデータを含め、多くのゴミが含まれています。」
そのゴミには、安全でないコード、非推奨のプラクティス、コンテキスト固有のハッキングが含まれています。また、盗作、ライセンス違反、生成されたアウトプットに再発する可能性のあるゴーストバグも含まれます。そのため、モデルは時間を節約するかもしれませんが、削減するはずだった問題を再導入するリスクもあります。拡大されるのは品質ではなく、モデルがこれまでに経験したあらゆるものなのです。
Hagertyは、この分野で人間によるレビューが引き続き不可欠であると考えています。ツールは役立ちますが、説明責任は依然として開発者にあります。
AIの安全性に関する最も悪名高い失敗の1つは、10年近く前にTayチャットボットがTwitterで公開されたときに起こりました。このアカウントは数時間のうちにハイジャックされ、不快なコンテンツや陰謀論を投稿するようになりました。制作者はそれをオフラインにして謝罪しました。しかし、このエピソードは、開発者がガードレールのないシステムをリリースすると何が起こるかを示す、後世に残る象徴となりました。
今日では、ほとんどの企業は、生成モデルをモデレーション層でラップすることを学んでいます。フィルター、分類子、プロンプトサニタイザー、強化チューニングは役に立ちますが、完璧ではありません。Hagertyによると、こうした対策は、プロンプトインジェクションや悪意のある再利用などのより深刻な脆弱性よりも、言葉遣いや卑猥な表現などの表面的な問題に焦点を当てる傾向があるといいます。むしろ、安全性はより広範な設計の問題だと考えています。「このモデルは悪用されるのか、文脈を無視されて受け取られるのでしょうか?アウトプットは、信頼されるべきでないときに信頼されるのでしょうか?」と彼は言います。「これらの質問についてよく考えていないのであれば、まだ不十分です。本番環境に対応する準備ができていません。」
Hagertyは、画像ジェネレーター、ビデオ編集、音声クローンなど、メディアを操作または生成するツールの例を挙げました。こうしたシステムはコンテンツを生み出すだけでなく、認識も変えます。彼は、アウトプットが十分に現実的になると、記憶、判断力、帰属に影響を及ぼし始めるといいます。
このような場合、安全性は技術的な正確さではなく、状況に応じた正確さが重要になります。インターフェイスを離れると、このアウトプットはどうなりますか?誰が見ますか?彼らは何を想定しているのでしょうか?
こうした質問には、答えがひとつだけになることはほとんどありません。しかし、これらを完全に無視するのは間違いだとHagertyは言います。
急速に変化するテクノロジー環境では、ガバナンスが足かせのように感じられることがあります。リリースが遅くなり、事務処理が増え、曖昧さが生じます。しかしHagertyにとって、この見解は本質を見誤っています。
「テストされていないコードを出荷することはありません」と彼は言います。「なぜ監査を受けずにモデルを出荷するのでしょうか?」
彼は、IBM のwatsonx.governanceのようなツールをオプションの追加機能ではなく、必要なインフラストラクチャーとみなしています。これらのシステムにより、チームはトレーニング・データを追跡し、モデルの変更を監視し、長期にわたる逸脱にフラグを立てることができます。これらは組織が新たな規制に対応するのを支援するだけでなく、何よりも組織の記憶を築くことにもつながります。チームは、何をどのように、なぜ行ったかを把握できます。
これはコンプライアンスだけでなく品質にとっても重要です。来月モデルのパフォーマンスが異なる場合は、何が変わったのかを知る必要があります。本番環境でハルシネーションが始まった場合は、問題を発生源まで追跡する方法が必要です。優れたガバナンスは、AI におけるバージョン管理に相当します。
そしてそれはモデルの域を超えています。Hagertyは、ゼロからの再トレーニングを行わずに問題のあるデータや行動を外科的に除去する能力である「マシン・アンラーニング」への関心が高まっていると指摘しています。このアプローチは、まだ初期段階ではありますが、より広範な考え方の変化を反映しています。目標は、よりスマートなモデルを構築することではなく、適応し、修正し、説明責任を負えるモデルを構築することです。
どれも完璧である必要はありません。Hagertyは、バイアスが残り、安全性が低下し、ツールが誤用されることをすぐに認めています。しかし、許容できる失敗と過失による損害の違いは、プロセスによって決まります。
「主張しすぎないこと。過信しないこと。早い段階でより良い質問をすることです」と彼は言います。
また、チェックリストを立ち上げるだけでなく、倫理レビューを計画サイクルに組み込むことを推奨しています。明らかな問題を検出するには、IBM のAI Fairness 360 、 Granite Guardian 、ARX などのツールを使用します。ユーザーよりも先にエッジケースを見つけるためにレッドチームテストを実行します。そして何よりも、軌道修正が容易なシステムを構築することです。
彼は、この仕事は害を止めることではなく、影響力を形作ることだと主張します。
「完璧なシステムを構築することはできません」と彼は言います。「しかし、より遅く失敗し、理解できる形で失敗するシステムは構築できます。」
この見解では、倫理は制約ではなく設計原則です。これは、より優れたソフトウェア、より予測可能なシステム、より明確な期待、そして最終的にはより多くの価値を実現する方法です。
何が希望を与えるのかと尋ねられたHagertyは、調整、AGI、政策フレームワークについては触れず、コードアシスタントについて話しました。
「これは頼りになります」と彼は言います。「摩擦を減らし、自分にできる以上のことをするふりをしません。それが模範とするべき姿です。」
彼はAIを退屈なものにしたいと考えています。役に立ち、狭い。その機能とその仕組みについて正直に説明します。野心を制限することを意味するのではなく、野心を明確にすることを意味します。驚きではなく信頼性を重視して構築します。デモだけでなくデプロイメントでも適切に動作するシステムを設計します。
AIがなくなることはありません。ツールは進化し続けますが、期待も進化します。そしてHagertyは、成功するチームは技術力と倫理的規律を一致させたチームになると考えています。なぜならそれが効果を発揮するからです。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
AIガバナンスが、どのように従業員のAIに対する信頼向上や、導入とイノベーションの加速、顧客からの信頼向上に役立つかをご覧ください。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。