テキストベースのクエリを提供し、学習と生産性を向上させるための知識の世界を開く可能性を想像してみてください。記事、エッセイ、電子メールの執筆支援、要約された研究へのアクセス、アイデアの生成とブレインストーミング、小売や旅行に関するパーソナライズされた推奨事項を備えた動的検索、教育およびトレーニング向けの複雑なトピックの説明など、可能性は広がっています。生成 AIにより、検索は劇的に変化します。複数の記事へのリンクを提供する代わりに、ユーザーは無数のデータから合成された直接の回答を受け取るようになります。それは非常にスマートな機械と会話しているようなものです。
生成 AI は、ユーザーのプロンプトを受け取り、自然言語処理(NLP) を使用してほぼすべての質問に対する回答を生成する、高度な機械学習 アルゴリズムを使用します。膨大なインターネット・データ、大規模な事前トレーニング、強化学習を使用することで、驚くほど人間的なユーザー・トランザクションを可能にします。人間のフィードバックからの強化学習(RLHF)が使用されており、さまざまな文脈や状況に適応することで、時間の経過とともにより正確で自然なものになります。生成AIは現在、マーケティング、カスタマー・サービス、小売、教育などのさまざまなユースケースで分析されています。
ChatGPT は、Transformer と呼ばれるディープラーニング・アーキテクチャを使用しており、NLP 分野における大きな進歩を表しています。OpenAIが主導権を握っている一方で、競争は激化しています。Precedence Researchによると、世界の生成AI市場規模は2022年に10.79米ドルと評価され、2023年から2032年の間に27.02%のCAGRで成長し、2032年には約118.06米ドルに達すると予想されています。これらすべてが非常に印象的ですが、注意点がないわけではありません。
既製の事前構築済み生成モデルを使用する場合には、いくつかの基本的な問題があります。各組織は、価値創造の機会とそれに伴うリスクのバランスを取る必要があります。ビジネスとユースケースにもよりますが、リスク許容度が低ければ、組織は社内で構築するか、または信頼できるパートナーと協力する方が良い結果が得られることに気付くでしょう。
既製の生成 AI モデルで考慮すべき懸念事項は次のとおりです。
今日の生成AIの多くの中核には、Wikipedia、Webサイト、記事、画像、音声ファイルなどのソースからの膨大なデータが含まれています。生成モデルは基礎となるデータのパターンを一致させてコンテンツを作成するため、制御がなければ、偽情報、偏見、オンラインでの嫌がらせを助長させる悪意が存在する可能性があります。このテクノロジーは非常に新しいため、説明責任が欠如し、著作権やロイヤルティなどに関連する評判や規制のリスクにさらされるケースが増えます。
生成モデルの下流の開発者は、モデルがどのように使用され、他の目的に適応されるかについて完全には把握していない場合があります。これにより、誤った仮定や結果が生じる可能性があります。エラーが製品やサービスの選択といった重要度の低い決定に関わる場合には重大ではありませんが、偏見を含む非倫理的な行動への非難や、監査や罰金につながる可能性のある規制遵守の問題につながる可能性のある、ビジネス上大切な決定に影響を与える場合には重大です。
当初は訴訟や規制を懸念し、大規模組織が生成AIを使用する方法は制限されるでしょう。これは、金融サービスやヘルスケアなどの規制の厳しい業種・業務では特に当てはまります。これらの業種・業務では、不完全または不正確なデータやモデルに基づく非倫理的でバイアスのかかった決定が許容される範囲が非常に狭く、有害な影響を及ぼす可能性があります。
最終的には、生成モデルのランドスケープが追いつくでしょうが、企業はコンプライアンス違反、会社の評判の毀損、監査、罰金を回避するために、積極的に規制を遵守する必要があります。
AIの洞察の結果がビジネスにとってよりクリティカルになり、テクノロジーの選択肢が増え続ける中、モデルが透明性の高いプロセスと説明可能な成果によって、責任を持って動作していることを保証する必要があります。AIへの取り組みにガバナンスを積極的に導入する組織は、倫理原則や政府規制を満たす能力を強化しながら、モデルのリスクをより適切に検知して軽減することができます。
その際、信頼できるテクノロジーおよびエンタープライズ機能と連携することが最も重要です。まず、IBM が watsonx.ai を使用した新しい生成 AI モデルで実現している進歩について詳しく学びます。そして watsonx.governance を積極的に導入し、現在および将来に向けて、責任ある透明性の高い説明可能な AI ワークフローを推進してください。
watsonx.governanceは、AIライフサイクルのワークフローの運用、リスクの未然検知と軽減、増大し変化し続ける法律、倫理、規制の要件への準拠を強化するために構築された、強力なガバナンス、リスクおよびコンプライアンス(GRC)ツールキットを提供します。カスタマイズ可能なレポート、ダッシュボード、コラボレーション・ツールにより、分散したチームが連携し、利害関係者の効率性、生産性、説明責任を向上させることができます。モデルのメタデータとファクトを自動的にキャプチャーすることで、透明性の高い説明可能なモデルの結果を導き出しながら、監査をサポートできます。
リスクとコンプライアンスの管理、監視、レポート作成を支援する統合ガバナンス、リスク、コンプライアンス (GRC) ソリューションであるIBM OpenPagesを活用して、組織全体のガバナンスを加速し、リスク管理を簡素化します。watsonx.governanceがどのように責任ある、透明性のある、説明可能なAIワークフローを推進しているかについて、また今後どのような機能強化が行われるかについて、詳しくはこちらをご覧ください。