これまでまでに、多くの企業が生成AIの実験において大きな進歩を遂げています。このような企業は、人工知能がどのように反復作業を自動化できるかを発見し、ワークフローに適合するかを特定しました。しかし、調査から本番稼働への移行には、AI連携の一般的な課題に対処し、いくつかの特殊な要因を考慮する必要があります。
ソフトウェア開発のスタートアップ企業として、GitHub CopilotのようなAI搭載コード生成ツールを試用したことがあるかもしれません 。あるいは、OpenAIのChatGPTのようなチャットボットを試して、ポッドキャストや動画のスクリプトを作成したり、コンテンツ制作代理店としてソーシャル・メディアの投稿を作成したりしたことがあるでしょう。しかし、貴社はさらに一歩進んで、生成AIをビジネスに組み入れる準備ができています。
目標と期待される成果の概要を説明し、 AI統合戦略を作成し、生成AI統合サービスについても検討しました。単独で進める場合でも、チームの支援を受ける場合でも、統合の過程に影響を与える可能性のある、小さいながらも重要な要素を確認してみましょう。途中で役立つテクニックを1つか2つ見つけることができるかもしれません。
高品質なデータは高性能な生成AIモデルを生み出すことができます。また、データ監査、データ統合、データ準備は、生成AI統合プロセスの典型的な側面ですが、関連コンテキストを追加することで、データ品質をさらに高め、よりコンテキストを意識したアウトプットを得ることができます。
コンテキストを含める1つの方法は、自社の専門分野や現実世界のタスクやユースケースに特化した小規模なデータ・セットで、事前にトレーニングしたモデルを ファイン・チューニングすることです。これにより、モデルをゼロからトレーニングすることに伴う大幅な時間、労力、コストを節約できます。
一方、検索拡張生成(RAG)とモデル・コンテキスト・プロトコル(MCP)はどちらも、リアルタイムでコンテキストを組み込みます。RAGシステムは外部のナレッジベースからデータを取得し、取得したデータから強化されたコンテキストでプロンプトを拡張し、応答を生成します。MCPも同様に機能しますが、RAGのように生成前にコンテキストを追加するのではなく、MCPは生成中にコンテキストを融合します。これは、AIアプリケーションが外部データ・ソース、サービス、ツールに接続するための標準化されたレイヤーとして機能し、リアルタイム・データを活用します。
生成AIソリューションと既存システムの互換性を確認しなければ、統合プロセスは完了しません。たとえば、貴社のAI開発チームはすでに ミドルウェアのようなコネクターを開発し、選んだ大規模言語モデル(LLM)を CRMやERPソフトウェアと連携させているかもしれません。
ただし、特にビジネス・プロセスの自動化やワークフローの自動化における複雑なステップでは、単一のLLMでは不十分な場合があります。たとえば、人事部門は、言語モデルの自然言語処理(NLP)機能を活用して、定期的な従業員調査からのフィードバックを分析することを検討するかもしれません。小規模言語モデル(SLM)は、アンケートを匿名化して識別情報を削除したり、重要なテーマを要約したりといった単純なタスクに取り組むことができます。より強力なLLMは、センチメント分析や意思決定に役立つ実行可能な知見の生成など、より複雑で微妙なタスクを処理できます。
このようなシナリオでは、LLMオーケストレーションにより複数の言語モデルの管理を効率化できます。LLMオーケストレーション・フレームワークは、タスクを適切なモデルに割り当て、モデル間の相互作用を調整することで、効率性と有効性の両方を向上させるのに役立ちます。
モデルの選択、その動作のテスト、性能の評価は、生成AIソリューションを統合する上で極めて重要な部分です。ただし、モデルをホストする方法やモデルにアクセスする方法も重要であり、いくつかの選択肢があります。
セルフホスト型:予算、リソース、チームがあれば、オンプレミスまたはプライベートクラウド上でAIモデルをホストすることができます。データを完全に制御でき、必要に応じてモデルをカスタマイズできます。セルフホスティングは、金融や医療など、データ・プライバシーとデータ・セキュリティーの要件が厳しい分野に適しています。
サービス型モデル(MaaS):機械学習(ML)モデルはクラウド上でホストされ、APIを通じてアクセスできます。特にLLMは、LLM APIを使用して利用可能になります。MaaSでは、独自のAIインフラストラクチャーを管理する必要がなく、迅速な統合が可能であり、従量課金制の料金システムにより柔軟性が実現します。
サブスクリプション・プラン:サブスクリプション・プランを通じて、クラウドベースのプラットフォーム上の生成AIツールとアプリにアクセスします。一部のプロバイダーは、エンタープライズ・グレードのセキュリティーおよびコンプライアンス機能を備えたプランをビジネス向けにカスタマイズし、専用のカスタマー・サポート、機能、サービス・レベル契約を提供しています。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
モデルの選択と評価の次のステップとしてモデルの導入が続きます。ただし、生成AI駆動型ワークロードでは、DevOpsが提供するものよりも具体的なアプローチが必要になる場合があります。
ここで MLOpsやLLMOpsが登場し、生成AIの統合プロセスがよりスムーズになります。MLOpsはDevOpsの原則を基に構築し、 機械学習パイプライン を既存の CI/CDパイプラインに組み込むことで、継続的なモデル統合、展開、監視、および可観測性、改良、 ガバナンスを可能にします。LLMOpsはMLOpsの範囲内ですが、LLMのライフサイクルと要件、たとえば、LLMを使用したファイン・チューニングや評価などにより適しています。
ユーザー体験(UX)は生成AI統合の重要な要素です。考え抜かれた、直感的で使いやすいインターフェースは、組織内での生成AIの導入促進するのに役立ちます。
UXを重視した以下のヒントを検討してください。
特に生成AIのプロトタイプを構築する場合には、AI実装プロセスの開始時からUXデザイナーを参加させます。
マルチモーダルAIモデルの場合は、チャット・ウィンドウやプロンプト・バーだけでなく、音声や画像などのテキスト以外のインプット・タイプをサポートするための余地を作ります。
特に複数ステップのワークフローや処理時間の長いタスクの場合、タスクの進捗状況をユーザーに知らせるインジケーターを導入してください。
さまざまなレベルのユーザーの専門知識に対応するために、ガイド付きプロンプトまたはテンプレートを実装します。
ユーザーの設定と以前のコンテキストを保持するメカニズムを提供します。
生成AIアプリケーションの特徴や機能についてユーザー向けに説明する対話式ガイドやチュートリアルを作成しましょう。
統合プロセスには、現在のITエコシステムを評価することが不可欠です。しかし、評価は現在だけでなく、将来を最優先にして行わなければなりません。企業は、自社のインフラストラクチャーが、 AIシステムの計算需要と、自社の進化するビジネス・ニーズの両方に対応できる拡張性を備えていることを確認する必要があります。
セルフホスティング・モデルをお考えなら、AIアクセラレーターやの他の高性能コンピューティング・リソースに投資することで、生成AI用にハードウェアを最適化することをご検討ください。高速かつ低遅延のデータ転送を処理できるように、ネットワーク機能をアップグレードすることも良いアイデアです。ただし、クラウドまたはAPIベースのルートを選択する場合は、使用しているプラットフォームが生成AIのワークロードを処理するのに十分な堅牢性を備えているかどうか、また最新の生成AIの進歩に対応しているかどうかを確認してください。
AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。