話題になっているDeepSeek-R1のようなオープンソースの基盤モデルにより、企業は独自のカスタムモデルを作成する際に先手を打つことができ、ROIを高めることができます。しかし、AIガバナンスの役割についてはあまり話題になっていません。あらゆる形式の AI および ML にはガバナンスが必要ですが、サードパーティ プロバイダーのオープンソース モデルには固有の考慮事項があります。組織によるAIの使用を安全で、透明性と責任があるものにしたい場合は、AIガバナンスが非常に重要です。
これらの進展を考慮して、AIガバナンスが主要な課題のいくつかをどのように軽減できるかを明らかにしながら、DeepSeekのようなオープンソース・モデルをどのように活用できるかについて見ていきましょう。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
IBM の調査によると、オープンソース ツールを使用している企業の 51% がプラスの ROI を実現したのに対し、使用していない企業ではわずか 41% でした。これらの新しく出現した小規模なオープンソース モデルは、AI の将来がオープンであるというIBM の姿勢を強化するものであり、効率性、信頼性および安全性のバランスを取りながら、企業が AI のメリットを実現するのに役立ちます。多くの技術リーダーがDeepSeekの影響に驚き、懸念している一方で、IBMは以前からよりオープンなアプローチを提唱してきました。「小規模で効率的なモデルであれば、大規模な専用システムを使わずに、本当の成果を上げることができます」とIBM CEO、Arvind Krishna氏はフォーチュン誌の記事で述べました。
オープンソースの基盤モデルを使用すると、モデルのライフサイクル全体にわたってAIガバナンスがクリティカルになります。組織はまずリスク アセスメントから始めて、そのモデルが安全に使用できるかどうかを判断する必要があります。一般的な目的や個人での使用には安全と考えられているものでも、企業向けのユースケースには適していない可能性があります。
DeepSeek-R1 の場合、組織はモデルを自己ホストするか、IBM® watsonx.ai™などのAIスタジオ製品を介してモデルを実行することが比較的安全であると判断する可能性があります。ただし、DeepSeek アプリを使用すると、データとセキュリティの問題が発生する可能性があります。このため、多くの国または地域がDeepSeekアプリの使用を禁止しています。
モデルが承認されると、モデル検証者はモデルをモデル インベントリーに追加し、モデルの使用率とパフォーマンスを追跡すると同時に、モデルを適用できる用途を指定できます。このモデルのコレクションにより、AI 開発者は利用可能なモデルを識別でき、保証、データおよびセキュリティ チームはモデルが使用されている場所を追跡できます。
AI ファクトシートは、ライフサイクル全体にわたってモデルのファクトをキャプチャし、モデルの内容とその使用方法に関する透明性を高めます。ファクトシートには、プロンプトのパラメーター、テンプレート、評価など、どの基盤モデルが使用されたかが示されます。
一部のオープンソース モデルの安全性、および有害な出力の生成に寄与するプロンプト インジェクションとジェイルブレイクの容易さには懸念があります。オブザーバビリティーとガードレールは、モデルの健全性、精度、ドリフトを監視し、ヘイトスピーチ、中傷、その他の有害なコンテンツを制限できます。
AIガバナンスのないAIのマイナス面は計り知れません。AIを使用して EU 内の個人と対話する組織は、欧州AI規制法に準拠する必要があります。これに従わない場合は、3,500万ユーロの罰金または年間売上高の 7% のいずれか大きい方の金額で罰金が課せられる可能性があります。
企業のブランド、評判、顧客やパートナーの信頼に対するリスクも重大です。あなたの組織が顧客の個人データを危険にさらしたり、顧客とのやり取りの中で顧客を侮辱したり詐欺行為を行ったりしたと想像してみてください。根本的な問題がチームにあったにせよ、基盤モデルにあったにせよ、どちらにしてもブランドは損なわれます。安全対策がなければ、生成AIを本番環境で利用するのはリスクが高すぎます。
AIガバナンスを行うことにより、組織はさまざまなリスクを管理および軽減でき、AIを安全かつ責任を持って使用できるようになります。こうした取り組みをサポートするために、IBM Research®は、組織がさまざまなAIリスクを特定してマッピングできるツールであるAIリスクアトラスを開発しました。
堅牢なAIガバナンスのフレームワークとソリューションは組織にとって非常に重要ですが、それを一から構築するのは時間とコストがかかり、AI ROIに悪影響を与える可能性があります。AIを効率的、安全かつ責任を持って拡張したい組織のために、私たちはwatsonx.governance™を構築しました。
watsonx.governanceのようなAIガバナンス・ソリューションは、組織のAIにDeepSeekなどのモデルを許可するかどうか、またどのように許可するかをリーダーが決定できるようにします。IBM Guardium® AI Securityと統合することで、watsonx.governanceは、モデルの未知のインスタンスを特定し、脱獄、DDOS、PIIデータ・プロンプトなどの特定のリスクを管理することもできます。これにより、あらゆるモデルを管理し、あらゆるクラウドに適用したり、オンプレミスで実行したりすることができます。IBM の AI リスク・アトラス
DeepSeekは一連のオープンソースのイノベーションのひとつに過ぎず、これまでのテクノロジーと比較しても、あらゆるAIの進歩はガバナンスとセキュリティを組織のストラテジーの中核に据える必要があることを思い起こさせるものにすぎません。それらはオプションではなく、基本的な要件です。
エンタープライズ・グレードのパフォーマンスと透明性を競争力のある価格で提供する、オープンソースの小規模言語モデル。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入によって重要なワークフローと業務を再構築し、エクスペリエンスとビジネス価値の最大化とリアルタイムの意思決定の最適化を達成します。