この考えはすぐに生まれたわけではありません。深夜のSlackスレッドや廊下での会話の中から、そして機械がどのように推論するのかを静かに考えているうちに徐々に思い付きました。プロンプトの混乱と自動化への願望の間のどこかで、新しいコンセプトが形になったのです。人工知能だけでなく、ソフトウェア自体も再定義するかもしれません。
その前提は大胆です。大規模言語モデルを謎のチャットボットのように扱うのをやめて、プログラマブルなインフラストラクチャーのように扱うようになったら、どうなるでしょうか。IBMはこの新たな分野をジェネレーティブ・コンピューティングと呼んでいます。これは、AIモデルを扱う新しいアプローチを定義するためにIBMの研究者が開発した用語であり、フレームワークです。つまり、AIモデルを予測不可能なお告げとしてではなく、制御されたモジュラー・ソフトウェア・コンポーネントとしてシステムに統合する方法を再設計することです。成功すれば、AI開発、ソフトウェア設計、エンタープライズ・テクノロジーの転換点となる可能性があります。
IBM Researchの所長、デビッド・コックスは、IBM Thinkのインタビューで、AI開発で起きている変化を表現するためにジェネレーティブ・コンピューティングという言葉を作ったと語っています。それはブランドでも製品でもありません。これは転換であり、大規模言語モデルを賢いチャット・パートナーとしてではなく、プログラマブルな要素として扱う動きです。タネや仕掛けは忘れましょう。これはソフトウェア・エンジニアリングなのです。
「LLMがプログラミングに取って代わるわけではありません。」と彼は言います。「LLMは新しい種類のプログラミング・プリミティブになりつつあるということです。」
今日、大規模言語モデルとのやり取りは、気まぐれに発せられるお告げのようになっています。プロンプト内の文を少し変更すると、アウトプットが軌道から外れます。エッセイのような長さのプロンプトを書き、願い、祈り、おだてるのです。芸術的で、捉えどころがなく、解釈が難しく、時には深遠な占いのようで、センスが問われます。しかし、銀行、病院、官公庁・自治体では、神秘主義は通用しません。
IBM Researchのチーフ・サイエンティスト、Ruchir PuriはIBM Thinkのインタビューで、「何かを入力するときに、言葉選びによって答えが変わります」と語っています。「まるで初期の検索のようです。私たちはまだカンマ一つでアウトプットが変わる時代にいるのです。そのようなやり方では、企業を経営することができません。」
Puri氏は、企業がハルシネーション(幻覚)だけでなく、モデルによるエッジケースの処理における信頼性の欠如にも苦労している世界について説明しています。「私たちはハルシネーションについてよく話していますが、より深い問題は、モデルが指示に従うことが保証されていないということです。プロンプトの単語を変更した後、何が出力されるかはわかりません。」彼は、それがエンジニアリングのアンチテーゼであると主張しました。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
厳密には、現代のモデルが持つ力を無視している人はいません。Cox氏は、「失敗しているのは、その使い方です」と言います。「プロンプト・エンジニアリングはエンジニアリングではありません。修正作業なのです。私たちに必要なのは、モデルが私たちの意図を汲み取って動作するのを期待する必要がなく、意図したとおりの動作を行うようにプログラムできるシステムです。」
生成コンピューティングの背後にある前提はシンプルです。それは、モデルを関数として扱うことです。開発者は、詳細な文章に指示を埋め込む代わりに、プロンプトをアトミック部分に分割し、ルーティングし、条件をチェックし、失敗を書き換えるオーケストレーション・レイヤーであるランタイムを使用します。ロジックは単なる暗示ではありません。強制されるものです。コントロールは明確になります。構造が返されます。
「インターネットについて考えてみてください」とCoxは言います。「未加工データをネットワークで送信して、それが表示されることを期待するわけではありません。プロトコル、再試行、ルーティングがあるでしょう。これこそが、私たちがAIに加えているものです。」実際には、複雑なタスクをより小さな管理可能な命令に分解し、それぞれが進める前に検証される階層化されたシステムを構築することを意味します。「モデルには長く複雑なプロンプト1つでなく、小規模で焦点を絞ったプロンプト20個があるかもしれません」とPuri氏は言います。「しかし、今では1件1件をログに記録できるようになりました。再試行できます。フォールバックの構築もできます。それこそが企業が必要とするものです」
この構造は、生成AIから長い間遠ざかっていた2つの原則であるテストと検証にも扉を開きます。「コードと同じ方法で、LLMの動作に関するアサーションを作成できます」とCox氏は言います。必要な動作が得られない場合は、モデルに再試行するか、別のサブルーチンにルーティングするように依頼できます」
この考え方は、安全性に適用する場合に特に強力です。Puri氏は、CTOからよく話を聞くそうですが、彼らはAIエージェントの可能性は気に入っているものの、その予測不可能性ゆえに躊躇しています。「彼らはAIにすべてを任せることを恐れているのです。ハルシネーションを起こしたらどうなるのか。間違ったメッセージを送信したり、間違ったトランザクションを承認したりしたらどうなるのかと。」
これに答えるために、生成コンピューティングは、ハルシネーション検知、コンテキスト検証、コンプライアンス対応処理などのツールを導入しています。「当社のランタイムを使用すると、メイン・モデルの出力をチェックする保護モデルを介入させることができます。何かが疑わしいと思われる場合は、フラグを立てて再試行を求めることができます。」
このような階層化により、今日のプロンプト・エンジニアリングでは提供できないレベルの再現性と自信が得られます。開発者は、従来のコードとLLM応答を組み合わせて、制御を解除することなくアウトプットをより大規模なシステムに埋め込むことができます。
「これはチャットボットではありません」とCox氏は言います。「ソフトウェア・スタックの一部です。他のモジュールをテストするようにテストできます。」
この瞬間は、コンピューティングの以前のエポックに匹敵するとCoxは言います。1980 年代に、モデル・ビュー・コントローラ(MVC) などのソフトウェア設計パターンが導入され、開発者はロジックをインターフェイスから分離できるようになり、アプリケーションを構築するためのモジュール式で再利用可能な基盤ができました。生成コンピューティングも同様の転換点になると同氏は考えています。
「パターンを見つけるつもりです」と彼は言います。「UI開発でMVCが普及したように、LLMをオーケストレーションするためのフレームワークが登場するでしょう。これはソフトウェア・スタックの新しい層の始まりです。」
この構造のビジョンが生成コンピューティングの動きの多くを支えています。大規模言語モデル内のすべてのニューロンを理解しようとする代わりに、開発者は企業の制約に合わせたガードレールを構築します。「私たちは説明責任を生み出します」とPuri氏は言います。
透明性が必ずしもシンプルさを意味するとは限らない、とCox氏は語りました。「車のエンジンは複雑です」と彼は言います。「しかし、それは安全なエンベロープの中に構築されています。何かが壊れたときのための手順があります。それが私たちがAIに求めていることです。謎ではありません。エンジニアリングです。」
技術的に言えば、モデルの意思決定における中間ステップを公開することを意味します。生成コンピューティングで使用されるランタイムは、ログを生成し、メタデータを追加し、各ステップで検証を実行できます。
「それは主要な機能としての説明です」とCox氏は言います。「後付けではありません」
すでにIBMのGraniteモデルは、この種のモジュラー・オーケストレーションをサポートするように調整されています。これらは、迅速でメモリ効率の高い推論用に最適化されており、1つの大規模なプロンプトの代わりに多数の小規模なクエリを可能にします。そのため、ランタイム主導のアプローチに適しています。
「構成要素と考えてください」とPuri氏は言います。「すべてを一度に実行しようとするのではなく、特定のサブタスクのために何度も呼び出すでしょう。その方が速く、安く、信頼性も高くなります」
そのメリットは技術的なものだけでなく、組織的なものにも及びます。ある試験プロジェクトでは、エンタープライズ・クライアントが生成コンピューティングを使用して文書分類パイプラインを構築しました。法的な証拠を要約する作業を1つのプロンプトに頼るのではなく、タスクを9段階に分割しました。分類、セグメンテーション、抽出、検証、リスク・アセスメント、要約、フォーマット作成、レビュー、承認の9段階です。
「各段階は隔離され、監視されました」とCox氏は語ります。「何かに失敗した場合は、再試行または修正できます。1つのプロンプトでは実現できませんでした。」
Puri氏は、このような構造が標準になると考えています。「当社はLLMをエンドツーエンドの魔法として考えるのをやめて、インフラストラクチャーとして扱い始めています」と彼は言います。「重要なのは開発者を代替することではありません。開発者に新しいツールを提供することなのです」
Cox氏によれば、そのツールのひとつがLLMイントリンシックという、特殊なモデル関数をランタイムに直接公開することで、より深い連携とリアルタイム適応を可能にする新しいコンセプトです。「モデルの動作を変更するアダプターを接続することができます」と彼は言います。「これにより、トーンを変更したり、リスクを軽減したり、臨機応変にハルシネーションを検知したりすることもできます。」
これらの進歩は、ソフトウェアの作成方法を変える可能性があります。コックス氏は、LLM用のランタイム・オーケストレーション・テンプレート、プロンプトを検証するユニットテスト、モデルの動作を追跡するバージョン管理システムを含むIDEを想像しています。
「ソフトウェア・エンジニアは新しいスキルを学ぶ必要があります」と彼は言います。「しかし、インプット、アウトプット、正確さ、オブザーバビリティーという基本的なものは依然として残ります。私たちはソフトウェア・エンジニアリングを放棄するわけではありません。アップグレードするのです。」
研究者らは、生成コンピューティングが現在のニッチなユースケースを超えて拡大すると予想しています。この分野が成熟するにつれて、新しい抽象化レイヤー、新しい基準、新しい職務が登場するでしょう。
彼は少しの間、考えていました。「私たちは10年間をかけて、これらのシステムをインテリジェントに見せる方法を学んできました」と彼は言います。「今、私たちは彼らにどのように行動すべきかを教える必要があります。」
AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。