LangFlowとは

執筆者

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

LangFlowは、ドラッグ・アンド・ドロップのビジュアル・インターフェースを通じてAIエージェントやその他のAIアプリケーションを構築するためのオープンソースローコードツールです。これにより、ユーザーは高度なプログラミング・スキルを必要とせずに、大規模言語モデル(LLM)APIベクター・データベース、カスタム・コンポーネントをエージェント型ワークフローに編成できます。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

LangFlowの用途

LangFlowは、ローコードまたはノーコードのグラフィカル・ユーザー・インターフェイス(GUI)内でエージェント型AIアプリケーションを作成するために使用されます。ユーザーはコンポーネントを相互に接続し、その接続によりアプリを介したデータ・フローが決定されます。

顧客サービスを自動化するエージェント型AIチャットボット・アプリケーションを構築する場合、ユーザーはまずチャット・インターフェイスを大規模言語モデル(LLM)に接続することができます。また、LLMを社内のベクトル・データベースに接続して検索拡張生成(RAG)システムを作成し、LLMが顧客の注文履歴などのデータを参照できるようにすることもできます。

LLMはAPIキーを通じてツールにアクセスでき、APIキーはモジュラー・コンポーネントとしてAIワークフローにドロップすることもできます。エージェント型アプリケーションを完成させるには、LLMを2番目のチャット・コンポーネントにリンクし、チャットボットを通じてユーザーに出力を返します。

LangFlowの主な特徴と機能

LangFlowのユーティリティーは、次のようなユーザー・フレンドリーな中心的機能と関数に基づいています。

  • ローコードまたはノーコードのビジュアル・インターフェース

  • 広範な統合

  • コンポーネントライブラリ

  • エクスポート可能なフロー

  • オープンソース

ローコードまたはノーコードのビジュアル・インターフェース

LangFlowの使いやすさは、そのプレゼンテーションによるところが大きくなっています。ユーザーは、ドラッグ・アンド・ドロップによるモジュール式のビジュアル・インターフェースを通じてAIアプリケーションを構築できます。機械学習(ML)プロセスの各コンポーネントは順番に配置され、AIワークフローの必要に応じて他のコンポーネントに接続されます。

ビジュアル・インターフェイスは、複雑なコーディング・プロジェクトを、人工知能(AI)システムを通るデータの流れを指示する接続を備えた直感的なフローチャートに変換します。初心者は、LangFlowを使用して、必要に応じてさまざまなモデル、コンポーネント、データ・ソースを追加することで、AIオーケストレーションを効率化できます。一方、Pythonの経験があるユーザーは、LangFlow内でCを構築できます。

ノーコード使用の例として、LangFlowを使用すると、ユーザーは簡単なスライダーを使用して、選択したLLMに対して限定的なハイパーパラメータ・チューニングを実行できます。ユーザーは、 温度(LLMアウトプットのランダム性の程度を制御するハイパーパラメーター)を、左右への簡単な操作で調整できます。

LangFlowはバイブ・コーディングと見なされますか?

LangFlowの使用は、ユーザーが自然言語プロンプトを使用してLLMにコードを生成するよう指示するコーディングとは異なります。ユーザーはコードが何をすべきかをLLMに伝え、LLMを利用して実際のコードを生成します。

LangFlowは、ユーザーが望むAIアプリケーションを構築できるよう支援し、コーディングの必要性を事前に作成されたモジュール式コンポーネントで置き換えます。ユーザーは引き続きコードを使用して、より高度なエージェント型の自動化のためのカスタム・コンポーネントを作成することもできます。

広範な統合

LangFlowは、幅広い統合により、大きな柔軟性を提供します。LangFlowは多数のMLフレームワークとの統合をサポートしており、親フレームワークのLangChainと同様に、同じ範囲のAPI、ベクター・データベース、その他の接続オプションをカバーしています。

LangFlowは、単一のパイプライン内で複数のモデルが順番に接続されるLLMチェーンもサポートしています。チェーンは、複数のエージェント(それぞれが独自のLLM、ツール、またはデータソースを使用する可能性があります)が共有タスクで連携する、マルチエージェント・オーケストレーションとは異なります。LangFlowのモジュール式設計は、両方のアプローチをサポートしています。

LangFlowとLangChainの違いは?

LangChainは、AI開発用のオープンソースのコードベースのMLフレームワークです。LangFlowは、LangChainなどのMLフレームワーク上にあるビジュアル・ツールで、ユーザーはLLMアプリを構築して迅速にプロトタイプを作成できます。LangFlowはもともとLangChain上に構築され、今でもLangChainと密接に連携していますが、現在は他のフレームワークや統合もサポートしています。

同じファミリー内の別のプラットフォームであるLangGraphも、エージェント型システムの構築に使用されます。しかし、モジュール式GUIの代わりに、LangGraphはエージェント・システムをグラフとして表現し、よりきめ細かな制御を提供します。

コンポーネント・ライブラリ

コンポーネント・ライブラリには、OpenAIのGPTファミリー、MetaのLlamaなどのLLM、チャット・インターフェイス、計算機、Webブラウザーなど、ユーザーがエージェント・ワークフローに追加できるすべてのコンポーネントが含まれています。LangFlowはコンポーネントを次の2つのカテゴリーに分類します。

  • ほとんどのLangFlow作成のバックボーンを形成するコア・コンポーネント

  • 特定のサードパーティの統合をサポートするプロバイダー固有のバンドル

エクスポート可能なフロー

LangFlowプロジェクトは、JSON形式のフローとしてエクスポートできます。作成者はフローをエクスポートして他のユーザーと共有でき、他のユーザーはフローを各ユーザーのLangFlowインスタンスにインポートして、使用および変更できます。エクスポート可能なフローは、フローを再利用可能にすることでコラボレーションを強化し、プロジェクトのワークフローを合理化します。

オープンソース

親フレームワークであるLangChainと同様、LangFlowはオープンソースであるため、そのコードは検査、貢献、変更のために広く公開されています。オープンソースのAIツールは、AIの説明可能性を高め、運用の透明性を提供するのに役立ちます。ただし、LangFlow内でクローズドソースLLMまたはその他のコンポーネントを使用しても、その内部構造への同様のアクセスは許可されません。

LangFlowのユースケース

LangFlowは使いやすさから、エージェント型AIを使用してワークフローを合理化および自動化するための理想的なツールになります。LangFlowの実際のユースケースは次のとおりです。

  • ラピッド・プロトタイピング

  • AIエージェント開発

  • RAGアプリケーション

  • カスタマー・サービスの自動化

ラピッド・プロトタイピング

LangFlowのドラッグ・アンド・ドロップGUIは、AIアプリケーションのラピッド・プロトタイピングに適しています。ユーザーは、LangFlowのモジュール式コンポーネントを使用したパイプラインを作成し、それを他のユーザーと共有し、テストし、必要に応じて反復できます。Hugging Face Spacesとの統合により、迅速なMLデモも可能になります。

AIエージェント開発

LangFlowの中核的なユースケースの1つは、ノーコードのAIエージェント開発です。コンポーネント・ライブラリーを通じて、ユーザーはLLMをツール、データベース、その他のアドオンに接続し、エージェントが意図した機能を満たすために必要なものにアクセスできるようにします。ユーザーは、LLMを連携させたり、マルチエージェント・システムを構築したりすることもできます。

RAGアプリケーション

チャット・インターフェイスとベクトル・データベースのコンポーネントを使用することで、LangFlowはRAGシステムを簡単に構築できます。自然言語プロンプトは埋め込みに変換され、検索モデルはこれを使用して接続されたベクトル・データベースを照会します。

データベースには、システムの意図したユースケースに関連する情報が含まれています。たとえば、新入社員のオンボーディングを支援するために設計されたRAGシステムでは、データセット内のトレーニング文書を参照できます。次に、LLMは取得したデータとプロンプトを組み合わせて、自然言語アウトプットをユーザーに返します。

カスタマー・サービスの自動化

チャットボットはカスタマー・サービスの自動化によく使用され、顧客はまずチャットボットと対話します。チャットボットは注文履歴や製品情報などの関連データを取得できます。顧客の問い合わせが複雑すぎる場合、チャットボットは人間の担当者にエスカレーションできます。

LangFlowのユーザーは、以下のようないくつかのコンポーネントを使用して、カスタマー・サービス用チャットボットを素早く作成できます。

  1. チャット・インプットは、顧客からのクエリーを自然言語で受け取ります。
  2. 埋め込みコンポーネントはインプットをセマンティック検索用のベクトル埋め込みに変換します。
  3. 会社データを含むベクター・データベースは、同様の埋め込みについてクエリーされます。
  4. LLMは、取得したデータを顧客のクエリーと組み合わせて応答を生成します。
  5. チャット出力は、自然言語でユーザーに応答を返します。
関連ソリューション
IBMのAIエージェント開発

開発者が、IBM watsonx.aiを使用してAIエージェントの構築、デプロイ、および監視を行えるようにします。

 

watsonx.aiの詳細はこちら
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

事前構築済みのアプリケーションとスキルをカスタマイズする場合でも、AIスタジオを使用してカスタム・エージェント・サービスを構築し、デプロイする場合でも、IBM watsonxプラットフォームが対応します。

watsonx Orchestrateの詳細はこちら watsonx.aiの詳細はこちら