O que é o LangFlow?

Autores

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

O LangFlow é uma ferramenta de código aberto e pouco código para criar agentes de IA e outras aplicações de IA por meio de uma interface visual de arrastar e soltar. Ele permite que os usuários orquestrem grandes modelos de linguagem (LLMs), APIs, bancos de dados de vetores e componentes personalizados em fluxos de trabalho agênticos sem a necessidade de habilidades de programação avançadas.

As mais recentes tendências em IA, trazidas a você por especialistas

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

Para que o LangFlow é usado?

O LangFlow é usado para criar aplicações de IA agêntica em uma interface gráfica de usuário (GUI) de pouco código ou no-code. Os usuários conectam componentes, e as conexões determinam o fluxo de dados através do aplicativo. 

Ao criar uma aplicação de chatbot de IA agêntica para automatizar o atendimento ao cliente, um usuário pode primeiro conectar uma interface de chat a um grande modelo de linguagem (LLM). Ele também podem conectar o LLM ao banco de dados de vetores interno da empresa para criar um sistema de geração aumentada de recuperação (RAG), permitindo que o LLM consulte dados, incluindo históricos de pedidos de clientes. 

O LLM pode acessar ferramentas por meio de chaves de APIs, que também podem ser soltas no fluxo de trabalho de IA como componentes modulares. Para concluir a aplicação agêntica, o LLM seria vinculado a um segundo componente de chat para entregar a saída de volta ao usuário por meio do chatbot.

Principais funcionalidades e funções do LangFlow

O utilitário do LangFlow decorre de suas principais funcionalidades e funções fáceis de usar, que incluem: 

  • Interface visual de pouco código ou no-code

  • Integrações extensas 

  • Biblioteca de componentes 

  • Fluxos exportáveis 

  • Software livre

Interface visual de pouco código ou no-code

A facilidade de uso do LangFlow se deve, em grande parte, à sua apresentação. Os usuários podem criar aplicações de IA por meio de uma interface visual modular de arrastar e soltar. Cada componente do processo de aprendizado de máquina (ML) é posicionado em sequência, conectado aos outros componentes conforme a necessidade para o fluxo de trabalho de IA. 

A interface visual transforma um projeto de programação complexo em um fluxograma intuitivo, completo com conexões que ditam o fluxo de dados através do sistema de inteligência artificial (IA). Iniciantes podem usar o LangFlow para simplificar a orquestração de IA, ao adicionar vários modelos, componentes e fontes de dados conforme a necessidade. Enquanto isso, usuários com experiência em Python podem desenvolver c dentro do  LangFlow. 

Como exemplo de uso no-code, o LangFlow permite que os usuários realizem o ajuste de hiperparâmetros limitado para os LLMs escolhidos com um simples controle deslizante. Os usuários podem ajustar a temperatura— um hiperparâmetro que controla o grau de aleatoriedade em uma saída do LLM — com um rápido toque para a esquerda ou para a direita.

O LangFlow é considerado vibe coding?

O uso do LangFlow é diferente da vibe coding, que ocorre quando um usuário instrui um LLM com prompts de linguagem natural para gerar código. O usuário diz ao LLM o que o código deve fazer e depende do LLM para gerar o código real. 

O LangFlow encarrega os usuários de criar a aplicação de IA que desejam e substitui a necessidade de programação por componentes modulares pré-fabricados. Os usuários ainda podem usar código para criar componentes personalizados para uma automação agêntica mais avançada.

Integrações extensas

O LangFlow oferece muita flexibilidade devido à sua ampla gama de integrações. O LangFlow é compatível com a integração com vários frameworks de ML, e como seu framework principal LangChain, cobre a mesma gama de API, banco de dados de vetores e outras opções de conexão. 

O LangFlow também é compatível com o encadeamento de LLMs, onde vários modelos são conectados em sequência em um único pipeline. O encadeamento é diferente da orquestração multiagentes, em que vários agentes (cada um podendo usar seu próprio LLM, ferramentas ou fontes de dados) colaboram em uma tarefa compartilhada. O design modular do LangFlow é compatível com ambas as abordagens.

Qual é a diferença entre o LangFlow e o LangChain?

O LangChain é um framework de ML baseada em código de código aberto para desenvolvimento de IA. O LangFlow é uma ferramenta visual que se baseia em frameworks de ML, como o LangChain, permitindo que os usuários criem e façam rapidamente protótipos de aplicativos de LLMs. O LangFlow foi originalmente desenvolvido no LangChain e ainda está intimamente ligado a ele, mas agora é compatível com outros frameworks e integrações. 

O LangGraph, outra plataforma da mesma família, também é usado para criar sistemas agênticos. Mas, em vez de uma GUI modular, o LangGraph descreve os sistemas agênticos como gráficos e, ao mesmo tempo, fornece um controle mais granular.

Biblioteca de componentes

A biblioteca de componentes contém todos os componentes que os usuários podem adicionar aos fluxos de trabalho do agente: LLMs como a família GPT da OpenAI, Llama da Meta e outros, interfaces de chat, calculadoras, navegadores da web e muito mais. O LangFlow agrupa componentes em categorias: 

  • Componentes principais, que formam a espinha dorsal da maioria das criações do LangFlow. 

  • Pacotes específicos do provedor, compatíveis com integrações específicas de terceiros.

Fluxos exportáveis

Os projetos do LangFlow podem ser exportados como fluxos no formato JSON. Os criadores podem exportar os fluxos e compartilhá-los com outros usuários, que podem importá-los para sua própria instância do LangFlow para uso e modificação. Os fluxos exportáveis aprimoram a colaboração e simplificam os fluxos de trabalho do projeto, tornando os fluxos reutilizáveis.

Código aberto

Assim como seu framework pai, o LangChain, o LangFlow é de código aberto, o que significa que seu código está disponível publicamente para inspeção, contribuição e modificação. As ferramentas de IA de código aberto ajudam a aumentar a explicabilidade da IA e proporcionam transparência operacional. No entanto, usar um LLM de código fechado ou outro componente no LangFlow não concede acesso semelhante a seu funcionamento interno.

Casos de uso do LangFlow

A facilidade de uso do LangFlow faz dele uma ferramenta ideal para simplificar e automatizar fluxos de trabalho com IA agêntica. Casos de uso reais do LangFlow incluem: 

  • Prototipagem rápida

  • Desenvolvimento de agentes de IA 

  • Aplicações da RAG 

  • Automação de atendimento ao cliente

Prototipagem rápida

A GUI de arrastar e soltar do LangFlow é adequada para prototipagem rápida para aplicações de IA. Os usuários podem elaborar um pipeline com os componentes modulares do LangFlow, compartilhá-lo com outras pessoas, testá-lo e iterar conforme a necessidade. A integração com o Hugging Face Spaces também permite a rápida demonstração de ML.

Desenvolvimento de agentes de IA

Um dos principais casos de uso do LangFlow é o desenvolvimento de agentes de IA no-code. Por meio da biblioteca de componentes, os usuários podem conectar um LLM a ferramentas, bancos de dados e outros complementos, permitindo que o agente acesse aquilo de que precisa para preencher a função pretendida. Os usuários também podem encadear LLMs ou construir sistemas multiagentes.

Aplicações da RAG

Com componentes para interfaces de chat e bancos de dados de vetores, o LangFlow pode criar sistemas de RAG com facilidade. As solicitações de linguagem natural são convertidas em embeddings, que o modelo de recuperação usa para consultar o banco de dados de vetores conectado. 

O banco de dados contém informações relevantes para o caso de uso pretendido do sistema. Por exemplo, um sistema de RAG projetado para ajudar novos funcionários na integração pode fazer referência aos documentos de treinamento no conjunto de dados. Em seguida, o LLM combina os dados recuperados com o prompt para retornar uma saída em linguagem natural ao usuário.

Automação de atendimento ao cliente

Os chatbots são frequentemente usados para automação de atendimento ao cliente. Os clientes interagem primeiro com o chatbot, que pode recuperar dados relevantes, como históricos de pedidos e informações de produtos. Se a consulta do cliente for muito complexa, o chatbot poderá escalar para um representante humano. 

Um usuário do LangFlow pode criar rapidamente um chatbot para atendimento ao cliente com apenas alguns componentes: 

  1. Uma entrada de chat recebe as consultas dos clientes em linguagem natural.
  2. Um componente de embedding converte a entrada em um embedding vetorial para pesquisa semântica.
  3.  Um banco de dados de vetores contendo dados da empresa é consultado para embeddings semelhantes. 
  4.  Um LLM combina os dados recuperados com a consulta do cliente para gerar uma resposta. 
  5.  Uma saída de chat retorna a resposta ao usuário em linguagem natural.
Soluções relacionadas
Desenvolvimento de agentes de IA da IBM 

Permita que desenvolvedores criem, implementem e monitorem agentes de IA com o IBM watsonx.ai studio.

 

Explore o watsonx.ai
Soluções de inteligência artificial

Use a IA a serviço de sua empresa com a experiência e o portfólio de soluções líder do setor da IBM à sua disposição.

Explore as soluções de IA
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Se você optar por personalizar aplicativos e habilidades criados previamente ou criar e implementar serviços agênticos personalizados usando um estúdio de IA, a plataforma IBM watsonx tem aquilo de que você precisa.

Explore o watsonx Orchestrate Explore o watsonx.ai