Os LLMs são os principais modelos de inteligência artificial para muitas aplicações de negócios, como agentes de IA,respostas a perguntas impulsionadas por RAG ou chatbots para atendimento ao cliente com geração de texto automatizada. O processamento de linguagem natural (NLP) é o uso de algoritmos de aprendizado de máquina para entender e gerar a linguagem humana, e os LLMs são um tipo específico de modelo de NLP.
LLMs notáveis incluem a família GPT da OpenAI, como o GPT-4o e o GPT-3.5, alguns dos modelos por trás do ChatGPT, bem como o Claude da Anthropic,Gemini do Google e Llama 3 da Meta. Todos os LLMs são capazes de lidar com tarefas complexas, mas as necessidades específicas de um projeto de aprendizado de máquina podem ajudar a determinar o LLM certo para o trabalho.
A escolha do LLM certo se resume a uma série de fatores, incluindo:
- Caso de uso específico: o desafio de aprendizado de máquina afeta diretamente o processo de seleção do LLM. Um LLM pode ser melhor para a compreensão e o resumo de documentos extensos, enquanto outro pode ser mais fácil para realizar ajuste fino para usos específicos de um domínio.
- Desempenho: assim como outros modelos, os LLMs podem ser comparados uns com os outros para avaliar o desempenho. Benchmarks de LLMs incluem métricas para raciocínio, programação, matemática, latência, compreensão e conhecimento geral. Ponderar as necessidades de um projeto em relação ao desempenho do benchmark pode ajudar a determinar o melhor LLM a ser escolhido para obter saídas de alta qualidade.
- Código aberto versus código fechado: os modelos de código aberto permitem que os observadores monitorem como o modelo toma suas decisões. Diferentes LLMs podem ser propensos a vieses e alucinações de várias maneiras: quando geram previsões que não refletem resultados do mundo real. Quando a moderação de conteúdo e a prevenção de vieses são fundamentais, limitar as escolhas a provedores de código aberto pode ajudar a moldar o processo de seleção de LLMs.
- Uso de recursos e custo: os LLMs são modelos famintos por recursos. Muitos LLMs são alimentados por datacenters de hiperescala preenchidos com centenas de milhares de unidades de processamento gráfico (GPUs) ou mais. Os provedores de LLMs também cobram de forma diferente pelas conexões de APIs com seus modelos. A escalabilidade de um modelo e seu sistema de preços afetam diretamente o escopo do projeto.