Los LLM son los modelos básicos de inteligencia artificial para muchas aplicaciones empresariales, como agentes de IA, respuesta a preguntas impulsadas por RAG o chatbots de servicio al cliente con generación automatizada de texto. El procesamiento del lenguaje natural (PLN) es el uso de algoritmos de machine learning para comprender y generar el lenguaje humano, y los LLM son un tipo específico de modelo de PLN.
Los LLM notables incluyen la familia GPT de OpenAI, como GPT-4o y GPT-3.5, algunos de los modelos detrás de ChatGPT, así como Claude de Anthropic, Gemini de Google y Llama 3 de Meta. Todos los LLM son capaces de gestionar tareas complejas, pero las necesidades específicas de un proyecto de machine learning pueden ayudar a determinar el LLM adecuado para el trabajo.
La elección del LLM adecuado se reduce a una serie de factores entre los que se incluyen:
- Caso de uso específico: el reto del machine learning afecta directamente al proceso de selección del LLM. Un LLM podría ser mejor con la comprensión y el resumen de documentos largos, mientras que otro podría ser más fácil de afinar para usos específicos del dominio.
- Rendimiento: al igual que otros modelos, los LLM se pueden tomar como referencia para comparar entre sí y evaluar el rendimiento. Los puntos de referencia de los LLM incluyen métricas para el razonamiento, la codificación, las matemáticas, la latencia, la comprensión y conocimiento general. Sopesar las necesidades de un proyecto frente al rendimiento de referencia puede ayudar a determinar el mejor LLM para obtener resultados de alta calidad.
- Código abierto versus código cerrado: los modelos de código abierto permiten a los observadores controlar cómo llega el modelo a sus decisiones. Los diferentes LLM pueden ser propensos a sesgos y alucinaciones de varias maneras: cuando generan predicciones que no reflejan los resultados del mundo real. Cuando la moderación de contenido y la prevención de sesgos son primordiales, limitar las opciones a los proveedores de código abierto puede ayudar a dar forma al proceso de selección del LLM.
- Uso y coste de los recursos: los LLM son modelos que consumen muchos recursos. Muchos LLM funcionan con centros de datos a hiperescala llenos de cientos de miles de unidades de procesamiento gráfico (GPU) o más. Los proveedores de LLM también cobran de forma diferente por las conexiones de API a sus modelos. La escalabilidad de un modelo y su sistema de precios afecta directamente al alcance del proyecto.