Más grande no siempre es mejor, y lo que a los SLM les falta en tamaño lo compensan con estos beneficios:
Accesibilidad: los investigadores, desarrolladores de IA y otras personas pueden explorar y experimentar con modelos de lenguaje sin tener que invertir en múltiples GPU (unidades de procesamiento gráfico) u otros equipos especializados.
Eficiencia: la agilidad de los SLM hace que requieran menos recursos, lo que permite un entrenamiento y un despliegue rápidos.
Rendimiento eficaz: esta eficiencia no se produce a costa del rendimiento. Los modelos pequeños pueden tener un rendimiento comparable o incluso mejor que sus equivalentes de modelos grandes. Por ejemplo, GPT-4o mini supera a GPT-3.5 Turbo en comprensión del lenguaje, respuesta a preguntas, razonamiento, razonamiento matemático y puntos de referencia de LLM de generación de código.10 El rendimiento de GPT-4o mini también está cerca de su hermano mayor, GPT-4o.10
Mayor privacidad y control de seguridad: debido a su menor tamaño, los SLM se pueden desplegar en entornos de computación en la nube on-premises o privados, lo que permite una mejor protección de datos y una mejor gestión y mitigación de las amenazas de ciberseguridad. Esto puede ser especialmente valioso para sectores, como las finanzas o la atención médica, donde tanto la privacidad como la seguridad son primordiales.
Menor latencia: menos parámetros se traducen en menores tiempos de procesamiento, lo que permite a los SLM responder rápidamente. Por ejemplo, Granite 3.0 1B-A400M y Granite 3.0 3B-A800M tienen un recuento total de parámetros de 1000 millones y 3000 millones, respectivamente, mientras que sus recuentos de parámetros activos en la inferencia son 400 millones para el modelo 1B y 800 millones para el modelo 3B. Esto permite que ambos SLM minimicen la latencia y, al mismo tiempo, ofrezcan un alto rendimiento de inferencia.
Más sustentables desde el punto de vista ambiental: debido a que requieren menos recursos computacionales, los modelos de lenguaje pequeño consumen menos energía, lo que reduce su huella de carbono.
Costo reducido: las organizaciones pueden ahorrar en desarrollo, infraestructura y gastos operacionales, como adquirir grandes cantidades de datos de entrenamiento de alta calidad y usar hardware avanzado, que de otro modo serían necesarios para ejecutar modelos masivos.