"Más grande" no siempre significa "mejor", y lo que a los SLM les falta en tamaño, lo compensan con estas ventajas:
Accesibilidad: los investigadores, desarrolladores de IA y otras personas pueden explorar y experimentar con modelos de lenguaje sin tener que invertir en múltiples GPU (unidades de procesamiento gráfico) u otros equipos especializados.
Eficiencia: la ligereza de los SLM hace que requieran menos recursos, lo que permite un entrenamiento y una implementación rápidos.
Rendimiento efectivo: esta eficiencia no se produce a costa del rendimiento. Los modelos pequeños pueden tener un rendimiento comparable o incluso mejor que sus equivalentes de modelos grandes. Por ejemplo, GPT-4o mini supera a GPT-3.5 Turbo en comprensión del lenguaje, respuesta a preguntas, razonamiento, razonamiento matemático y referencias de LLM de generación de código.10 El rendimiento de GPT-4o mini también está cerca del de su hermano mayor, GPT-4o.10
Mayor control de la privacidad y la seguridad: debido a su menor tamaño, los SLM pueden ser implementados en entornos privados de cloud computing o en entornos locales, lo que permite una mejor protección de los datos y una mejor gestión y mitigación de las amenazas a la ciberseguridad. Esto puede ser especialmente valioso para sectores como el financiero o el sanitario, donde tanto la privacidad como la seguridad son primordiales.
Menor latencia: un menor número de parámetros se traduce en tiempos de procesamiento más cortos, lo que permite a los SLM responder con rapidez. Por ejemplo, Granite 3.0 1B-A400M y Granite 3.0 3B-A800M tienen un recuento total de parámetros de 1000 millones y 3000 millones, respectivamente, mientras que sus recuentos de parámetros activos en la inferencia son 400 millones para el modelo 1B y 800 millones para el modelo 3B. Esto permite que ambos SLM minimicen la latencia y ofrezcan un alto rendimiento de inferencia.
Más sostenibles desde el punto de vista medioambiental: debido a que requieren menos recursos computacionales, los modelos de lenguaje pequeños consumen menos energía, lo que reduce su huella de carbono.
Reducción de costes: las organizaciones pueden ahorrar en gastos de desarrollo, infraestructura y funcionamiento (como la adquisición de enormes cantidades de datos de entrenamiento de alta calidad y el uso de hardware avanzado) que de otro modo serían necesarios para ejecutar modelos masivos.