8 minutos
La inteligencia artificial (IA) de código abierto es la palabra de moda del momento, impulsada por el reciente lanzamiento de modelos de lenguaje de gran tamaño (LLM) de bajo costo como DeepSeek-1 y la creciente importancia de los modelos abiertos, como Llama y Mistral AI.
Estos avances atraen la atención del público, pero las compañías se plantean una cuestión importante: ¿Cómo podemos convertir esta expectación en valor empresarial tangible?
Las tecnologías de código abierto como Linux y Kubernetes han sido durante mucho tiempo la columna vertebral de los sistemas críticos, proporcionando transparencia, estabilidad y seguridad. Su naturaleza colaborativa fomenta la innovación rápida, que ha sido vital para la evolución de los modelos avanzados de IA, incluida la IA generativa. Sin embargo, el verdadero potencial empresarial radica en combinar la IA de código abierto y los entornos híbridos multinube. Esta poderosa combinación proporciona a las empresas lo siguiente:
Un estudio de IBM revela que el 62 % de las organizaciones planean aumentar sus inversiones en IA en 2025, y casi la mitad se centra en aprovechar las herramientas de código abierto para sus iniciativas de IA.
“Estamos diseñando IA para multinubes”, dice Shobhit Varshney, vicepresidente y socio sénior, líder de IA, datos y automatización en IBM. "Esto significa que necesitamos una única capa de automatización, FinOps y seguridad y gobernanza que abarque todas las nubes".
Evitar el vendor lock-in (dependencia de proveedores) es fundamental para las empresas, y la IA de código abierto se adapta naturalmente a un modelo multinube híbrido. Permite a las empresas integrar modelos de IA patentados, como AWS SageMaker o Google Vertex AI, con modelos abiertos como Granite de IBM . La serie de modelos Granite de IBM, de código abierto bajo Apache 2.0, se diseñó para la integración en entornos multinube híbridos, lo que brinda a las organizaciones más libertad y control sobre el despliegue y la gestión de modelos de IA en diferentes plataformas.
"Cualquier cosa que le permita gestionar el modelo en su infraestructura funciona bien con el diseño híbrido por diseño", explica Varshnay, "especialmente cuando los sistemas están diseñados para funcionar perfectamente en múltiples entornos de computación en la nube e infraestructuras de TI on-premises desde el principio".
Esta infraestructura híbrida por diseño garantiza que los modelos de IA puedan moverse libremente a través de las nubes, lo que permite a las empresas elegir el mejor entorno para sus necesidades.
Los modelos de IA de código abierto ofrecen una flexibilidad inigualable, especialmente al escalar y desplegar modelos en la infraestructura de una organización. Si bien las plataformas de terceros, como Claude de Anthropic o ChatGPT de OpenAI, son fáciles de desplegar, a menudo bloquean a las empresas en ecosistemas específicos con una personalización limitada. Por el contrario, los modelos de código abierto dan a las organizaciones un control total, lo que les permite crear soluciones personalizadas que satisfagan necesidades comerciales únicas.
Esta flexibilidad es esencial para las empresas que operan en múltiples entornos de nube. Por ejemplo, una empresa que utiliza AWS para el almacenamiento puede querer desplegar un modelo de Google u OpenAI. Sin embargo, los modelos patentados a menudo tienen limitaciones en la compatibilidad entre nubes. Los modelos de código abierto se integran perfectamente en varias plataformas, lo que permite a las empresas elegir el mejor proveedor de la nube sin comprometer la coherencia o el cumplimiento.
El autoalojamiento de modelos de IA de código abierto garantiza que los datos confidenciales permanezcan dentro de la infraestructura de TI segura de una organización, lo que resulta esencial para las compañías con estrictos requisitos de privacidad. Al evitar los servidores de terceros, las compañías mantienen el control sobre sus datos y reducen los riesgos relacionados con el tratamiento de datos externos, especialmente cuando se trata de cuestiones de seguridad internacional.
Otra ventaja crítica de seguridad de los modelos de código abierto es la capacidad de controlar la integridad de los propios modelos. La investigación de Anthropic ha puesto de relieve los riesgos potenciales de la manipulación de código o las vulnerabilidades incrustadas en los modelos de IA. Los actores maliciosos podrían introducir amenazas ocultas incluso con proveedores confiables como Meta o Google.
Los modelos de código abierto y autohospedados mitigan estos riesgos al permitir que las organizaciones inspeccionen, validen y modifiquen el código, lo que garantiza una mayor transparencia y seguridad.
"Con el código abierto, usted controla su destino", dice Varshney. "Sabes qué hay detrás del modelo, cómo se entrena y lo alojas en un entorno de confianza".
Más allá de la flexibilidad, la capacidad de ajustar los modelos de IA de código abierto cambia las reglas del juego. El refinamiento permite a las empresas adaptar los modelos para cumplir con los requisitos específicos de la industria, lo que los hace aún más valiosos. Por ejemplo, ajustar modelos de código abierto como Llama o Granite en industrias como la atención médica o las telecomunicaciones ayuda a las empresas a agregar conocimientos específicos del dominio, mejorando la precisión y el rendimiento del modelo.
A diferencia de los modelos propietarios, donde el ajuste a menudo requiere enviar datos propietarios a los servidores del proveedor, los modelos de código abierto permiten a las compañías mantener un control total sobre sus procesos de personalización.
Varshney explica: “Si uno toma un modelo pequeño, como un modelo Granite, puede agregar un adaptador que entienda mi terminología empresarial. Por ejemplo, la terminología de atención médica difiere de la de telecomunicaciones, por lo que puedo ajustar el modelo para comprender mejor y servir a ese dominio único”.
El ajuste de los modelos de código abierto en la infraestructura interna proporciona importantes beneficios de rendimiento, especialmente cuando los modelos más pequeños se ajustan con datos patentados.
“Si está ajustando un modelo más pequeño con sus datos patentados, superará a un modelo más grande y sin ajustar”, dice Varshney. "Esto crea una ventaja de costo-rendimiento, ya que los modelos más pequeños y ajustados son más eficientes y efectivos para sus casos de uso específicos".
Por ejemplo, los Resultados de prueba de concepto de los modelos IBM Granite muestran que la combinación de un modelo pequeño de Granite con datos empresariales logra un rendimiento específico de la tarea a una fracción del costo, de 3 a 23 veces más barato que los modelos de frontera grandes, al tiempo que supera o iguala a los competidores del mismo tamaño en puntos de referencia clave.
Esta capacidad es particularmente ventajosa en escenarios de computación perimetral, donde los modelos más pequeños y ajustados, como Granite, permiten el procesamiento en tiempo real en dispositivos con potencia computacional limitada, lo que elimina la necesidad de infraestructura en la nube.
"Se puede poner un modelo pequeño en un dispositivo IoT remoto y desbloquear casos de uso que antes no podíamos", agrega Varshney.
Este enfoque ofrece ahorros de costos y capacidades mejoradas, especialmente para entornos remotos o con recursos limitados.
La naturaleza colaborativa de la IA de código abierto acelera su ritmo de innovación. Con contribuciones de una comunidad global de desarrolladores, estos modelos evolucionan rápidamente y se mantienen a la vanguardia del desarrollo de IA. Esta rápida innovación es crucial para las compañías que se esfuerzan por mantener una ventaja competitiva en el escenario impulsado por la IA.
El proyecto InstructLab de IBM, lanzado en asociación con Red Hat, tiene como objetivo democratizar el acceso al ajuste fino de IA, haciendo que la personalización de modelos de lenguaje grande sea más asequible y accesible.
Varshney señala: “La comunidad juega un papel clave en el fortalecimiento de estos modelos, haciéndolos más robustos”.
La convergencia de la IA de código abierto y la multinube híbrida es la estrategia definitiva para las empresas que buscan maximizar sus inversiones en IA. Al integrar modelos de código abierto dentro de una infraestructura flexible multinube, las empresas garantizan que sus soluciones de IA sean escalables, adaptables y optimizadas en cualquier plataforma, desbloqueando un valor comercial significativo.
Un estudio de IBM muestra que el 51 % de las empresas que utilizan IA de código abierto reportan rendimientos positivos, lo que subraya el impacto tangible y medible de este enfoque. Adoptar esta combinación de código abierto y multinube híbrida es clave para impulsar el crecimiento en un futuro impulsado por la IA.
"Lo abierto es el futuro de la IA", dice Varshney.
Al adoptar la IA de código abierto dentro de una infraestructura de multicloud híbrida, las empresas no solo pueden mantenerse por delante de las tendencias emergentes, sino también entregar un valor sostenido en un mundo impulsado por la IA.