La idea no nació en un instante. Surgió lentamente, entre los hilos nocturnos de Slack y las conversaciones en los pasillos, una silenciosa reconsideración de cómo razonan las máquinas. En algún punto entre el caos de la incitación y las aspiraciones de la automatización, tomó forma un nuevo concepto. Podría redefinir no solo la inteligencia artificial, sino también el propio software.
La premisa es audaz: ¿qué pasaría si dejáramos de tratar a los grandes modelos de lenguaje como misteriosos chatbots y empezáramos a tratarlos como una infraestructura programable? IBM se refiere a esta disciplina emergente como computación generativa,un término y marco desarrollado por sus investigadores para definir un nuevo enfoque para trabajar con modelos de IA. Se trata de rediseñar la forma en que los modelos de IA se integran en los sistemas, no como oráculos sino como componentes de software controlados y modulares. Si tiene éxito, podría marcar un punto de inflexión para el desarrollo de la IA, el diseño de software y la tecnología empresarial.
David Cox, director de IBM Research, declaró a IBM Think en una entrevista que él acuñó el término computación generativa para describir el cambio que ve en el desarrollo de la IA. No es ni una marca ni un producto. Es un cambio, un movimiento para tratar los grandes modelos de lenguaje no como compañeros de chat inteligentes, sino como elementos programables. Olvídese de los trucos de magia. Esto es ingeniería de software.
"No es que los LLM estén reemplazando a la programación", dijo. "Es que se están convirtiendo en un nuevo tipo de programación primitiva".
Hoy en día, interactuar con un gran modelo lingüístico a menudo se siente como invocar a un oráculo caprichoso. Si se modifica ligeramente una frase en una instrucción, el resultado se desvía de su curso. Escriba una instrucción de ensayo y espere, ore, engatuse. Es ingenioso en la forma en que la astrología es ingeniosa, esquiva, interpretativa y, en ocasiones, profunda. Pero para bancos, hospitales y gobiernos, el misticismo no escala.
"Escribes algo y obtienes una respuesta diferente dependiendo de cómo lo hayas expresado", dijo Ruchir Puri, científico jefe de la investigación de IBM, en una entrevista con IBM Think. “Es como los primeros días de la búsqueda. Todavía estamos en la era en la que una coma puede cambiar el resultado. No se puede gestionar una empresa de esa manera”.
Puri describe un mundo en el que las empresas luchan no solo con alucinaciones, sino también con la falta de fiabilidad en la forma en que los modelos manejan los Edge casos. “Hablamos mucho de alucinaciones”, dijo, “pero el problema más profundo es que no hay garantía de que los modelos sigan instrucciones. Cambias una palabra en una instrucción y no sabes lo que obtendrás". Argumentó que eso es la antítesis de la ingeniería.
Boletín del sector
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Para ser claros, nadie descarta el poder de los modelos modernos. Lo que está roto, dijo Cox, es la forma cómo los usamos. “La ingeniería rápida no es ingeniería. Es una tontería. Necesitamos un sistema en el que no tengamos que esperar que el modelo haga lo que queríamos y podamos programarlo para que haga lo que queremos decir".
La premisa detrás de la computación generativa es simple: tratar el modelo como una función. En lugar de enterrar las instrucciones en ensayos detallados, los desarrolladores utilizan un tiempo de ejecución, una capa de orquestación que divide las indicaciones en partes atómicas, las dirige, comprueba las condiciones y reescribe los fallos. La lógica no solo está implícita; se aplica. El control se vuelve explícito. La estructura vuelve.
“Think en Internet”, dijo Cox. “No envían datos sin procesar por un cable con la esperanza de que aparezcan. Tienes protocolos, reintentos y enrutamiento. Eso es lo que estamos añadiendo a la IA”. En la práctica, esto significa construir sistemas en capas que desglosen tareas complejas en instrucciones más pequeñas y manejables, cada una de las cuales se verifica antes de continuar. “Podrías tener veinte indicaciones breves y específicas para el modelo en lugar de una sola, larga y compleja”, dijo Puri. “Pero ahora puedes registrar cada una. Puedes intentarlo de nuevo. Puede construir fallbacks. Eso es lo que necesitan las empresas”.
Esa estructura también abre la puerta a las pruebas y la validación, dos principios que han estado ausentes durante mucho tiempo en la IA generativa. "Puede escribir afirmaciones en torno al comportamiento de LLM de la misma manera que lo hace con el código", dijo Cox. "Y si no obtiene el comportamiento que desea, puede pedirle al modelo que lo intente de nuevo o que lo dirija a una subrutina diferente".
Esta idea se vuelve particularmente poderosa cuando se aplica a la seguridad. Puri dice que a menudo recibe noticias de directores de tecnología que aprecian el potencial de los agentes de IA pero se resisten a su imprevisibilidad. “Tienen miedo de dejarles hacer cualquier cosa por su cuenta. ¿Y si alucinan? ¿Qué pasa si envían el mensaje equivocado o aprueban la transacción equivocada?”.
Para responder a eso, la computación generativa introduce herramientas como la detección de alucinaciones, la validación del contexto y el procesamiento consciente del cumplimiento. "Con nuestro tiempo de ejecución", dijo Cox, "puedes interponer un modelo guardián, uno que comprueba el resultado del modelo principal. Si algo parece sospechoso, puede marcarlo o solicitar otro intento”.
Ese tipo de superposición permite un nivel de reproducibilidad y confianza que la ingeniería de prompts actual no puede proporcionar. Los desarrolladores pueden mezclar código tradicional con respuestas LLM, incrustando resultados en sistemas más grandes sin ceder el control.
"No es un chatbot", dijo Cox. "Forma parte de su pila de software. “Lo pruebas como cualquier otro módulo”.
Este momento, dijo Cox, se compara con épocas anteriores de la informática. En la década de 1980, la introducción de patrones de diseño de software, como Model-View-Controller (MVC), permitió a los desarrolladores separar la lógica de la interfaz, creando una base modular y reutilizable para crear aplicaciones. En su opinión, la computación generativa representa un punto de inflexión similar.
“Vamos a encontrar patrones”, dijo. “Así como MVC se volvió omnipresente en el desarrollo de UI, veremos marcos para orquestar LLM. Es el principio de una nueva capa en la pila de software".
Esa visión de la estructura subyace en gran parte del movimiento de la computación generativa. En lugar de intentar entender cada neurona en un gran modelo de lenguaje, los desarrolladores construyen barreras que se alinean con las restricciones empresariales. “Creamos responsabilidad”, dijo Puri.
La transparencia, dijo Cox, no tiene por qué significar simplicidad. “El motor de tu coche es complicado”, dijo. “Pero está construido dentro de una envoltura de seguridad. Cuando algo se rompe, hay procedimientos. Eso es lo que queremos para la IA. No es un misterio. Es ingeniería".
En términos técnicos, eso significa exponer los pasos intermedios de la toma de decisiones de un modelo. El tiempo de ejecución utilizado en la computación generativa puede generar registros, adjuntar metadatos y realizar la validación en cada paso.
"Es la explicación como característica", dijo Cox. "No como una ocurrencia tardía".
Los modelos Granite de IBM ya se han ajustado para admitir este tipo de orquestación modular. Están optimizados para una inferencia rápida y eficiente en memoria, lo que permite realizar muchas consultas pequeñas en lugar de una instrucción. Esto hace que se adapten bien a un enfoque basado en el tiempo de ejecución.
"Puedes pensar en ellos como bloques de construcción", dijo Puri. "En lugar de intentar hacer todo de una vez, les llamamos muchas veces para subtareas específicas. Eso es más rápido, más barato y más fiable”.
Los beneficios no son solo técnicos, sino también organizativos. En un proyecto piloto, un cliente empresarial utilizó la computación generativa para crear una canalización de clasificación de documentos. En lugar de basarse en una sola instrucción para resumir un informe legal, dividieron la tarea en nueve etapas: clasificación, segmentación, extracción, validación, evaluación de riesgos, resumen, formato, revisión y aprobación.
"Cada etapa fue aislada y monitorizada", dijo Cox. "Si algo fallaba, se podía reintentar o corregir. Eso no se podría hacer con una sola instrucción.”
Puri cree que este tipo de estructura se convertirá en la norma. "Dejaremos de pensar en los LLM como magia integral y empezaremos a tratarlos como infraestructura", dijo. "No se trata de reemplazar a los desarrolladores. Se trata de darles nuevas herramientas”.
Una de esas herramientas, señaló Cox, es la LLM intrínseca., un nuevo concepto donde las funciones de modelo especiales se exponen directamente al tiempo de ejecución, lo que permite una integración más profunda y una adaptación en tiempo real. “Puedes conectar un adaptador que cambie el comportamiento del modelo”, dijo. “Eso permite cambiar el tono, reducir el riesgo e incluso detectar alucinaciones sobre la marcha”.
Estos avances podrían cambiar la forma en que se escribe el software. Cox imagina IDEs que incluyen plantillas de orquestación en tiempo de ejecución para LLMs, pruebas unitarias que validan instrucciones y sistemas de control de versiones que rastrean el comportamiento del modelo.
"Los ingenieros de software tendrán que aprender nuevas habilidades", dijo. "Pero los fundamentos siguen ahí: entradas, salidas, corrección, observabilidad. No vamos a abandonar la ingeniería de software. La vamos a mejorar".
Los investigadores prevén que la computación generativa se extenderá más allá de sus casos de uso actuales. A medida que el campo madure, surgirán nuevas capas de abstracción, nuevas normas y nuevas funciones laborales.
Pausa por un momento. "Hemos pasado una década aprendiendo cómo hacer que estos sistemas suenen inteligentes", dijo. "Ahora tenemos que enseñarles cómo comportarse".
Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.
Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.
Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.