El futuro es programable: cómo la computación generativa podría reinventar el software

Muro de servidores en IBM Investigación en Yorktown Heights

La idea no nació en un instante. Surgió lentamente, a través de hilos de Slack nocturnos y conversaciones en los pasillos, un replanteamiento silencioso de cómo razonan las máquinas. En algún lugar entre el caos de las instrucciones y las aspiraciones de automatización, tomó forma un nuevo concepto. Podría redefinir no solo la inteligencia artificial, sino también el software en sí.

La premisa es audaz: ¿qué pasaría si dejáramos de tratar los modelos de lenguaje de gran tamaño como misteriosos chatbots y empezáramos a tratarlos como una infraestructura programable? IBM se refiere a esta disciplina emergente como computación generativa—un término y marco desarrollado por sus investigadores para definir un nuevo enfoque para trabajar con modelos de IA. Se trata de rediseñar la forma en que los modelos de IA se integran en los sistemas, no como oráculos impredecibles, sino como componentes de software modulares y controlados. Si tiene éxito, podría marcar un punto de inflexión para el desarrollo de la IA, el diseño de software y la tecnología empresarial.

David Cox, director de investigaciones de IBM, declaró a IBM Think en una entrevista que él acuñó el término computación generativa para describir el cambio que ve en el desarrollo de la IA. No es ni una marca ni un producto. Se trata de un cambio, un movimiento para tratar los grandes modelos de lenguaje no como interlocutores inteligentes, sino como elementos programables. Olvídese de los trucos de magia. Esto es ingeniería de software.

"No es que los LLM estén reemplazando la programación", dijo. "Es que se están convirtiendo en un nuevo tipo de programación primitiva".

Hoy en día, interactuar con un gran modelo de lenguaje a menudo se siente como invocar a un oracle caprichoso. Si se modifica ligeramente una oración en una instrucción, el resultado se desvía de su curso. Escriba una instrucción de ensayo y espere, ore, engatuse. Es ingenioso en la forma en que la astrología es ingeniosa, escurridiza, interpretativa y, en ocasiones, profunda. Pero para bancos, hospitales y gobiernos, el misticismo no escala.

"Escribes algo y obtienes una respuesta diferente dependiendo de cómo lo hayas expresado", dijo Ruchir Puri, científico jefe de la investigación de IBM, en una entrevista con IBM Think. “Es como los primeros días de la búsqueda. Todavía estamos en la era en la que una coma puede cambiar la salida. No se puede dirigir una empresa de esa manera”.

Puri describe un mundo en el que las empresas luchan no solo con alucinaciones, sino también con la falta de confiabilidad en la forma en que los modelos manejan los casos extremos. “Hablamos mucho de alucinaciones”, dijo, “pero el tema más profundo es que no se garantiza que los modelos sigan instrucciones. Cambias una palabra en una instrucción y no sabes lo que obtendrás”. Eso, argumentó, es la antítesis de la ingeniería.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

De las instrucciones a la programación

Para ser claros, nadie está descartando el poder de los modelos modernos. Lo que está roto, dijo Cox, es la forma en que los usamos. “La ingeniería rápida no es ingeniería. Es una tontería. Necesitamos un sistema en el que no tengamos que esperar que el modelo haga lo que queremos y podamos programarlo para que haga lo que queremos”.

La premisa detrás de la computación generativa es simple: tratar el modelo como una función. En lugar de ocultar las instrucciones en ensayos prolijos, los desarrolladores utilizan un tiempo de ejecución, una capa de orquestación que divide las indicaciones en partes atómicas, las enruta, comprueba las condiciones y reescribe los fallos. La lógica no solo está implícita; se aplica. El control se vuelve explícito. Retornos de la estructura.

“Piensa en internet”, dijo Cox. “No envías datos sin procesar por cable y esperas que se muestre. Tienes protocolos, reintentar y enrutamiento. Eso es lo que estamos agregando a la IA”. En la práctica, esto significa construir sistemas en capas que desglosen tareas complejas en instrucciones más pequeñas y manejables, cada una de las cuales se verifica antes de continuar. “Es posible que tenga veinte instrucciones pequeñas y enfocadas para el modelo en lugar de una sola larga y compleja”, dijo Puri. “Pero ahora puedes registrar cada uno. Puede volver a intentarlo. Puede crear alternativas. Eso es lo que necesitan las empresas”.

Esa estructura también abre la puerta a las pruebas y la validación, dos principios que han estado ausentes durante mucho tiempo en la IA generativa. "Puede escribir afirmaciones sobre el comportamiento de LLM de la misma manera que lo hace con el código", dijo Cox. “Y si no obtiene el comportamiento que desea, puede pedirle al modelo que vuelva a intentarlo, o enrutar a una subrutina diferente”.

Esta idea se vuelve particularmente poderosa cuando se aplica a la seguridad. Puri dice que a menudo escucha a los Directores de tecnología a quienes les gusta el potencial de los agentes de IA, pero se resisten a su imprevisibilidad. “Tienen miedo de dejar que hagan cualquier cosa por su cuenta. ¿Y si alucinan? ¿Qué pasa si envían el mensaje equivocado o aprueban la transacción equivocada?”

Para responder a eso, la computación generativa introduce herramientas como la detección de alucinaciones, la validación de contexto y el procesamiento consciente del cumplimiento. “Con nuestro tiempo de ejecución”, dijo Cox, “se puede interponer un modelo guardián, uno que compruebe los resultados del modelo principal. Si algo parece sospechoso, puede marcarlo o solicitar otro intento”.

Ese tipo de capas permite un nivel de reproducibilidad y confianza que la ingeniería rápida actual no puede proporcionar. Los desarrolladores pueden mezclar código tradicional con respuestas LLM, incorporando los resultados en sistemas más grandes sin ceder el control.

“No es un chatbot”, dijo Cox. “Es parte de su pila de software. Se prueba igual que cualquier otro módulo.

Un proyecto técnico de comportamiento para las máquinas

Este momento, dijo Cox, se compara con épocas anteriores en la informática. En la década de 1980, la introducción de patrones de diseño de software, como Model-View-Controller (MVC), permitió a los desarrolladores separar la lógica de la interfaz, creando una base modular y reutilizable para crear aplicaciones. La computación generativa, en su opinión, representa un punto de inflexión similar.

“Vamos a encontrar patrones”, dijo. “Al igual que MVC se volvió omnipresente en el desarrollo de la interfaz de usuario (IU), veremos infraestructuras para orquestar LLM. Este es el comienzo de una nueva capa en la pila de software”.

Esa visión de la estructura subyace en gran parte del movimiento de la computación generativa. En lugar de intentar comprender cada neurona de un gran modelo lingüístico, los desarrolladores crean barreras de protección que se ajustan a las limitaciones de la empresa. “Creamos responsabilidad”, dijo Puri.

La transparencia, dijo Cox, no tiene por qué significar simplicidad. “El motor de tu auto es complicado”, dijo. “Pero está construido dentro de un sobre de seguridad. Cuando algo se rompe, hay procedimientos. Eso es lo que queremos para la IA. No es misterio. Ingeniería.”

En términos técnicos, eso significa exponer los pasos intermedios de la toma de decisiones de un modelo. El tiempo de ejecución utilizado en la computación generativa puede generar registros, adjuntar metadatos y realizar validaciones en cada paso.

“Es la explicación como característica”, dijo Cox. “No como una idea tardía”.

Los modelos Granite de IBM ya se han ajustado para admitir este tipo de orquestación modular. Están optimizados para una inferencia rápida y eficiente en memoria, lo que permite muchas consultas pequeñas en lugar de una instrucción masiva. Esto los hace adecuados para un enfoque basado en el tiempo de ejecución.

“Puedes Think en ellos como bloques de construcción”, dijo Puri. “En lugar de intentar hacer todo de una vez, los llamamos muchas veces para subtareas específicas. Eso es más rápido, más barato y más confiable”.

Los beneficios no solo son técnicos sino también organizativos. En un proyecto piloto, un cliente empresarial utilizó computación generativa para crear un pipeline de clasificación de documentos. En lugar de basar en una sola instrucción para resumir un reporte legal, dividieron la tarea en nueve etapas: clasificación, segmentación, extracción, validación, evaluación, resumen, formato, comentarios y aprobación.

“Cada etapa fue aislada y monitoreada”, dijo Cox. “Si algo fallaba, se podía reintentar o corregir. No podrías hacerlo con una sola instrucción.”

Puri cree que este tipo de estructura se convertirá en la norma. “Dejaremos de pensar en los LLM como magia de extremo a extremo y comenzaremos a tratarlos como infraestructura”, dijo. “No se trata de reemplazar a los desarrolladores. Se trata de darles nuevas herramientas”.

Una de esas herramientas, señaló Cox, es el LLM intrínseco, un nuevo concepto en el que las funciones especiales del modelo se exponen directamente al tiempo de ejecución, lo que permite una integración más profunda y una adaptación en tiempo real. "Puede conectar un adaptador que cambie el comportamiento del modelo", dijo. “Eso te permite cambiar de tono, reducir el riesgo, incluso detectar alucinaciones sobre la marcha”.

Estos avances podrían cambiar la forma en que se escribe el software. Cox imagina IDEs que incluyen plantillas de orquestación en tiempo de ejecución para LLMs, pruebas unitarias que validan instrucciones y sistemas de control de versiones que rastrean el comportamiento del modelo.

“Los ingenieros de software tendrán que aprender nuevas habilidades”, dijo. “Pero los fundamentos siguen ahí: entradas, salidas, corrección, observabilidad. No vamos a abandonar la ingeniería de software. Lo estamos actualizando.

Los investigadores anticipan que la computación generativa se extenderá más allá de sus casos de uso de nicho actuales. A medida que el campo madure, surgirán nuevas capas de abstracción, nuevos estándares y nuevos roles laborales.

Él hace una pausa por un momento. “Hemos pasado una década aprendiendo cómo hacer que estos sistemas suenen inteligentes”, dijo. “Ahora tenemos que enseñarles cómo comportarse”.

AI Academy

Desde las pruebas piloto hasta la producción: generar ROI con IA generativa

Aprenda cómo su organización puede aprovechar el poder de las soluciones impulsadas por IA a escala para reinventar y transformar su negocio de formas que realmente marquen la diferencia.

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo