Los nuevos modelos de OpenAI desglosan tareas complejas

Una foto de un joven escribiendo en una pizarra mientras los estudiantes miran

Los últimos modelos de o1-preview de OpenAI abordan problemas complejos dividiéndolos en etapas, lo que podría cambiar la forma en que las industrias abordan los desafíos.

Este enfoque, conocido como razonamiento de cadena de pensamiento, marca un cambio significativo con respecto a los modelos de IA anteriores que a menudo producían respuestas sin explicar su razonamiento. Estos avances podrían remodelar la forma en que las empresas y los investigadores abordan tareas complejas de resolución de problemas.

“Estos modelos son mejores en tareas que requieren más lógica y razonamiento porque toman tiempo para pensar en el problema”, dijo Chris Hay, ingeniero distinguido de IBM. "Es como si estuvieran mostrando su trabajo, paso a paso".

Razonamiento en la cadena de pensamiento

El enfoque de la cadena de pensamiento permite a los usuarios ver cómo la IA llega a sus conclusiones. Hay explicó el proceso: “Si le pregunta a un niño, por ejemplo, cuánto es 25 por 10 más cinco, hay tres pasos allí. Es posible que simplemente arroje esa respuesta borrosa. Pero usted dice que no necesita desglosar esto... es como en la escuela, está mostrando su trabajo”.

Nathalie Baracaldo, científica investigadora sénior de seguridad de IA de IBM, enfatizó la importancia de este desarrollo: “La principal diferencia está relacionada con cómo podemos saber cómo el modelo llegó a una decisión. Tenemos explicaciones sobre lo que hizo el agente que son muy útiles para comprender por qué sucedió algo”.

Este nivel de transparencia podría tener implicaciones de gran alcance en varias industrias. En el desarrollo de software, por ejemplo, los modelos muestran una mejora en las habilidades de programación con menos errores. Hay señaló: "Están programando mejor y alucinando menos", refiriéndose a los casos en los que la IA produce información plausible, pero incorrecta.

Los nuevos modelos también incorporan el aprendizaje por refuerzo en su proceso de entrenamiento. Hay explicó: “También han cambiado la forma en que se entrenan en los modelos base. Hablan de cómo están utilizando el aprendizaje por refuerzo para enseñar y entrenar esos modelos".

Colaboración entre humanos e IA

El uso más eficaz de estos modelos avanzados de IA probablemente implicará una colaboración entre la experiencia humana y las capacidades de las máquinas. "El humano siempre tendrá que proporcionar información, estar de acuerdo con la planificación y verificar estas cosas", dijo Hay.

Hay advirtió contra la sobrestimación de las capacidades de los modelos: “Creo que se pueden obtener excelentes resultados. Creo que cuando la gente oye las palabras AGI, piensa en esa gran cabeza palpitante en la nube... de hecho, si pienso en ello, los modelos, tal y como son, con su próxima predicción de token, buenos datos de entrenamiento y su planeación, etc., hacen un trabajo bastante bueno, mejor que los humanos en bastantes tareas”.

El desarrollo de estos modelos plantea preguntas sobre la naturaleza de la inteligencia artificial y su comparación con la cognición humana. Los nuevos modelos han demostrado una destreza notable en ciertas áreas, superando a los humanos en pruebas estandarizadas como el examen de abogacía y SAT. Sin embargo, todavía tienen dificultades con tareas que la mayoría de los humanos encuentran intuitivas.

Hay señaló que los modelos pueden tener dificultades con tareas que los humanos encuentran simples: “El modelo sobresale en tareas específicas individuales. Sin embargo, actualmente tiene dificultades para distinguir entre diferentes partes de una conversación. Esto genera confusión en su capacidad para manejar múltiples conceptos simultáneamente. El modelo enfatiza demasiado el contexto, a menudo considerando demasiada información irrelevante al procesar solicitudes”.

Baracaldo agregó una nota de precaución: “Aunque este modelo es súper impresionante, a veces comete errores. Y si leemos el informe técnico, a veces crea soluciones que un verdadero experto, un ser humano, consideraría inviables, pero el modelo no conoce todas las hipótesis”.

Las implicaciones de estos avances se extienden más allá de la industria tecnológica. En la investigación y el mundo académico, podrían acelerar el ritmo del descubrimiento al ayudar en el análisis de datos complejos y la generación de hipótesis. En campos como la medicina y el derecho, podrían servir como herramientas para aumentar la experiencia humana, lo que podría conducir a diagnósticos más precisos o análisis legales más completos.

Hay resumió el valor práctico de los nuevos modelos para las empresas: “Son mucho mejores codificadores de lo que eran antes”.

 
Vista aérea de un hombre en un banco

Insights que no puede perderse. Suscríbase a nuestros boletines.

Vaya más allá del despliegue publicitario con las novedades de los expertos en IA, computación cuántica, nube, seguridad y mucho más.

Suscríbase hoy