El CEO de OpenAI, Sam Altman, ha reavivado uno de los debates favoritos del mundo tecnológico: si pronto veremos la llegada de la IA superinteligente. En una reciente entrada de blog, escribió que un sistema de este tipo, que supere las capacidades cognitivas humanas, podría surgir en "unos pocos miles de días", marcando el comienzo de una revolución en el progreso global.
Las reflexiones de Altman sobre sistemas de inteligencia artificial altamente avanzados han provocado una avalancha de respuestas de investigadores y observadores del sector. A medida que la capacidad de la IA para superar a los humanos en diversas áreas se convierte en un tema candente, la comunidad tecnológica se hace una pregunta importante: ¿cuándo podría producirse este cambio y qué podría significar para la humanidad?
El post de Altman, a la vez provocativo y especulativo, sirve como prueba de Rorschach para las esperanzas y preocupaciones de los sectores sobre la trayectoria de la IA.
Aunque nadie niega que la IA avanza rápidamente, algunos observadores dicen que no estamos ni cerca de la superinteligencia.
"Es totalmente exagerado", dijo Brent Smolinski, vicepresidente y director global de tecnología y estrategia de datos de IBM. "No creo que estemos ni siquiera cerca de llegar a la superinteligencia".
Según Smolinski, a pesar de los impresionantes avances en ciertas áreas, la IA todavía carece de elementos fundamentales de inteligencia similar a la humana. "Falta algo fundamental para que lleguemos a la superinteligencia", afirma.
Una cuestión clave es la brecha de eficiencia entre el ser humano y el aprendizaje automático. Smolinski contrasta la IA y los procesos de aprendizaje humano: "Para que estos grandes modelos de lenguaje aprendan a dialogar, hay que alimentarlos con todo el corpus de Internet para llegar al punto en el que se pueda interactuar con él. Los seres humanos [necesitan] una pequeña porción".
La IA también está lejos de alcanzar la versatilidad que demuestran los humanos al aprender habilidades diversas, desde el lenguaje hasta tareas físicas, como jugar al golf o conducir un coche. Esta versatilidad representa una diferencia fundamental entre la inteligencia humana y las capacidades actuales de la IA.
Smolinski describe varios elementos de la verdadera superinteligencia: habilidades de razonamiento inductivo y deductivo, creatividad, representación del conocimiento a través de modelos mentales, conciencia y aprendizaje y adaptación en tiempo real.
En el campo de la IA, la computación cuántica podría abordar algunas limitaciones computacionales, pudiendo "ampliar los límites de lo que la IA podría hacer", dice Smolinski. Pero el impacto de la computación cuántica en la consecución de una verdadera superinteligencia sigue siendo incierto.
Otra cuestión que Smolinski destacó es la necesidad de una definición clara y consensuada de superinteligencia. "Si llegas a una sala de seis informáticos y les preguntas qué significa superinteligencia, obtendrás 12 respuestas diferentes", dice Smolinski.
Altman no está solo en sus predicciones sobre la superinteligencia. Roman V. Yampolskiy, profesor de Ciencia Computacional e Ingeniería en la Universidad de Louisville, dijo que la inteligencia artificial general, a menudo descrita como una computación similar a la inteligencia a nivel humano, está progresando rápidamente "y dentro de poco la superinteligencia ocurrirá en 3-4 años”.
Yampolskiy advierte que una vez que la inteligencia artificial supere la inteligencia a nivel humano, puede resultar prácticamente imposible mantener el control sobre dicho sistema. Esta IA superinteligente podría funcionar de formas que son fundamentalmente impredecibles y que van más allá de nuestra capacidad de gestionarlas o limitarlas. Esta falta de control, combinada con la posibilidad de que un sistema superinteligente no comparta o priorice los valores humanos, podría dar lugar a escenarios que amenacen la existencia de la humanidad, afirma el investigador.
"En comparación, todas las preocupaciones inmediatas, como el sesgo, el desempleo, los deepfakes y la desinformación, son triviales en comparación con [este] impacto negativo", afirma.
La consciencia es un punto de fricción particular en las discusiones sobre superinteligencia: ¿necesitarían las máquinas superinteligentes ser conscientes para superarnos? Según Smolinski, la verdadera superinteligencia requeriría no solo poder computacional, sino también alguna forma de conciencia o autoconciencia—características de las que los sistemas de IA actuales carecen.
Los modelos de IA destacan por su creatividad combinatoria, combinando ideas existentes de formas nuevas. Pero necesitan ayuda para dar saltos verdaderamente transformadores. Smolinski plantea la hipótesis de que este tipo de creatividad transformadora puede estar vinculada a la consciencia de formas poco entendidas.
Como resultado, a Smolinski le preocupan los temores exagerados en torno a la IA.
«Lo que me preocupa es que esto alimente un poco este alarmismo, lo que lleva a cosas como: "Oh, tenemos que regular la IA"», dice Smolinski. Si bien la regulación es importante, podría proteger a los participantes establecidos mientras que crearía barreras para los nuevos participantes, lo que podría obstaculizar el progreso.
Smolinski hace una reflexión final e incide en la importancia de mantener una perspectiva equilibrada sobre el desarrollo de la IA: "La IA es una herramienta poderosa que puede ayudarnos a resolver problemas complejos. Pero tenemos que abordar su desarrollo con cuidado, comprendiendo de manera clara sus limitaciones actuales y posibilidades futuras".