El director ejecutivo (CEO) de OpenAI, Sam Altman, ha reavivado uno de los debates favoritos del mundo tecnológico: si pronto veremos o no el advenimiento de la IA superinteligente. En una reciente entrada en el blog, escribió que tal sistema, superando las capacidades cognitivas humanas, podría emerger en “unos pocos miles de días”, dando paso a una revolución en el progreso global.
Las reflexiones de Altman sobre los sistemas de inteligencia artificial altamente avanzados han provocado una oleada de respuestas de investigadores y observadores de la industria. A medida que la capacidad de la IA para superar a los humanos en diversas áreas se convierte en un tema candente, la comunidad tecnológica se hace una pregunta importante: ¿cuándo podría ocurrir este cambio y qué podría significar para la humanidad?
A la vez provocador y especulativo, el artículo de Altman sirve como una prueba de Rorschach para las esperanzas y preocupaciones de la industria sobre la trayectoria de la IA.
Si bien nadie niega que la IA está avanzando rápidamente, algunos observadores dicen que no estamos ni cerca de la superinteligencia.
"Es totalmente exagerado", dijo Brent Smolinski, vicepresidente y director global de tecnología y estrategia de datos de IBM. "No Think que estemos en el código postal correcto para llegar a la superinteligencia".
A pesar de los impresionantes avances en ciertas áreas, la IA todavía carece de elementos fundamentales de inteligencia similar a la humana, según Smolinski. "Falta algo fundamental que nos llevará a la superinteligencia", dice.
Un problema clave es la brecha de eficiencia entre el aprendizaje humano y machine learning. Smolinski contrasta la IA y los procesos de aprendizaje humano: “Para estos grandes modelos de lenguaje, para aprender a dialogar, hay que alimentarlo con todo el corpus de Internet para llegar al punto en el que se pueda interactuar con él. Los seres humanos [necesitan] una pequeña astilla”.
La IA también está lejos de lograr el tipo de versatilidad que los humanos demuestran al aprender diversas habilidades, desde el lenguaje hasta tareas físicas como jugar al golf o conducir un automóvil. Esta versatilidad representa una diferencia fundamental entre la inteligencia humana y las capacidades actuales de IA.
Smolinski describe varios elementos de la verdadera superinteligencia: habilidades de razonamiento inductivo y deductivo, creatividad, representación del conocimiento a través de modelos mentales, aprendizaje y adaptación en tiempo real, y conciencia.
En el campo de la IA, quantum podría hacer la dirección de algunas limitaciones computacionales, potencialmente "empujando los límites de lo que la IA podría hacer", dice Smolinski. Pero el impacto de quantum en el logro de una verdadera superinteligencia sigue siendo incierto.
Otra cuestión que Smolinski destacó es la necesidad de una definición clara y consensuada de superinteligencia. "Si llegas a una sala de seis informáticos y les preguntas qué significa superinteligencia, obtendrás 12 respuestas diferentes", dice Smolinski.
Altman no está solo en sus predicciones sobre la superinteligencia. Roman V. Yampolskiy, profesor de Ciencias de la Computación e Ingeniería en la Universidad de Louisville, dijo que la inteligencia artificial general, a menudo descrita como computación similar a la inteligencia a nivel humano, está progresando rápidamente "y poco después la superinteligencia está ocurriendo en 3-4 años .”
Yampolskiy advierte que una vez que la inteligencia artificial supere la inteligencia a nivel humano, puede ser prácticamente imposible mantener el control sobre dicho sistema. Esta IA superinteligente podría operar de maneras fundamentalmente impredecibles y más allá de nuestra capacidad de gestión o restricción. Esta falta de control, combinada con la posibilidad de que un sistema superinteligente no comparta o priorice los valores humanos, podría conducir a escenarios que amenacen la existencia de la humanidad, dice el investigador.
"En comparación, todas las preocupaciones inmediatas, como el sesgo, el desempleo, los deepfakes y la desinformación, son triviales en términos de [este] impacto negativo", dice.
La conciencia es un punto de fricción particular en las discusiones sobre superinteligencia: ¿necesitarían las máquinas superinteligentes ser conscientes para superarnos? Según Smolinski, la verdadera superinteligencia requeriría no solo poder computacional, sino también alguna forma de conciencización o autoconciencia, características de las que carecen los sistemas de IA actuales.
Los modelos de IA destacan por su creatividad combinatoria, ya que combinan ideas existentes de formas novedosas. Pero necesitan ayuda con saltos verdaderamente transformadores. Smolinski plantea la hipótesis de que este tipo de creatividad transformadora puede estar vinculada a la conciencia de maneras poco entendidas.
Como resultado, a Smolinski le preocupan los temores exagerados que rodean a la IA.
"Lo que me preocupa es que esto alimenta un poco este miedo, lo que lleva a cosas como, 'Oh, tenemos que regular el AI'", dice Smolinski. Si bien la regulación es importante, podría proteger a los actores establecidos al tiempo que crea barreras para los nuevos participantes, lo que podría obstaculizar el progreso.
Smolinski ofrece una reflexión final, enfatizando la importancia de mantener una perspectiva equilibrada sobre el desarrollo de la IA: “La IA es una herramienta poderosa que puede ayudarnos a resolver problemas complejos. Pero debemos abordar su desarrollo con cuidado, entendiendo claramente sus limitaciones actuales y posibilidades futuras”.