La inteligencia artificial sensible se define teóricamente como máquinas autoconscientes que pueden actuar de acuerdo con sus propios pensamientos, emociones y motivos. A día de hoy, los expertos coinciden en que la IA no es lo suficientemente compleja como para ser sensible.
Desde que se inventaron los ordenadores, los científicos han desarrollado puntos de referencia, como el Test de Turing, destinados a evaluar la "inteligencia" de las máquinas. Poco después, los debates sobre la inteligencia de las máquinas dieron paso a las deliberaciones sobre su conciencia o sensibilidad.
Aunque los debates sobre la conciencia de la IA han estado circulando desde principios de la década de 2000, la popularidad de los modelos de lenguaje de gran tamaño, el acceso de los consumidores a la IA generativa, como ChatGPT, y una entrevista en el Washington Post 1 con el exingeniero de Google Blake Lemoine reavivaron el interés por la pregunta: ¿la IA es consciente?
Lemoine declaró al Post que LaMDA, el generador de chatbot con inteligencia artificial de Google, es sensible porque empezó a hablar de derechos y de persona, y era aparentemente consciente de sus propias necesidades y sentimientos.
Los especialistas en ética de Google han negado públicamente estas afirmaciones. Yann LeCun, jefe de investigación de IA en Meta, dijo al The New York Times2 que estos sistemas no son lo suficientemente potentes como para lograr una "verdadera inteligencia". El consenso actual entre los principales expertos es que la IA no es sensible.
A medida que el machine learning se vuelve más avanzado, los científicos informáticos están impulsando más innovación en herramientas de IA con la esperanza de crear dispositivos que puedan tener una comprensión más profunda del comportamiento humano, lo que lleva a una mayor personalización y respuestas relevantes en tiempo real sin tanta codificación humana tediosa necesaria. Esto ha dado lugar a avances en informática cognitiva, donde los sistemas interactúan de forma natural con los humanos y resuelven problemas a través de algoritmos de autoaprendizaje. El modelo GPT de OpenAI y LaMDA de Google son una indicación de lo que podría estar en desarrollo en otras empresas tecnológicas como Meta, Apple o Microsoft.
La sensibilidad sería un paso más allá. Se define por la capacidad de tener experiencias subjetivas, conciencia, memoria y sentimientos. Pero las definiciones de sensibilidad, cognición y conciencia suelen ser incoherentes y siguen siendo muy debatidas 3 por filósofos y científicos cognitivos.
En teoría, la IA sensible percibiría el mundo que le rodea, procesaría los estímulos externos y lo utilizaría todo para tomar decisiones y pensar y sentir como seres humanos.
Aunque la IA aprende como aprenden los humanos y es capaz de razonar hasta cierto punto, no es tan compleja como los humanos o incluso algunos cerebros animales. Aún se desconoce relativamente cómo el cerebro humano da lugar a la conciencia, pero interviene algo más que el número de células cerebrales conectadas entre sí. A menudo, la sensibilidad se confunde con la inteligencia, que es otra característica que la comunidad científica todavía está trabajando para cuantificar en las máquinas.
Las máquinas inteligentes aprenden a través de la exploración y pueden adaptarse con nueva entrada. La mayoría de los programas de IA actuales son especialistas en lugar de generalistas, más sencillos que cerebrales. Cada programa está entrenado para ser bueno en una tarea o tipo de problema muy específico, como jugar al ajedrez o realizar una prueba estandarizada.
En la investigación en ciencias de la computación, los expertos en IA han estado jugando con el concepto de "inteligencia artificial general" (AGI), también conocida como IA fuerte, cuyo objetivo es dotar a la IA de una inteligencia más parecida a la humana que no sea específica de una tarea. Más allá de eso, también está el hipotético estado futuro de la superinteligencia artificial.
Estas capacidades están destinadas a dar a la IA una mejor comprensión de los comandos y contextos humanos y, como resultado, automatizar el procesamiento de la información que permite a las máquinas deducir la función correcta para funcionar en una determinada condición por sí solas.
Se han creado herramientas como la prueba de Turing para evaluar hasta qué punto los comportamientos de las máquinas son discernibles de los humanos. Considera que un programa es inteligente si puede engañar a otro humano para que crea que él también es humano.
Pero la inteligencia es difícil de clasificar. Por ejemplo, el argumento de la habitación china ha ilustrado los defectos del Test de Turing para determinar la inteligencia. Es importante destacar que con inteligencia se suele hacer referencia a la capacidad de adquirir y utilizar conocimientos. No equivale a sensibilidad. No hay evidencia de que un modelo de IA tenga monólogos internos o pueda sentir su propia existencia dentro de un mundo mayor, que son dos cualidades de la sensibilidad.
Los grandes modelos lingüísticos pueden replicar de forma convincente el habla humana mediante el procesamiento del lenguaje natural y la comprensión del lenguaje natural.
Algunos tecnólogos argumentan que la arquitectura de redes neuronales subyacente a la IA, como los LLM, imita las estructuras del cerebro humano y sienta las bases de la conciencia.
Muchos informáticos discrepan y afirman que la IA no es sensible y que simplemente ha aprendido cómo funciona el lenguaje humano regurgitando contenidos ingeridos de sitios web como Wikipedia, Reddit y las redes sociales sin comprender realmente el significado de lo que dice o por qué lo dice.
Los sistemas de IA han sobresalido históricamente en el reconocimiento de patrones, que puede extenderse a imágenes, vídeos, audio, datos complejos y textos. También puede adoptar personajes estudiando los patrones del habla de esa persona específica.
Algunos expertos se refieren a las IA como loros estocásticos4 que "cosen al azar secuencias de formas lingüísticas que han observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado".
El problema es que los humanos tienen este deseo innato de conexión, que les impulsa a antropomorfizar5 objetos y proyectarlos en sus sentimientos y personalidades porque facilita el vínculo social.
Como afirman los investigadores del artículo sobre el loro estocástico: "Tenemos que tener en cuenta el hecho de que nuestra percepción del texto en lenguaje natural, independientemente de cómo se haya generado, está mediada por nuestra propia competencia lingüística y nuestra predisposición a interpretar los actos comunicativos como transmisores de significado e intención coherentes, lo hagan o no".
Esta es la razón por la que algunas personas pueden tomar lo que dice la IA al pie de la letra, aunque saben que estas tecnologías no pueden percibir o comprender el mundo más allá de lo que está disponible a través de sus datos de entrenamiento.
Como los chatbots de la IA pueden mantener conversaciones coherentes y transmitir sentimientos, la gente puede interpretarlo como significativo y, a menudo, olvidar que los LLM, entre otras máquinas humanoides, están "programados para ser creíbles", según Scientific American6. Cada característica que tiene, ya sean las palabras que dice o cómo intenta emular las expresiones humanas, alimenta este diseño.
La IA crea una ilusión de presencia al seguir los movimientos de la comunicación entre humanos sin ataduras a la experiencia física del ser.
"Todas las sensaciones (hambre, dolor, enfado, amor) son el resultado de estados fisiológicos que un LLM simplemente no tiene", Fei-Fei Li y John Etchemendy, cofundadores del Institute for Human-Centered Artificial Intelligence en la Universidad de Stanford, en un artículo de TIME 7. Por lo tanto, incluso si se le pide a un chatbot de IA que diga que tiene hambre, en realidad no puede tener hambre porque no tiene estómago.
Las IA actuales no son sensibles. A través de ensayos y pruebas, este tipo de modelo de IA también ha demostrado que sigue siendo muy defectuoso y que a menudo puede cometer errores o inventar información, lo que da lugar a un fenómeno llamado alucinaciones.
Estos errores suelen surgir cuando los modelos no pueden situar el contexto en el que existe la información o es incierto. Existe el riesgo de que estos defectos se amplifiquen si la IA se vuelve más autónoma.
Además, los especialistas en ética están preocupados por la IA sensible porque no saben qué podría pasar si los informáticos pierden el control de los sistemas que aprenden a pensar de forma independiente. Eso podría plantear un problema "existencial" si los objetivos de la IA chocan con los objetivos humanos. Si eso ocurre, no está claro dónde recaería la responsabilidad por los daños, la mala toma de decisiones y los comportamientos impredecibles en los que la lógica no se remonta a un comando original insertado por humanos.
Además, a los expertos les preocupa no poder comunicarse con las IA sensibles ni confiar plenamente en sus salidas. En conjunto, algunos concluyen que el hecho de que la IA tenga sensibilidad podría suponer amenazas para la seguridad y la privacidad.
A medida que la IA se integra más en las tecnologías existentes, los expertos del sector presionan para que se establezcan más marcos normativos y barreras técnicas. Estos son más relevantes a la luz de los dilemas morales y éticos en torno a la autonomía y las capacidades de la IA.
1 “The Google engineer who thinks the company’s AI has come to life”. The Washington Post. 11 de junio de 2022
2 “Google Sidelines Engineer Who Claims Its A.I. Is Sentient”. The New York Times. 12 de junio de 2022
3 “Brains, Minds, and Machines: Consciousness and Intelligence”. Infinite MIT
4 “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 1 de marzo de 2021
5 “The mind behind anthropomorphic thinking: attribution of mental states to other species”. Animal Behaviour. Noviembre de 2015
6 “Google Engineer Claims AI Chatbot Is Sentient: Why That Matters”. Scientific American. 12 de julio de 2022
7 “No, Today’s AI Isn’t Sentient. Here’s How We Know”. TIME. 22 de mayo de 2024