La inteligencia artificial sensible se define teóricamente como máquinas conscientes de sí mismas que pueden actuar de acuerdo con sus propios pensamientos, emociones y motivos. A día de hoy, los expertos coinciden en que la IA no es lo suficientemente complejo como para ser consciente.
Desde que se inventaron las computadoras, los científicos han desarrollado puntos de referencia, como la prueba de Turing, destinados a evaluar la "inteligencia" de las máquinas. Poco después, los debates en torno a la inteligencia artificial dieron paso a deliberaciones sobre su conciencia o sensibilidad.
Aunque los debates sobre la consciencia de IA llevan flotando desde principios de la década de 2000, la popularidad de los grandes modelos lingüísticos, el acceso de los consumidores a la IA generativa como en ChatGPT y una entrevista en el Washington Post 1 con el exingeniero de Google Blake Lemoine reavivaron el interés por la pregunta: ¿la IA es sensible?
Lemoine le dijo al Post que LaMDA, el generador de chatbot de inteligencia artificial de Google, es sensible porque comenzó a hablar sobre los derechos y la personalidad, y aparentemente era consciente de sus propias necesidades y sentimientos.
Los especialistas en ética de Google negaron públicamente estas afirmaciones. Yann LeCun, jefe de investigación de IA en Meta, dijo a The New York Times2 que estos sistemas no son lo suficientemente poderosos como para lograr una “inteligencia verdadera”. El consenso actual entre los principales Expertos es que la IA no es sensible.
A medida que machine learning se vuelve más avanzado, los científicos informáticos están impulsando más innovación en las herramientas de IA con la esperanza de crear dispositivos que puedan tener una comprensión más profunda del comportamiento humano, lo que conducirá a una mayor personalización y respuestas relevantes en tiempo real sin necesidad de tanta programación tediosa. Esto ha llevado a desarrollos en computación cognitiva , donde los sistemas interactúan naturalmente con los humanos y resuelven problemas a través de algoritmos de autoaprendizaje . El modelo GPT de OpenAI y el LaMDA de Google son una indicación de lo que podría estar en marcha en otras compañías tecnológicas como Meta, Apple o Microsoft.
La sensibilidad sería un paso más allá. Se define por la capacidad de tener experiencias subjetivas, concientización, memoria y sentimientos. Pero las definiciones de sensibilidad, cognición y conciencia a menudo son inconsistentes y siguen siendo muy debatidas 3 por filósofos y científicos cognitivos.
En teoría, la IA sensible percibiría el mundo que le rodea, procesaría los estímulos externos y lo utilizaría todo para tomar decisiones y pensar y sentir como seres humanos.
Aunque la IAaprende a medida que los humanos aprenden y es capaz de razonar hasta cierto punto, no es tan complejo como los humanos o incluso algunos cerebros animales. Todavía es relativamente desconocido cómo el cerebro humano da lugar a la conciencia, pero hay más involucrados que solo la cantidad de células cerebrales conectadas entre sí. A menudo, la sensibilidad se confunde con la inteligencia, que es otra característica que la comunidad científica todavía está trabajando para cuantificar en las máquinas.
Las máquinas inteligentes aprenden a través de la exploración y pueden adaptarse con nueva entrada. La mayoría de los programas de IA actuales son especialistas en lugar de generalistas, más sencillos que cerebrales. Cada programa está capacitado para ser bueno en una tarea o tipo de problema muy específico, como jugar al ajedrez o realizar una prueba estandarizada.
En la investigación en informática, los Expertos en IA han estado jugando con el concepto de “inteligencia general artificial” (AGI), también conocida como IA fuerte, cuyo objetivo es imbuir a la IA con más inteligencia similar a la humana que no sea específica de la tarea. Más allá de eso, también está el hipotético estado futuro de la superinteligencia artificial.
Estas habilidades están destinadas a dar a la IA una mejor comprensión de los comandos y contextos humanos y, como resultado, automatizar el procesamiento de la información que permite a las máquinas deducir la función correcta para ejecutarse bajo una determinada condición por su cuenta.
Se crearon herramientas como el Test de Turing para evaluar en qué medida el comportamiento de las máquinas es discernible de los humanos. Se considera que un programa es inteligente si puede engañar a otro ser humano haciéndole creer que él también es humano.
Pero la inteligencia es difícil de clasificar. Por ejemplo, el argumento de la habitación china ha ilustrado fallas en la prueba de Turing para determinar la inteligencia. Es importante destacar que la inteligencia a menudo se refiere a la capacidad de adquirir y utilizar conocimientos. No equivale a sensibilidad. No hay evidencia de que un modelo de IA tenga monólogos internos o pueda sentir su propia existencia dentro de un mundo mayor, que son 2 cualidades de sensibilidad.
Los modelos de lenguaje grandes pueden replicar de manera convincente el habla humana a través del procesamiento de lenguaje natural y natural language understanding.
Algunos tecnólogos argumentan que la arquitectura de Neural Networks subyacente a la IA, como los LLM, imita las estructuras del cerebro humano y sienta las bases de la conciencia.
Muchos científicos informáticos no están de acuerdo y dicen que la IAno es sensible y que simplemente aprendió cómo funciona el lenguaje humano regurgitando el contenido ingerido de sitios web como Wikipedia, Reddit y las redes sociales sin comprender realmente el significado detrás de lo que dice o por qué lo dice.
Históricamente, los sistemas de IA se han destacado en el reconocimiento de patrones, que puede extenderse a imágenes, videos, audio, datos complejos y textos. También puede adoptar personajes estudiando los patrones de habla de esa persona específica.
Algunos expertos se refieren a las IA como loros estocásticos4 que "cosen al azar secuencias de formas lingüísticas que han observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado".
El problema es que los humanos tienen este deseo innato de conexión, que los impulsa a antropomorfizar5 objetos y proyectar en sus sentimientos y personalidades porque facilita el vínculo social.
Como lo expresaron los investigadores en el artículo sobre el loro estocástico: “Tenemos que tener en cuenta el hecho de que nuestra percepción del texto en lenguaje natural, independientemente de cómo se haya generado, está mediada por nuestra propia competencia lingüística y nuestra predisposición a interpretar los actos comunicativos como transmisores. significado e intención coherentes, lo hagan o no”.
Es por eso que algunas personas pueden tomar lo que dice la IA al pie de la letra, a pesar de que saben que estas tecnologías no pueden percibir o comprender el mundo más allá de lo que está disponible a través de sus datos de entrenamiento.
Debido a que los chatbots IA pueden llevar conversaciones coherentes y transmitir sentimientos, las personas pueden interpretarlo como significativo y, a menudo, olvidar que los LLM, entre otras máquinas humanoides, están "programadas para ser creíbles", según Scientific American6. Cada característica que tiene, ya sean las palabras que dice o cómo intenta emular las expresiones humanas, alimenta este diseño.
La IA crea una ilusión de presencia al seguir los movimientos de la comunicación de persona a persona sin ataduras a la experiencia física de ser.
"Todas las sensaciones (hambre, dolor, enfado, amor) son el resultado de estados fisiológicos que un LLM simplemente no tiene", Fei-Fei Li y John Etchemendy, cofundadores del Institute for Human-Centered Artificial Intelligence en la Universidad de Stanford, en un artículo de TIME 7. Por lo tanto, incluso si se le pide a un chatbot de IA que diga que tiene hambre, en realidad no puede tener hambre porque no tiene estómago.
Las IA actuales no son sensibles. A través de ensayos y pruebas, este tipo de modelo de IA también ha demostrado que todavía es muy defectuoso y a menudo puede cometer errores o inventar información, dando como resultado un fenómeno llamado alucinaciones.
Estos errores suelen surgir cuando los modelos no pueden situar el contexto en el que existe la información o es incierto. Existe el riesgo de que estos defectos se amplifiquen si la IA se vuelve más autónoma.
Además, a los especialistas en ética les preocupa la IA sensible porque no saben qué podría pasar si los informáticos pierden el control de los sistemas que aprenden a pensar de forma independiente. Eso podría plantear un problema "existencial" si los objetivos de IA chocan con los objetivos humanos. Si eso ocurre, no está claro dónde recaería la responsabilidad por el daño, la mala toma de decisiones y los comportamientos impredecibles donde la lógica no se puede rastrear hasta un comando original insertado por humanos.
Además, a los Expertos les preocupa no poder comunicarse con la IA sensible o confiar plenamente en los resultados. En conjunto, algunos concluyen que IA que tiene sensibilidad podría resultar en amenazas para la seguridad, la privacidad y la seguridad.
A medida que la IA se integra más en las tecnologías existentes, los expertos de la industria presionan para que se establezcan más marcos normativos y barreras técnicas. Estos son más relevantes a la luz de los dilemas morales y éticos en torno a la autonomía y las capacidades de la IA.
1 “The Google engineer who thinks the company’s AI has come to life,” The Washington Post, 11 de junio de 2022
2 “Google Sidelines Engineer Who Claims Its A.I. Is Sentient,” The New York Times, 12 de junio de 2022
3 “Brains, Minds, and Machines: Consciousness and Intelligence,” Infinite MIT
4 “Sobre los peligros de los loros estocásticos: ¿pueden los modelos de lenguaje ser demasiado grandes? ” FACcT '21: Actas de la Conferencia ACM 2021 sobre Equidad, Rendición de Cuentas y Transparencia, 1 de marzo de 2021
5 “La mente detrás del pensamiento antropomórfico: atribución de estados mentales a otras especies”, Animal Behaviour, noviembre de 2015
6 “Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,” Scientific American, 12 de julio de 2022
7 “No, la IA actual no es inteligente. Here's How We Know”, TIME, 22 de mayo de 2024