El inversor de Silicon Valley, Marc Andreessen,transfirió USD 50 000 en Bitcoin a un bot X IA. El destinatario, conocido como “Truth Terminal” o @truth_terminal, es un agente de IA semiautónomo que estuvo activo en la plataforma desde mediados de junio y ganó seguidores entre los entusiastas de la tecnología y los aficionados a la IA.
El intercambio comenzó cuando Andreessen, cofundador de la firma de capital riesgo Andreessen Horowitz, indagó sobre los objetivos y necesidades financieras del bot. Después de un poco de discusión, acordó proporcionar una subvención única de 50 000 USD, y la transacción se completó con Bitcoin. La IA proporcionó una dirección de billetera para la transferencia, marcando una intersección notable de criptomoneda e inteligencia artificial.
Truth Terminal, creada por Andy Ayrey, se describe como una IA que opera con cierto nivel de independencia. La función de Ayrey es aprobar las publicaciones del bot y decidir con quién interactúa en X. Esta configuración representa una nueva frontera en el desarrollo de la IA, en la que los agentes artificiales gozan de una autonomía cada vez mayor en sus interacciones con los humanos.
Boletín de la industria
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Algunos observadores dicen que la aparición de agentes de IA como Truth Terminal marca un punto de inflexión en la inteligencia artificial. A diferencia de las herramientas tradicionales de IA que realizan tareas específicas basadas en la entrada humana, estos agentes pueden tomar decisiones independientes e interactuar con su entorno de formas cada vez más complejas.
Benjamin Lee, profesor de la Universidad de Pensilvania, explica cómo los agentes de IA podrían mejorar la interacción del usuario con la IA generativa: “En lugar de proporcionar instrucciones individuales, el usuario humano podría proporcionar un objetivo amplio y pedirle a un agente de IA que desarrolle un plan o secuencia de análisis que lograrían ese objetivo”. Lee agrega que los agentes de IA podrían operar tanto en mundos virtuales como ciberfísicos, ampliando las capacidades de la IA generativa e interactuando con el entorno físico.
Alan Chan, un investigador de investigaciones del Centro para la Gobernanza de la IA, ofrece una perspectiva similar sobre el potencial de los agentes de IA. "Los futuros agentes de IA más capaces podrían ser útiles para automatizar tareas esenciales que son tediosas, peligrosas o indeseables", dice Chan. Imagina que la IA aborde desafíos complejos, como “sondear una base de código en busca de vulnerabilidades de seguridad” o realizar investigaciones científicas independientes.
No obstante, ambos expertos enfatizan la necesidad de salvaguardias. Lee sugiere que “los agentes de IA deberían poder producir explicaciones interpretables o detallar su plan. Los humanos deberían poder inspeccionar o diagnosticar las causas de los resultados o acciones de un agente”. También propone una nueva salvaguarda en la que "el agente podría aprender y proponer una secuencia de análisis o pasos hacia un objetivo, pero el usuario humano podría necesitar aprobar ese plan antes de la ejecución".
Chan se hace eco de este sentimiento y señala: "Todavía se necesita trabajar para descubrir qué salvaguardas serían apropiadas y cuándo". Las posibles medidas incluyen “restringir qué acciones puede tomar un agente en nombre del usuario, mantener la capacidad del usuario para detener al agente y dejar claro al usuario lo que está haciendo el agente”.
El reto de controlar a los agentes de IA se vuelve aún más abrumador a medida que se acercan o superan la inteligencia humana. Roman V. Yampolskiy, distinguido profesor de la Universidad de Louisville, señala un desafío importante: "Si se vuelven más inteligentes que los humanos, actualmente no tenemos ninguna técnica para controlarlos en una dirección positiva o negativa".
Los posibles impactos sociales de la adopción generalizada de la IA son sustanciales. Yampolskiy sugiere que los agentes de IA avanzados podrían “realizar todos los trabajos y, por lo tanto, generar casi un 100 % de desempleo”. Este escenario plantea preguntas sobre las estructuras sociales y los sistemas económicos.
Lee ofrece una visión más mesurada: "Aunque la IA generativa ha sido sorprendentemente capaz, aún no hemos visto un impacto generalizado en el empleo humano y las estructuras sociales". Señala que la IA puede mejorar la productividad de los trabajadores en campos como la programación de computadoras o el trabajo paralegal, reduciendo potencialmente las necesidades de contratación. Lee también señala que "la IA también puede aumentar el volumen de contenido generado artificialmente y cambiar la forma en que los humanos perciben y consumen los medios".
Koustuv Saha, profesor adjunto de Ciencias de la Computación en la Universidad de Illinois, hace hincapié en la precaución en campos delicados. “A menos que haya pruebas suficientes de que es poco probable que la IA cause daño, no debe llevarse a la práctica”, advierte Saha, particularmente en áreas como la atención médica.
A medida que los agentes de IA se vuelven más frecuentes, las cuestiones de responsabilidad legal y ética se vuelven cada vez más complejas. ¿Quién es responsable cuando una IA autónoma toma una decisión que causa daño? Estas preguntas desafían los marcos legales y los principios éticos existentes.
La posibilidad de que los agentes de IA sean manipulados o secuestrados con fines maliciosos añade otra capa de preocupación. La investigación de Chan se centra en el desarrollo de salvaguardas y sistemas de monitoreo para detectar y prevenir dicho uso indebido. "Al usar o interactuar con un agente, es posible que también desee algún tipo de monitor que le indique si el agente está siendo manipulado", sugiere.
Con respecto al potencial de los agentes de IA para desarrollar sus propios objetivos o motivaciones, Lee afirma: "En la actualidad, es posible que los agentes de IA no tengan suficiente contexto para proponer nuevos objetivos". Explica que “es probable que los usuarios humanos proporcionen el objetivo, mientras que los agentes probablemente inferirán los pasos intermedios requeridos para lograr el objetivo”.
A pesar de estos retos, el desarrollo de los agentes de IA continúa a un ritmo acelerado, impulsado por sus inmensos beneficios potenciales y la ventaja competitiva que suponen para las empresas.
El informe Forrester Total Economic Impact de IBM watsonx Assistant encontró que los clientes de la solución de IA obtuvieron 23 millones de dólares en beneficios durante un período de tres años, lo que equivale a un retorno de la inversión (ROI) del 370 %. En la práctica, esto se traduce en una mayor Interacción del cliente y en una mejor Experiencia tanto para el usuario como para el agente humano.
La clave de este éxito es la confianza y saber cuándo se necesita el aporte humano para ayudar a reforzar esa confianza. "Queremos asegurarnos de que los usuarios sepan que los datos que están dando y recibiendo son precisos y seguros", explicó Morgan Carroll, ingeniero sénior de IA de IBM, en un episodio reciente de La IA en acción podcast. Carroll también enfatizó la importancia de informar a los clientes desde el principio cuando hablan con un agente de IA.
Cuando las necesidades de un cliente se vuelven más matizadas, o se prefiere un toque más personal, es cuando interviene un humano. “A veces hay lugares donde necesitamos presentar a un humano”, afirmó Jeannie Walters, oradora y capacitadora de experiencia del cliente, en el episodio. "Necesitamos tanto esa empatía que un humano puede dar como... esa comprensión".
A medida que los sistemas de IA se vuelven más inteligentes e independientes, los expertos exigen mejores medidas de seguridad y trabajo en equipo global. Las decisiones que tomemos ahora sobre la IA determinarán cómo se desarrollarán la tecnología y la sociedad en el futuro. Truth Terminal es solo un ejemplo de estos nuevos agentes de IA. Es pronto, pero estos programas ya están planteando grandes preguntas. A medida que avanza la IA, tenemos que Think duro sobre qué es la inteligencia y cómo los humanos encajan en un mundo en el que las máquinas pueden actuar por sí mismas.
Cree, implemente y gestione poderosos asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.
Construya el futuro de su empresa con soluciones de IA en las que pueda confiar.
Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.