La introducción de los sistemas de IA generativa en el dominio público expuso a personas de todo el mundo a nuevas posibilidades tecnológicas, implicaciones e incluso consecuencias que muchos aún no habían considerado. Gracias a sistemas como ChatGPT, casi cualquier persona puede utilizar modelos avanzados de IA que no solo son capaces de detectar patrones, perfeccionar datos y hacer recomendaciones como lo harían las versiones anteriores de IA, sino que también van más allá para crear nuevos contenidos, desarrollar respuestas de chat originales y mucho más.
Cuando se diseñan de forma ética y se introducen en el mercado de manera responsable, las capacidades generativas de la IA ofrecen oportunidades sin precedentes para beneficiar a las empresas y a la sociedad. Pueden ayudar a crear un mejor servicio de atención al cliente y a mejorar los sistemas de salud y los servicios legales. También pueden apoyar y aumentar la creatividad humana, acelerar descubrimientos científicos y movilizar formas más eficaces de abordar los desafíos climáticos.
Nos encontramos en un punto de inflexión crítico en el desarrollo, implementación y uso de la IA, y en su potencial para acelerar el progreso humano. Sin embargo, este enorme potencial conlleva riesgos, como la generación de contenido falso y texto dañino, posibles filtraciones de privacidad, amplificación de sesgos y una profunda falta de transparencia sobre el funcionamiento de estos sistemas. Es crítico, por lo tanto, que nos preguntemos qué podría significar la IA para el futuro del personal, la democracia, la creatividad y el bienestar general de los seres humanos y de nuestro planeta.
Algunos líderes tecnológicos pidieron recientemente una pausa de seis meses en el entrenamiento de sistemas de IA más potentes para permitir la creación de nuevas normas éticas. Aunque las intenciones y motivaciones de la carta eran sin duda buenas, se olvida un punto fundamental: estos sistemas están bajo nuestro control hoy, al igual que las soluciones.
Una formación responsable, junto con un enfoque ético desde el diseño en todo el proceso de IA, respaldado por una colaboración de múltiples partes interesadas en torno a la IA, pueden hacer que estos sistemas sean mejores, no peores. La IA es una tecnología en constante evolución. Por lo tanto, tanto para los sistemas que se utilizan hoy como para los que estarán en línea mañana, la formación debe formar parte de un enfoque responsable del desarrollo de la IA. No necesitamos una pausa para priorizar una IA responsable.
Es hora de tomarnos en serio las normas y barreras éticas de la IA que todos debemos continuar adoptando y perfeccionando. IBM, por su parte, estableció hace años una de las primeras Juntas de Ética de la IA del sector, junto con un marco de ética de la IA para toda la empresa. Nos esforzamos constantemente por fortalecer y mejorar este marco haciendo balance del panorama tecnológico actual y futuro, desde nuestra posición en los sectores de la industria y mediante un enfoque de stakeholder que prioriza la colaboración con otros.
Nuestro consejo proporciona una estructura de gobierno responsable y centralizada que establece políticas claras e impulsa la rendición de cuentas a lo largo del ciclo de vida de la IA, pero sigue siendo ágil y flexible para satisfacer las necesidades empresariales de IBM. Esto es crítico y es algo que hemos estado haciendo tanto para los sistemas de IA tradicionales como para los más avanzados. Porque, de nuevo, no podemos centrarnos únicamente en los riesgos de los futuros sistemas de IA e ignorar los actuales. La alineación de valores y las actividades éticas de la IA son necesarias ahora, y tienen que evolucionar continuamente a medida que la IA evoluciona.
Además de la colaboración y la supervisión, el enfoque técnico para crear estos sistemas también debe basarse desde el principio en consideraciones éticas. Por ejemplo, las preocupaciones en torno a la IA a menudo se deben a la falta de comprensión de lo que sucede dentro de la "caja negra". Por ello, IBM ha desarrollado una plataforma de gobernanza que supervisa los modelos en busca de imparcialidad y parcialidad, capta los orígenes de los datos utilizados y, en última instancia, puede ofrecer un proceso de gestión de la IA más transparente, explicable y fiable. Además, la estrategia de IA para Empresas de IBM se centra en un enfoque que impregna la confianza a lo largo de todo el proceso de vida de la IA. Esto comienza con la creación de los propios modelos y se extiende a los datos con los que entrenamos los sistemas y, en última instancia, a la aplicación de estos modelos en dominios de aplicaciones empresariales específicos, en lugar de dominios abiertos.
En primer lugar, instamos a otros en todo el sector privado a poner la ética y la responsabilidad a la vanguardia de sus agendas de IA. Una pausa generalizada en la formación de la IA, junto con las tendencias existentes que parecen estar restando prioridad a la inversión en los esfuerzos de los sectores en materia de ética de la IA, sólo provocará daños y retrocesos adicionales.
En segundo lugar, los gobiernos deben evitar regular ampliamente la IA a nivel tecnológico. De lo contrario, terminaremos con un enfoque del tipo "golpear al topo" que obstaculiza la innovación beneficiosa y no está preparado para el futuro. Instamos a los legisladores de todo el mundo a adoptar en su lugar una regulación inteligente y precisa que aplique el control regulatorio más riguroso a los casos de uso de IA con mayor riesgo de daño social.
Por último, todavía no hay suficiente transparencia sobre cómo protegen las empresas la privacidad de los datos que interactúan con sus sistemas de IA. Por eso necesitamos una ley nacional de privacidad coherente en EE. UU. La protección de la intimidad de una persona no debería cambiar sólo por cruzar una frontera estatal.
El reciente enfoque en la IA en nuestra sociedad recuerda la vieja postura de que cualquier gran poder conlleva una gran responsabilidad. En lugar de hacer una pausa general en el desarrollo de los sistemas de IA, Continuemos derribando las barreras a la colaboración y trabajando juntos para promover una IA responsable, desde una idea que nace en una sala de reuniones hasta su formación, desarrollo e implementación en el mundo real. Lo que está en juego es sencillamente demasiado importante, y nuestra sociedad no se merece menos.