No ponga en pausa el desarrollo de IA y priorice la ética

Imagen que representa Build para datos y IA

La introducción de sistemas de IA generativa en el dominio público expuso a personas de todo el mundo a nuevas posibilidades tecnológicas, implicaciones e incluso consecuencias que muchos aún no habían considerado. Gracias a sistemas como ChatGPT, casi cualquier persona puede usar modelos avanzados de IA que no solo son capaces de detectar patrones, perfeccionar datos y hacer recomendaciones como lo harían las versiones anteriores de IA, sino que también van más allá para crear nuevos contenidos, desarrollar chats originales. respuestas y más.

Un punto de inflexión para la IA

Cuando se diseñan de forma ética y se introducen en el mercado de manera responsable, las capacidades de IA generativa ofrecen oportunidades sin precedentes para beneficiar a las empresas y la sociedad. Pueden ayudar a crear un mejor atención al cliente y mejorar los sistemas de atención médica y los servicios legales. También pueden apoyar y aumentar la creatividad humana, acelerar los descubrimientos científicos y movilizar formas más eficaces de dirección a los desafíos climáticos.

Nos encontramos en un punto de inflexión crítico en el desarrollo, despliegue y uso de la IA, y su potencial para acelerar el progreso humano. Sin embargo, este enorme potencial conlleva riesgos, como la generación de contenido falso y texto dañino, posibles filtraciones de privacidad, amplificación de sesgos y una profunda falta de transparencia en el funcionamiento de estos sistemas. Es crítico, por lo tanto, que nos cuestionemos qué podría significar la IA para el futuro de la fuerza laboral, la democracia, la creatividad y el bienestar general de los seres humanos y de nuestro planeta.

La necesidad de nuevos estándares de ética de IA

Algunos líderes tecnológicos pidieron recientemente una pausa de seis meses en el entrenamiento de sistemas de IA más potentes para permitir la creación de nuevos estándares éticos. Si bien las intenciones y motivaciones de la carta eran sin duda buenas, se pierde un punto fundamental: estos sistemas están bajo nuestro control hoy, al igual que las soluciones.

La capacitación responsable, junto con un enfoque de ética por diseño en todo el pipeline de IA, respaldado por una colaboración de múltiples partes interesadas en torno a la IA, puede hacer que estos sistemas sean mejores, no peores. La IA es una tecnología en constante evolución. Por lo tanto, tanto para los sistemas en uso hoy como para los sistemas que se conectarán mañana, la capacitación debe ser parte de un enfoque responsable para construir IA. No necesitamos una pausa para priorizar la IA responsable.

Es hora de tomar en serio los estándares de ética de IA y las barandillas que todos debemos Continuar adoptando y refinando. IBM, por su parte, estableció una de las primeras juntas de ética de IA de las industrias hace años, junto con una infraestructura de ética de IA en toda la empresa. Nos esforzamos constantemente por fortalecer y mejorar este marco haciendo balance del escenario tecnológico actual y futuro, desde nuestra posición en la industria y mediante un enfoque multi-stakeholder que prioriza la colaboración con otros.

Nuestra Junta proporciona una estructura de gobernanza responsable y centralizada que establece políticas claras e impulsa la responsabilidad a lo largo del ciclo de vida de la IA, pero sigue siendo ágil y flexible para respaldar las necesidades comerciales de IBM. Esto es crítico y es algo que hemos estado haciendo tanto para los sistemas de IA tradicionales como para los más avanzados. Porque, de nuevo, no podemos centrarnos simplemente en los riesgos de los futuros sistemas de IA e ignorar los actuales. Las actividades de alineación de valores y ética de la IA son necesarias ahora, y deben evolucionar continuamente a medida que evoluciona la IA.

Junto con la colaboración y la supervisión, el enfoque técnico para construir estos sistemas también debe estar conformado desde el principio por consideraciones éticas. Por ejemplo, las preocupaciones en torno a la IA a menudo se derivan de la falta de comprensión de lo que sucede dentro de la "caja negra". Es por eso que IBM desarrolló una plataforma de gobernanza que monitorea la imparcialidad y el sesgo de los modelos, captura los orígenes de los datos utilizados y, en última instancia, puede proporcionar un proceso de gestión de IA más transparente, explicable y confiable. Además, la estrategia de IA para empresas de IBM se centra en un enfoque que integra la confianza a lo largo de todo el proceso del ciclo de vida de la IA. Esto comienza con la creación de los propios modelos y se extiende a los datos con los que entrenamos los sistemas y, en última instancia, a la aplicación de estos modelos en dominios de aplicaciones empresariales específicos, en lugar de dominios abiertos.

Dicho todo esto, ¿qué es lo que hay que hacer?

En primer lugar, instamos a otros en todo el sector privado a poner la ética y la responsabilidad al frente de sus agendas de IA. Una pausa generalizada en la formación en IA, junto con las tendencias actuales que parecen restar prioridad a la inversión en iniciativas de ética de la IA en la industria, solo provocará más daños y retrocesos.

En segundo lugar, los gobiernos deben evitar regular ampliamente la IA a nivel de Tecnología. De lo contrario, terminaremos con un enfoque de “whack-a-mole” que obstaculiza la innovación beneficiosa y no está preparado para el futuro. Instamos a los legisladores de todo el mundo a que en su lugar adopten una regulación inteligente y de precisión que aplique el control de regulación más fuerte a los casos de uso de IA con el mayor riesgo de daño a la sociedad.

Por último, todavía no hay suficiente transparencia sobre cómo las empresas protegen la privacidad de los datos que interactúan con sus sistemas de IA. Por eso necesitamos una ley nacional de privacidad coherente en U.S. Las protecciones de privacidad de un individuo no deberían cambiar solo porque cruzan una frontera estatal.

El reciente enfoque en la IA en nuestra sociedad es un recordatorio de la vieja línea de que con cualquier gran poder viene una gran responsabilidad. En lugar de hacer una pausa general en el desarrollo de sistemas de IA, Continuar derribando barreras para la colaboración y trabajemos juntos en el avance de la IA responsable—desde una idea nacida en una sala de reuniones hasta su capacitación, desarrollo y despliegue en el mundo real. Las apuestas son simplemente demasiado altas, y nuestra sociedad no merece menos.

 
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo