La Ley Europea de Inteligencia Artificial está impulsando nuevos niveles de supervisión humana y cumplimiento normativo para la inteligencia artificial (IA) dentro de la Unión Europea. Al igual que el GDPR para la privacidad, la Ley de IA de la UE tiene el potencial de marcar la pauta para las próximas regulaciones de IA en todo el mundo.
A principios de 2024, el Parlamento Europeo, compuesto por 27 estados miembros, aprobó por unanimidad la Ley de IA de la UE. El acto ahora está atravesando las fases finales del proceso legislativo y se espera que se despliegue por etapas en el segundo semestre de 2024. Comprender las disposiciones de la Ley de IA de la UE y prepararse para el cumplimiento es esencial para cualquier organización que desarrolle, despliegue o utilice AI, o esté planeando hacerlo
La Ley de IA tiene como objetivo "fortalecer la posición de Europa como centro mundial de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la IA en Europa respete los valores y reglas establecidos, y aprovechar el potencial de la IA para uso industrial".
El enfoque principal de la Ley de IA de la UE es fortalecer el cumplimiento normativo en las áreas de gestión de riesgos, protección de datos, sistemas de gestión de calidad, transparencia, supervisión humana, precisión, robustez y ciberseguridad. Su objetivo es impulsar la transparencia y la rendición de cuentas en la forma en que se desarrollan e implementan los sistemas de AI, ayudando a garantizar que los productos de AI puestos en el mercado sean seguros para que los utilicen las personas.
La Ley de IA de la UE tiene como objetivo enfrentar el desafío de desarrollar y desplegar la AI de manera responsable en todas las industrias, incluidas aquellas que están altamente reguladas, como la atención médica, las finanzas y la energía.
Para las industrias que brindan servicios esenciales a clientes como seguros, banca y venta minorista, la ley requiere el uso de una evaluación de impacto en los derechos fundamentales que detalla cómo el uso de la AI afectará los derechos de los clientes.
La Ley de IA de la UE exige que los modelos de IA de uso general, incluidos los sistemas de IA generativa como los modelos de lenguaje de gran tamaño (LLM) y los modelos fundacionales, se adhieran a un sistema de clasificación basado en niveles de riesgo sistemáticos.
Los niveles de riesgo más altos tienen más requisitos de transparencia, incluida la evaluación del modelo, la documentación y loa presentación de informes. También implican la evaluación y mitigación de los riesgos del sistema, la notificación de incidentes graves y la protección contra la ciberseguridad. Además, estos requisitos de transparencia incluyen el mantenimiento de documentación técnica actualizada, proporcionando un resumen del contenido empleado para la capacitación de modelos y cumpliendo con las leyes europeas de derechos de autor.
La ley de IA de la UE sigue un enfoque basado en el riesgo, empleando niveles para clasificar el nivel de riesgo que los sistemas de IA representan para la salud, la seguridad o los derechos fundamentales de un individuo.
Los tres niveles son:
La Ley de IA de la UE también impone reglas sobre cómo se notifica a los clientes cuando usan un chatbot o cuando se usa un sistema de reconocimiento de emociones. Existen requisitos adicionales para etiquetar las falsificaciones profundas e identificar cuándo se emplea contenido de IA generativa en los medios.
Incumplir la Ley de IA de la UE puede resultar costoso:
7.5 millones de euros o el 1.5 % de la facturación anual total mundial de una empresa (lo que sea mayor) por el suministro de información incorrecta. 15 millones de euros o el 3 % de la facturación anual total de una empresa en todo el mundo (lo que sea mayor) por violaciones de las obligaciones de la Ley de IA de la UE.
— VentureBeat
La Ley Europea de IA es actualmente el marco legal más completo para las regulaciones de IA. Los gobiernos de todo el mundo están tomando nota y debatiendo activamente cómo regular la tecnología de IA para garantizar que sus ciudadanos, empresas y agencias gubernamentales estén protegidos de riesgos potenciales. Además, los stakeholders, desde los consejos de administración hasta los consumidores, están empezando a priorizar la confianza, la transparencia, la equidad y la responsabilidad cuando se trata de la IA.
watsonx.governance de IBM le ayuda a acelerar flujos de trabajo de IA responsables, transparentes y explicables
IBM watsonx.governance le permite acelerar su gobernanza de la IA: la dirección, gestión y monitoreo de las actividades de IA de su organización. Emplea la automatización de software para fortalecer su capacidad de mitigar riesgos, gestionar requisitos de políticas y regular el ciclo de vida tanto de la IA generativa como de los modelos de machine learning (ML) predictivo.
watsonx.governance ayuda a impulsar la transparencia, la explicabilidad y la documentación del modelo en 3 áreas clave:
El cliente es responsable de garantizar el cumplimiento de las leyes y regulaciones que le sean aplicables. IBM no brinda asesoría legal ni representa ni garantiza que sus servicios o productos asegurarán que el cliente cumpla con las leyes o regulaciones.
Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.
Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.