La Ley Europea de Inteligencia Artificial impulsa nuevos niveles de supervisión humana y cumplimiento normativo de la inteligencia artificial (IA) en la Unión Europea. Al igual que el RGPD en materia de privacidad, la Ley de Inteligencia Artificial de la UE puede marcar la pauta de las futuras normativas sobre IA en todo el mundo.
A principios de 2024, el Parlamento Europeo, compuesto por 27 Estados miembros, aprobó por unanimidad la Ley de IA de la UE. La ley está atravesando ahora las últimas fases del proceso legislativo y se espera que entre en vigor por etapas en el segundo semestre de 2024. Comprender las disposiciones de la Ley de IA de la UE y prepararse para su cumplimiento es esencial para cualquier organización que desarrolle, implemente o utilice IA, o que planee hacerlo.
La Ley de IA pretende "reforzar la posición de Europa como centro mundial de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la IA en Europa respeta los valores y normas establecidos y aprovechar el potencial de la IA para uso industrial".
El objetivo principal de la Ley de IA de la UE es reforzar el cumplimiento normativo en las áreas de gestión de riesgos, protección de datos, sistemas de gestión de calidad, transparencia, supervisión humana, precisión, robustez y ciberseguridad. Su objetivo es impulsar la transparencia y la responsabilidad en la forma en que se desarrollan e implementan los sistemas de IA, ayudando a garantizar que los productos de IA comercializados sean seguros para el uso de las personas.
La Ley de IA de la UE tiene como objetivo afrontar el reto de desarrollar e implementar la IA de forma responsable en todos los sectores, incluidos aquellos que están muy regulados, como la sanidad, las finanzas y la energía. Para los sectores que prestan servicios esenciales a clientes como los seguros, la banca y el comercio minorista, la ley exige el uso de una evaluación de impacto en los derechos fundamentales que detalle cómo afectará el uso de la IA a los derechos de los clientes.
La Ley de IA de la UE exige que los modelos de IA de uso general, incluidos los sistemas de IA generativa como los modelos de lenguaje de gran tamaño (LLM) y fundacionales, se adhieran a un sistema de clasificación basado en niveles de riesgo sistemático. Los niveles de riesgo más elevados tienen más requisitos de transparencia, incluida la evaluación del modelo, la documentación y la elaboración de informes. También implican la evaluación y mitigación de los riesgos del sistema, la notificación de incidentes graves y la provisión de protecciones contra la ciberseguridad. Además, estos requisitos de transparencia incluyen el mantenimiento de una documentación técnica actualizada, la presentación de un resumen de los contenidos utilizados para el entrenamiento de modelos y la conformidad con la legislación europea sobre derechos de autor.
La Ley de IA de la UE sigue un planteamiento basado en el riesgo, que utiliza niveles para clasificar el grado de riesgo que los sistemas de IA suponen para la salud, la seguridad o los derechos fundamentales de las personas. Los tres niveles son:
La Ley de IA de la UE también impone normas sobre cómo se notifica a los clientes el uso de un chatbot o de un sistema de reconocimiento de emociones. Existen requisitos adicionales para etiquetar los "deep fakes" e identificar cuándo se utilizan contenidos de IA generativa en los medios de comunicación.
No cumplir con la Ley de IA de la UE puede resultar caro:
7,5 millones de euros o el 1,5 % de la facturación anual total mundial de una empresa (la cifra que sea más alta) por el suministro de información incorrecta. 15 millones de euros o el 3 % del volumen de negocios total anual de una empresa en todo el mundo (la cifra que sea más alta) por incumplimiento de las obligaciones de la Ley de IA de la UE.
— VentureBeat
La Ley de IA de la UE es actualmente el marco jurídico más completo para la regulación de la IA. Los gobiernos de todo el mundo están tomando nota y debatiendo de manera activa cómo regular la tecnología de IA para garantizar que sus ciudadanos, empresas y organismos públicos estén protegidos frente a posibles riesgos. Además, las partes interesadas, desde los consejos de administración de las empresas hasta los consumidores, están empezando a dar prioridad a la confianza, la transparencia, la equidad y la responsabilidad en lo que respecta a la IA.
IBM watsonx.governance le ayuda a acelerar flujos de trabajo de IA responsables, transparentes y explicables
IBM watsonx.governance le permite acelerar el gobierno de IA, la dirección, gestión y monitorización de las actividades de IA de su organización. Emplea la automatización de software para reforzar su capacidad de mitigar riesgos, gestionar requisitos de políticas y gobernar el ciclo de vida de los modelos de IA generativa y machine learning (ML) predictivo.
Watsonx.governance ayuda a impulsar la transparencia, la explicabilidad y la documentación de los modelos en 3 áreas clave:
El cliente es responsable de garantizar el cumplimiento de las leyes y reglamentos aplicables. IBM no presta asesoramiento legal ni declara o garantiza que sus productos o servicios prestados al cliente cumplan con cualquier ley o normativa.
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.
Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.