La Declaración de Derechos de la IA es un marco publicado por el gobierno de los Estados Unidos para ayudar a proteger los derechos civiles de los estadounidenses en la era de la inteligencia artificial (IA).
La Declaración de Derechos de la IA fue presentada en octubre de 2022 por la Oficina de Política Científica y Tecnología de la Casa Blanca en un documento titulado “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”. También denominada Blueprint, la Declaración de Derechos de la IA se creó tras consultar a diversos académicos, grupos de derechos humanos, organizaciones sin fines de lucro y empresas del sector privado.
La Declaración de Derechos de la IA tiene por objeto apoyar el desarrollo de políticas y prácticas que protejan los derechos civiles y promuevan los valores democráticos en el despliegue y la gobernanza de los sistemas automatizados. Para lograrlo, el Blueprint establece cinco principios para mitigar los riesgos potenciales, como la discriminación algorítmica. También dirige cuestiones para el acceso a recursos o servicios críticos que pueden provenir de la IA en áreas, como la atención médica, los servicios financieros, entre otros.
La Declaración de Derechos de la IA consta de cinco principios básicos para ayudar a guiar el diseño, el uso y el despliegue de los sistemas de IA. Se proporcionan consideraciones específicas a través de cada principio, teniendo en cuenta diversas situaciones en las que los derechos civiles de las personas, como su libertad de expresión, derecho al voto o privacidad, pueden estar en riesgo.
Si bien el Blueprint no es vinculante y no exige el cumplimiento de los principios básicos, tiene la intención de fundamentar las decisiones políticas relacionadas con la IA donde la ley o política existente aún no proporciona orientación.
La Declaración de Derechos de la IA se aplica a los sistemas automatizados si tienen el potencial de afectar significativamente los derechos, las oportunidades o el acceso de las personas estadounidenses a recursos críticos. Los tipos de sistemas automatizados potencialmente dentro del alcance de la Declaración de Derechos de la IA incluyen, entre otros, aquellos que pueden afectar a lo siguiente:
Derechos civiles, libertades y privacidad: esto incluye sistemas relacionados con el habla (por ejemplo, herramientas de moderación de contenido automatizadas); algoritmos de sistemas de vigilancia y justicia penal (por ejemplo, lectores automáticos de matrículas); sistemas relacionados con la votación (por ejemplo, herramientas de comparación de firmas); y sistemas con un posible impacto en la privacidad (por ejemplo, sistemas de segmentación de anuncios).
Igualdad de oportunidades: esto incluye sistemas relacionados con la educación (por ejemplo, software de detección de plagio); sistemas relacionados con la vivienda (por ejemplo, algoritmos de selección de inquilinos); y sistemas relacionados con el empleo (por ejemplo, algoritmos de contratación o terminación).
Acceso a recursos y servicios críticos: esto incluye tecnologías de salud y seguros de salud (por ejemplo, herramientas de diagnóstico asistidas por IA); algoritmos del sistema financiero (por ejemplo, sistemas de puntuación crediticia); sistemas que impactan la seguridad de las comunidades (por ejemplo, controles de la red eléctrica); y sistemas relacionados con el acceso a beneficios o servicios o asignación de sanciones (por ejemplo, algoritmos de detección de fraude).
Los caso de usos de uso de IA están creciendo a medida que tecnologías, como el machine learning (ML) y el procesamiento de lenguaje natural (PLN), se vuelven más sofisticadas. En un estudio de Ernst and Young, el 90 % de los encuestados dijeron que usan IA en el trabajo.1 Sin embargo, la adopción generalizada de la IA también conlleva nuevos desafíos éticos relacionados con la transparencia, el sesgo y la privacidad de datos. Por ejemplo:
Para abordar estos desafíos, los desarrolladores de IA necesitan guías y marcos éticos creados en torno al uso responsable de la IA. La IA responsable es un conjunto de principios empleados para guiar el diseño, el desarrollo, el despliegue y el uso de la IA. Considera el impacto social más amplio de los sistemas de IA y las medidas necesarias para alinear la IA con los valores, los estándares legales y los principios éticos de los stakeholders.
El Blueprint busca establecer las mejores prácticas de IA responsable en una infraestructura integral para que la sociedad pueda aprovechar todo el potencial de las herramientas de IA sin comprometer las libertades civiles básicas de las personas.
La Declaración de Derechos de la IA consta de cinco principios diseñados teniendo en cuenta los derechos civiles del público estadounidense. Los cinco principios incluyen:
Este principio establece que las personas “deben estar protegidas de sistemas de IA inseguros o ineficaces”. Para alinearse con este principio, el proyecto técnico sugiere que los desarrolladores trabajen junto con diversas comunidades, stakeholders y expertos para considerar los riesgos de un sistema de IA. El principio también sugiere que los sistemas se sometan a pruebas previas al despliegue, identificación y mitigación de riesgos, y monitoreo continuo para mejorar la seguridad y la eficacia. Según el proyecto técnico, los resultados de cualquier evaluación e informe independientes que confirmen que el sistema es seguro y eficaz deben hacerse públicos siempre que sea posible.
Este principio establece que las personas “no deben enfrentar discriminación por parte de los algoritmos, y los sistemas deben usarse y diseñarse de manera equitativa”. Según la Declaración de Derechos de la IA, la discriminación algorítmica ocurre cuando los sistemas automatizados afectan negativamente a las personas en función de características, como la raza, la orientación sexual, el estado de discapacidad y otras características protegidas por la ley. Para remediar esto, el principio sugiere que los creadores de sistemas automatizados utilicen medidas, como evaluaciones de equidad, datos representativos y pruebas de disparidad para proteger a las personas y comunidades de alto riesgo. El principio también fomenta las auditorías independientes y de terceros.
Este principio establece que las personas “deben estar protegidas de las prácticas abusivas de datos mediante protecciones incorporadas” y “deben tener capacidad de decisión sobre cómo se emplean los datos sobre [ellas]”. Para ajustar a este principio, el proyecto técnico sugiere que los desarrolladores de IA protejan a los usuarios y su privacidad mediante opciones de diseño que ayuden a garantizar que la recopilación de información de identificación personal (PII) sea estrictamente necesaria. El principio también sugiere a los creadores que las solicitudes de permiso y consentimiento sean breves y comprensibles y que se respeten las decisiones sobre el uso, acceso, transferencia y eliminación de datos.
Se requieren protecciones y restricciones mejoradas para la información confidencial, como la relacionada con el trabajo, el estado, la justicia penal y más. El Blueprint también establece que la tecnología de vigilancia debe estar sujeta a una mayor supervisión para proteger la privacidad y las libertades civiles de los ciudadanos.
Este principio establece que las personas “deben saber que se está empleando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que [las] afectan”. La Declaración de Derechos de la IA establece que los diseñadores, desarrolladores e implementadores de sistemas automatizados deben utilizar un lenguaje sencillo y accesible para, entre otras cosas, explicar la función del sistema y el papel que desempeña la automatización. Además, el principio sugiere que los sistemas automatizados deberían proporcionar avisos cuando están en uso y explicaciones claras de cómo y por qué contribuyen a los resultados que impactan a los individuos.
Este principio establece que las personas “deben poder excluir voluntariamente, cuando proceda, y tener acceso a una persona que pueda examinar y remediar rápidamente los problemas que encuentren”. Según el Blueprint, la determinación de lo que es “apropiado” debe basarse en “expectativas razonables” en el contexto específico y debe centrarse en garantizar una amplia accesibilidad y protección contra posibles daños. Sugiere que quienes pretendan ajustar a este principio hagan accesibles y oportunas la consideración humana y las soluciones a través de un proceso de respaldo y escalada, especialmente cuando un sistema automatizado falle, produzca un error o cuando alguien quiera recurrir su impacto.
Junto con el Blueprint, se publicó un complemento técnico, “From Principles to Practice”. Proporciona ejemplos y pasos que los gobiernos, las industrias y las comunidades pueden tomar para integrar los cinco principios en la política, la práctica o el diseño técnico de los sistemas automatizados.
En conjunto, la Declaración de Derechos de la IA y su complemento técnico explican por qué cada principio es importante, qué se debe esperar de los sistemas automatizados y cómo cada principio puede llevarse a la práctica. Los ejemplos proporcionados no son críticas o respaldo, sino que tienen como objetivo motivar a las organizaciones a incorporar salvaguardas en sus propias operaciones de IA y toma de decisiones.
Después de su publicación en Washington DC, la Declaración de Derechos de la IA podría haber motivado en parte a varias agencias federales a adoptar directrices para su propio uso responsable de la IA. Al momento de escribir este artículo, 12 agencias del gobierno de EE. UU., incluyendo el Departamento de Comercio (DOC) y el Instituto Nacional de Estándares y Tecnología (NIST), tienen requisitos de IA que abarcan leyes, políticas y seguridad nacional.
El 30 de octubre de 2023, la administración de Biden emitió una orden ejecutiva para establecer nuevos estándares para una IA segura, protegida y confiable. En un comunicado de prensa publicado seis meses después, el DOC anunció varios planes para implementar la orden ejecutiva.4
A nivel estatal, parece que los legisladores están alineando la nueva legislación con el Blueprint en algunos aspectos. En 2021, Nueva York adoptó una ley con requisitos para los empleadores, incluida la notificación cuando se utilizan tecnologías de IA en el proceso de contratación. Varios estados ahora tienen requisitos en torno al uso de la tecnología de reconocimiento facial dentro del cumplimiento de la ley. Y, más recientemente, el Consejo de Derechos Civiles de California propuso enmiendas a la Ley de Empleo y Vivienda Justos (FEHA) que alinean aún más la FEHA con la Declaración de Derechos de la IA.
Además de Estados Unidos, 34 países establecieron estrategias nacionales en materia de IA en el momento de escribir este artículo.5 En particular, la Ley de Inteligencia Artificial de la Unión Europea (Ley de AI de la UE) regula el desarrollo o el uso de la IA en la UE. La ley adopta un enfoque de regulación basado en el riesgo, aplicando diferentes reglas a la IA según los riesgos que plantean.
Algunas de las protecciones sugeridas en la Declaración de Derechos de la IA ya son exigidas por la Constitución de Estados Unidos o existen en virtud de las leyes estadounidenses actuales. Por ejemplo, la vigilancia del gobierno mencionada en el principio de “Privacidad de datos” ya está sujeta a requisitos legales y supervisión judicial, mientras que existen leyes de derechos civiles para proteger a la población estadounidense contra la discriminación.
Algunos ejemplos de otros estándares de IA que se alinea el Blueprint incluyen:
Se podrían adoptar nuevas políticas y prácticas para ayudar a garantizar que se implementen las protecciones que se encuentran en la Declaración de Derechos de la IA. El Blueprint o reconoce que, en algunos casos, las excepciones a los principios pueden ser necesarias para ayudar a garantizar el cumplimiento de la legislación existente, ajustarse a los aspectos prácticos de un caso de uso específico o equilibrar intereses públicos contrapuestos. Por ejemplo, se alienta a las autoridades y a otras agencias del gobierno a seguir las pautas establecidas en la Declaración de Derechos de la IA. Sin embargo, para proteger los derechos y la privacidad de las personas, es posible que deban utilizar métodos alternativos.
De cara al futuro, la Declaración de Derechos de la IA podría desempeñar un papel clave para influir en la próxima ola de políticas a medida que las naciones del mundo adoptan un enfoque más holístico de la IA responsable.
Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.
Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.
1 How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, diciembre de 2023.
2 Artificial Intelligence is Putting Innocent People at Risk of being Incarcerated, Innocence Project, Sanford, 14 de febrero de 2024.
3 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19 de febrero de 2023.
4 Department of Commerce Announces New Actions to Implement President Biden's Executive Order on AI, US Department of Commerce, 29 de abril de 2024.
5 A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13 de diciembre de 2023.