¿Qué es la ética de la IA?
La ética de IA guía a los científicos e investigadores de datos para que apliquen principios éticos en la creación de sistemas en beneficio de la sociedad en su conjunto
Suscríbase al boletín de IBM
aurora circular
¿Qué es la ética de la IA?

Este artículo tiene como objetivo ofrecer una visión global del mercado de la ética de la IA en el sector. Para obtener más información sobre el punto de vista de IBM, consulte aquí nuestra página sobre la ética de la IA.

La ética es un conjunto de principios morales que nos ayudan a discernir entre lo correcto y lo incorrecto. La ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados de la inteligencia artificial. Los seres humanos vienen con todo tipo de sesgos cognitivos, como el sesgo de actualidad y el de confirmación, y estos sesgos inherentes se exhiben en nuestros comportamientos y, en consecuencia, en nuestros datos. Dado que los datos son la base para todos los algoritmos de machine learning, es importante para nosotros estructurar experimentos y algoritmos teniendo esto en cuenta, ya que la inteligencia artificial tiene el potencial de intensificar y escalar estos sesgos humanos a un ritmo sin precedentes.

Con el surgimiento de big data, las empresas han mostrado un creciente interés en la automatización y la toma de decisiones basada en datos en sus organizaciones. Si bien la intención suele ser, si no siempre, mejorar los resultados de negocio, las empresas están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, en particular debido a una falta de investigación inicial y a conjuntos de datos sesgados.

A medida que han salido a la luz casos de resultados injustos, han ido surgiendo nuevas pautas, principalmente de las comunidades de investigación y ciencia de datos, para atender las preocupaciones en torno a la ética de la IA. Las empresas líderes en el campo de la IA también han mostrado interés en definir estas pautas, ya que ellas mismas han sido víctimas de algunas de las consecuencias de no mantener los estándares éticos en sus productos. La falta de diligencia en esta área puede tener implicaciones legales y normativas, resultando en costosas sanciones, además de afectar a la reputación. Al igual que con todos los avances tecnológicos, la innovación tiende a ir por delante de la regulación gubernamental en nuevos campos emergentes. A medida que se desarrolle la experiencia adecuada dentro del Gobierno, podremos esperar más protocolos de IA que deban seguir las empresas, que les permitirán evitar cualquier violación de los derechos humanos y las libertades civiles.

Descubra watsonx

Multiplique la potencia de la IA para su empresa con la plataforma de datos e IA de nueva generación de IBM

Aplicación actual de la ética de la IA

Obtenga más información sobre cómo llevar a la práctica los principios de la ética de la IA. (326 KB)

Establecimiento de principios para la ética de la IA

Mientras se desarrollan reglas y protocolos para gestionar el uso de la inteligencia artificial, la comunidad académica ha aprovechado el Informe Belmont (enlace externo a ibm.com) (PDF, 121 KB) como medio para guiar la ética en el ámbito de la investigación experimental y el desarrollo de algoritmos. Hay tres principios que surgieron del Informe Belmont que sirven como guía para el diseño de algoritmos y experimentos, que son:

  1. Respeto a las personas: este principio reconoce la autonomía de las personas y defiende la expectativa de que los investigadores protegen a las personas con autonomía reducida, que podría deberse a distintas circunstancias, como enfermedad, discapacidad mental o restricciones de edad. Este principio se refiere principalmente a la idea del consentimiento. Las personas deben ser conscientes de los riesgos y beneficios potenciales de cualquier experimento del que formen parte, y deben poder elegir entre participar o retirarse en cualquier momento, antes y durante el experimento.
  2. Beneficencia: este principio se basa en un principio de la ética de la asistencia sanitaria, por el cual los médicos juran "no hacer daño". Esta idea se puede aplicar fácilmente a la inteligencia artificial, donde los algoritmos pueden intensificar los sesgos en torno a la raza, el género, las inclinaciones políticas, etc., a pesar de la intención de hacer el bien y mejorar un sistema determinado.
  3. Justicia: este principio se ocupa de cuestiones como la imparcialidad y la igualdad. ¿Quién debería beneficiarse de la experimentación y de machine learning? El Informe Belmont ofrece cinco formas de distribuir cargas y beneficios, que son:
    • Partes iguales
    • Necesidad individual
    • Esfuerzo individual
    • Contribución social
    • Mérito
Enlaces relacionados

Ética de la IA de IBM

Principales inquietudes actuales sobre la IA

Varias son las cuestiones recurrentes en las conversaciones éticas en torno a las tecnologías de IA. De ellas, destacamos:

 

Singularidad tecnológica


Aunque esta cuestión recibe mucha atención pública, la mayoría de investigadores no están preocupados por la idea de que la IA supere a la inteligencia humana en un futuro cercano o inmediato. Esto también se conoce como superinteligencia, que Nick Bostrum define como "cualquier intelecto que supera con creces a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar del hecho de que la IA fuerte y la superinteligencia no son inminentes en la sociedad, esta idea plantea algunas preguntas interesantes, si consideramos el uso de sistemas autónomos, como los automóviles autónomos. No es realista pensar que un coche sin conductor nunca tendría un accidente, pero ¿quién sería responsable en esas circunstancias? ¿Seguimos intentando crear vehículos autónomos o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad entre los conductores? Todavía no se ha alcanzado ningún consenso al respecto, pero estos son los tipos de debates éticos que surgen a medida que se desarrolla la nueva tecnología de IA innovadora.

 

Impacto de la IA sobre los puestos de trabajo


Aunque gran parte de la percepción pública sobre la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería reformularse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de puestos de trabajo específicos. Por ejemplo, si observamos la industria del automóvil, muchos fabricantes, como GM, están cambiando para centrarse en la producción de vehículos eléctricos y adaptarse a iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. La inteligencia artificial debe mirarse bajo el mismo prisma: la IA cambiará la demanda de empleos a otras áreas. Se necesitarán personas para gestionar estos sistemas a medida que los datos crezcan y cambien cada día. También se necesitarán recursos para abordar problemas más complejos dentro de las industrias que son más propensas a verse afectadas por cambios en la demanda de empleo, como el servicio al cliente. La relevancia de la inteligencia artificial y su efecto en el mercado laboral ayudará a las personas a cambiar a estas nuevas áreas de demanda del mercado.

 

Privacidad


La privacidad tiende a analizarse en el contexto de la privacidad, la protección y la seguridad de los datos, y es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016, se creó el Reglamento General de Protección de Datos (RGPD) para proteger los datos personales de los ciudadanos de la Unión Europea y el Espacio Económico Europeo, ofreciéndoles un mayor control de sus datos. En Estados Unidos, los distintos estados están desarrollando políticas como, por ejemplo, la Ley de Privacidad del Consumidor de California (CCPA), que requieren que las empresas informen a los consumidores sobre la recopilación de sus datos. Esta reciente legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas que buscan eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería y ciberataques.

 

Sesgo y discriminación


Los casos de sesgo y discriminación en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? Normalmente, aunque las empresas ponen sus mejores intenciones en sus iniciativas de automatización, Reuters (enlace externo a ibm.com) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review (enlace externo a ibm.com) ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; están presentes en distintas aplicaciones, desde el software de reconocimiento facial a los algoritmos de redes sociales.

A medida que las empresas se vuelven más conscientes de los riesgos de la IA, se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado, el CEO de IBM, Arvind Krishna, anunció que IBM ha desechado sus productos de análisis y reconocimiento facial de IBM de uso general, enfatizando que "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia".

Responsabilidad


Dado que no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar prácticas éticas de IA. Los incentivos actuales para que las empresas sigan estas directrices son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, y un estudio (enlace externo a ibm.com) (PDF, 1 MB) muestra que la combinación de la responsabilidad distribuida y la falta de previsión de las posibles consecuencias no es necesariamente buena para prevenir el daño en la sociedad.

Cómo establecer la ética de la IA

Dado que la inteligencia artificial no genera máquinas morales, los equipos han empezado a definir marcos de trabajo y conceptos para abordar algunas de las preocupaciones éticas actuales y definir el futuro del trabajo en este campo. Si bien cada día se invierte más estructura en estas directrices, existe cierto consenso en torno a la incorporación de lo siguiente:

  • Gobierno: las empresas pueden optimizar su estructura organizativa existente para ayudar a gestionar la ética de la IA. Si una compañía recopila datos, es probable que ya haya establecido un sistema de gobernanza para facilitar la estandarización de datos y la garantía de calidad. Es probable que los equipos normativos y legales internos ya estén colaborando con equipos de gobierno para asegurar el cumplimiento con las entidades gubernamentales, por lo que expandir el ámbito de este equipo para incluir la ética de la IA es una ampliación natural de sus prioridades actuales. Este equipo también puede fomentar la concienciación de la organización e incentivar a las partes implicadas a actuar de acuerdo con los valores y estándares éticos de la compañía.  
  • Explicabilidad: los modelos de machine learning, en concreto los modelos de deep learning, se denominan con frecuencia "modelos de caja negra", ya que generalmente no está claro cómo llega un modelo a una decisión determinada. De acuerdo con este estudio (enlace externo a ibm.com) (PDF, 1,8 MB), la explicabilidad busca eliminar esta ambigüedad en torno a la creación de modelos y sus resultados generando una "explicación comprensible para el ser humano que exprese el razonamiento de la máquina".  Este tipo de transparencia es importante para generar confianza con los sistemas de IA y asegurar que las personas entiendan por qué un modelo está llegando a una determinada decisión. Si podemos entender mejor el porqué, estaremos mejor preparados para evitar los riesgos de la IA, como el sesgo y la discriminación.  

Lograr una IA ética será sin duda importante para su éxito. Sin embargo, cabe señalar su gran potencial de impacto positivo sobre la sociedad. Hemos empezado a comprobarlo en su integración en áreas de la asistencia sanitaria, como la radiología. Este debate en torno a la ética de la IA tiene como finalidad garantizar que, en nuestro intento de aprovechar esta tecnología, evaluamos adecuadamente su potencial de daño inherente a su diseño.

Organizaciones en torno a la IA ética

Dado que las normas éticas no son la preocupación prioritaria de los ingenieros y científicos de datos en el sector privado, han surgido diversas organizaciones para promover la conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos brindan recursos sobre la implementación de la IA ética:

  • AlgorithmWatch: esta organización sin fines de lucro se centra en un proceso de decisiones y algoritmos explicable y rastreable para los programas de IA. Haga clic aquí (enlace externo a ibm.com) para obtener más información.
  • AI Now Institute: esta organización sin fines de lucro de la Universidad de Nueva York investiga las implicaciones sociales de la inteligencia artificial. Haga clic aquí (enlace externo a ibm.com) para obtener más información.
  • DARPA: la Agencia de Proyectos de Investigación Avanzada de Defensa (enlace externo a ibm.com) del Departamento de Defensa de los EE. UU. se centra en promover la IA explicable y la investigación de la IA.
  • CHAI: el Centro de Inteligencia Artificial Compatible con Humanos (enlace externo a ibm.com) es una cooperación de varios institutos y universidades para promover una IA fiable y sistemas beneficiosos demostrables.
  • NASCAI: la Comisión Nacional de Seguridad sobre Inteligencia Artificial (enlace externo a ibm.com) es una comisión independiente "que considera los métodos y medios necesarios para avanzar en el desarrollo de la inteligencia artificial, machine learning y tecnologías asociadas para abordar todas las necesidades de defensa y seguridad nacional de los Estados Unidos".
El punto de vista de IBM sobre la ética de la IA

IBM también ha establecido su propio punto de vista sobre la ética de la IA, creando principios de confianza y transparencia para ayudar a los clientes a comprender sus valores en el debate de la IA. IBM se basa en tres principios que determinan su enfoque hacia los datos y la IA, que son:

  1. La finalidad de la IA es aumentar la inteligencia humana. Esto significa que no buscamos reemplazar la inteligencia humana por la artificial, sino apoyarla. Dado que cada nueva innovación tecnológica implica cambios en el suministro y la demanda de puestos de trabajo específicos, IBM se compromete a apoyar a los trabajadores en esta transición invirtiendo en iniciativas globales para promover la formación profesional en torno a esta tecnología.
  2. Los datos y los conocimientos pertenecen a su creador. Los clientes de IBM pueden estar seguros de que ellos, y solo ellos, son los propietarios de sus datos. IBM no ha proporcionado ni proporcionará acceso a los datos de cliente para ningún programa de vigilancia gubernamental, y mantiene su compromiso con la protección de la privacidad de sus clientes.
  3. Los sistemas de IA deben ser transparentes y explicables. IBM cree que las empresas tecnológicas deben tener claro quién entrena sus sistemas de IA, qué datos se han utilizado en el entrenamiento y, lo más importante, cuáles han pasado a las recomendaciones de sus algoritmos.

IBM también ha desarrollado un conjunto de áreas de atención para guiar la adopción responsable de tecnologías de IA. Estas incluyen:

  • Explicabilidad: un sistema de IA debe ser transparente, particularmente acerca de lo que se incluye en las recomendaciones de su algoritmo, como sea relevante para una variedad de partes implicadas con diversos objetivos.
  • Justicia: se refiere al tratamiento equitativo de personas, o grupos de personas, por parte de un sistema de IA. Si se calibra correctamente, la IA puede ayudar a los humanos a tomar decisiones más justas, contrarrestar los sesgos humanos y promover la inclusión.
  • Robustez: los sistemas basados en IA deben defenderse activamente de los ataques adversos para minimizar los riesgos de seguridad e impulsar la confianza en los resultados del sistema.
  • Transparencia: para reforzar la confianza, los usuarios deben poder ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus fortalezas y limitaciones.
  • Privacidad: los sistemas de IA deben priorizar y proteger la privacidad y los derechos sobre datos de los consumidores y brindar garantías explícitas a los usuarios sobre cómo se utilizarán y protegerán sus datos personales.

Estos principios y áreas de atención constituyen la base de nuestro enfoque hacia la ética de IA. Para obtener más información sobre la visión de IBM en torno a la ética y la inteligencia artificial, pulse aquí.

 

Ética de la IA e IBM

IBM trata de garantizar que sus productos se desarrollen y utilicen teniendo en cuenta pautas y principios éticos. Uno de los productos que IBM ofrece a sus clientes es IBM Watson Studio, que mejora la supervisión y el cumplimiento de los estándares éticos de la IA.

IBM Watson Studio en IBM Cloud Pak for Data ayuda a supervisar y gestionar modelos para aplicar una IA fiable. Una organización puede visualizar y realizar un seguimiento de los modelos de IA en producción, validar y probar modelos para mitigar los riesgos normativos y aumentar la visibilidad sobre el ciclo de vida de la IA. Regístrese para obtener un IBMid y crear su cuenta de IBM Cloud gratuita hoy mismo.

Para obtener más información sobre el punto de vista de IBM sobre la ética de la inteligencia artificial, pulse aquí.

 

Soluciones relacionadas
IBM Watson Studio

Cree, ejecute y gestione modelos de IA. Prepare datos y desarrolle modelos en cualquier cloud con código fuente abierto o modelado visual. Pronostique y optimice sus resultados.

Explore Watson Studio
IBM® Cloud Pak for Data

Cloud Pak for Data es una plataforma de datos abierta y ampliable que proporciona un entramado de datos para facilitar todos los datos para IA y analítica en cualquier cloud.

Explore IBM® Cloud Pak for Data
Ética de la IA de IBM

Enfoque multidisciplinar y multidimensional de IBM hacia la IA fiable

Explore la ética de la IA de IBM
Dé el siguiente paso

IBM trata de garantizar que sus productos se desarrollen y utilicen teniendo en cuenta pautas y principios éticos. Uno de los productos que IBM ofrece a sus clientes es IBM Watson Studio, que mejora la supervisión y el cumplimiento de los estándares éticos de la IA. IBM Watson Studio en IBM Cloud Pak for Data ayuda a supervisar y gestionar modelos para aplicar una IA fiable. Una organización puede visualizar y realizar un seguimiento de los modelos de IA en producción, validar y probar modelos para mitigar los riesgos normativos y aumentar la visibilidad sobre el ciclo de vida de la IA.

Más información sobre IBM Watson Studio