Inicio Topics Ética de la IA ¿Qué es la ética de la IA?
Explore la solución de ética de IA de IBM Regístrese para recibir actualizaciones sobre IA
Ilustración con collage de pictogramas de nubes, gráfico circular y pictogramas gráficos sobre lo siguiente
¿Qué es la ética de la IA?

La ética es un conjunto de principios morales que nos ayudan a discernir entre el bien y el mal. La ética de la IA es un campo multidisciplinar que estudia cómo optimizar el impacto beneficioso de la IA a la vez que se reducen los riesgos y los resultados adversos.

Algunos ejemplos de cuestiones éticas de la IA son la responsabilidad y la privacidad de los datos, la imparcialidad, la explicabilidad, la solidez, la transparencia, la sostenibilidad medioambiental, la inclusión, la agencia moral, la alineación de valores, la responsabilidad, la confianza y el uso indebido de la tecnología. Este artículo tiene como objetivo ofrecer una visión integral del mercado de la ética de la IA en la industria actual. Para obtener más información sobre el punto de vista de IBM, consulte nuestra página de ética de la IA aquí.

Con la aparición del big data, las empresas han aumentado su enfoque para impulsar la automatización y la toma de decisiones basada en datos en todas sus organizaciones. Aunque la intención suele ser, si no siempre, mejorar los resultados comerciales, las empresas están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, particularmente debido a un diseño de investigación inicial deficiente y conjuntos de datos sesgados.

A medida que han salido a la luz casos de resultados injustos, han surgido nuevas directrices, principalmente de las comunidades de investigación y ciencia de datos, para abordar las preocupaciones en torno a la ética de la IA. Las empresas líderes en el campo de la IA también se han interesado en dar forma a estas directrices, ya que ellas mismas han comenzado a experimentar algunas de las consecuencias de no mantener los estándares éticos dentro de sus productos. La falta de diligencia en esta área puede provocar una exposición reputacional, regulatoria y legal, lo que se traduce en costosas sanciones. Al igual que con todos los avances tecnológicos, la innovación tiende a superar la regulación gubernamental en nuevos campos emergentes. A medida que se desarrollen los conocimientos adecuados en la industria gubernamental, podemos esperar más protocolos de IA para que las empresas los sigan, permitiéndoles evitar cualquier infracción de los derechos humanos y las libertades civiles.

Ya disponible: watsonx.governance

Mejore los flujos de trabajo de forma responsable, transparente y explicable para la IA generativa creada en plataformas de terceros.

Contenido relacionado Libro electrónico

Regístrese para obtener el libro electrónico sobre almacenes de datos de IA

Guía

Aprenda a aprovechar las bases de datos adecuadas para aplicaciones, análisis e IA generativa.

Establecimiento de principios para la ética de la IA

Mientras se desarrollan reglas y protocolos para gestionar el uso de la IA, la comunidad académica ha aprovechado el Informe Belmont (enlace externo a ibm.com) como medio para guiar la ética dentro de la investigación experimental y el desarrollo algorítmico. Hay tres principios fundamentales que se desprenden del Informe Belmont y que sirven de guía para el diseño de experimentos y algoritmos, que son:

  1. Respeto por las personas: este principio reconoce la autonomía de las personas y mantiene la expectativa de que los investigadores protejan a las personas con una autonomía reducida, lo que puede deberse a diversas circunstancias, como una enfermedad, una discapacidad mental o restricciones de edad. Este principio se refiere principalmente a la idea del consentimiento. Las personas deben ser conscientes de los riesgos y beneficios potenciales de cualquier experimento del que formen parte, y deben poder optar por participar o retirarse en cualquier momento antes y durante el experimento.
  2. Beneficencia: este principio toma una página de la ética sanitaria, donde los médicos hacen un juramento de "no hacer daño". Esta idea se puede aplicar fácilmente a la inteligencia artificial, donde los algoritmos pueden amplificar los sesgos en torno a la raza, el género, las inclinaciones políticas, etc., a pesar de la intención de hacer el bien y mejorar un sistema determinado.
  3. Justicia: este principio se refiere a cuestiones como la justicia y la igualdad. ¿Quién debería aprovechar los beneficios de la experimentación y el machine learning? El Informe Belmont ofrece cinco maneras de distribuir las cargas y los beneficios, las cuales son:
    • Participación equitativa
    • Necesidad individual
    • Esfuerzo individual
    • Contribución social
    • Mérito
Enlaces relacionados

Ética de IBM AI

Cinco pasos para implementar prácticas de seguridad algorítmica

Principales preocupaciones de la IA en la actualidad

Hay una serie de cuestiones que están a la vanguardia de las conversaciones éticas en torno a las tecnologías de IA en el mundo real. Entre las que se incluyen:

Modelos fundacionales e IA generativa

El lanzamiento de ChatGPT en 2022 marcó un verdadero punto de inflexión para la inteligencia artificial. Las capacidades del chatbot de OpenAI, desde la redacción de informes legales hasta la depuración de código, abrieron una nueva constelación de posibilidades sobre lo que puede hacer la IA y cómo se puede aplicar en casi todas las industrias. ChatGPT y herramientas similares se basan en modelos fundacionales, modelos de IA que pueden adaptarse a una amplia gama de tareas posteriores. Los modelos fundacionales suelen ser modelos generativos a gran escala, compuestos por miles de millones de parámetros, que se entrenan con datos no etiquetados mediante autosupervisión. Esto permite a los modelos de base aplicar rápidamente lo que han aprendido en un contexto a otro, lo que los hace altamente adaptables y capaces de realizar una amplia variedad de tareas diferentes. Sin embargo, hay muchos posibles potenciales y preocupaciones éticas en torno a los modelos fundacionales que son comúnmente reconocidos en la industria tecnológica, como la parcialidad, la generación de contenidos falsos, la falta de explicabilidad, el mal uso y el impacto social. Muchos de estos problemas son relevantes para la IA en general, pero adquieren una nueva urgencia a la luz del poder y la disponibilidad de los modelos fundacionales.

La singularidad tecnológica

Aunque este tema suscita mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo o inmediato. También se habla de superinteligencia, que Nick Bostrum define como "cualquier intelecto que supere ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar de que la IA fuerte y la superinteligencia no son inminentes en la sociedad, su idea plantea algunas cuestiones interesantes al considerar el uso de sistemas autónomos, como los coches autoconducidos. Es poco realista pensar que un coche sin conductor nunca tendrá un accidente de coche, pero ¿quién es el responsable en esas circunstancias? ¿Deberíamos seguir apostando por los vehículos autónomos, o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad de los conductores? El debate aún no ha concluido, pero estos son los tipos de debates éticos que se producen a medida que se desarrolla la nueva e innovadora tecnología de IA.

Impacto de la IA en el empleo

Aunque gran parte de la percepción pública en torno a la inteligencia artificial se centra en la pérdida de puestos de trabajo, probablemente habría que replantear esta preocupación. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de funciones laborales específicas. Por ejemplo, si nos fijamos en la industria de la automoción, muchos fabricantes, como GM, están pasando a centrarse en la producción de vehículos eléctricos para alinearse con las iniciativas ecológicas. El sector energético no va a desaparecer, pero la fuente de energía está desplazándose de la economía de combustible a la eléctrica. La inteligencia artificial debe verse de manera similar, donde la inteligencia artificial desplazará la demanda de puestos de trabajo a otras áreas. Será necesario que haya personas que ayuden a administrar estos sistemas a medida que los datos crezcan y cambien todos los días. Seguirá siendo necesario contar con recursos para tratar problemas más complejos en los sectores con más probabilidades de verse afectados por los cambios en la demanda de empleo, como el servicio de atención al cliente. Lo importante de la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas en la transición a estas nuevas áreas de demanda del mercado.

Privacidad

La privacidad tiende a debatirse en el contexto de la privacidad, la protección y la seguridad de los datos, y estas preocupaciones han permitido a los responsables políticos avanzar más en este terreno en los últimos años. Por ejemplo, en 2016 se creó la legislación RGPD para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que se introdujo en 2018 y exige a las empresas que informen a los consumidores sobre la recopilación de sus datos. Esta reciente legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ciberataques.

Prejuicios y discriminación

Los casos de sesgo y discriminación en una serie de sistemas de machine learning han planteado muchas cuestiones éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los conjuntos de datos de formación pueden prestarse al sesgo? Aunque las empresas suelen tener intenciones bien intencionadas en torno a sus esfuerzos de automatización, la incorporación de la IA en las prácticas de contratación puede tener consecuencias imprevistas. En su esfuerzo por automatizar y simplificar un proceso, Amazon , sin querer, sesgó a los posibles candidatos laborales (enlace externo a ibm.com) por género para los puestos técnicos abiertos y, en última instancia, tuvo que descartar el proyecto. A medida que salen a la luz eventos como estos, Harvard Business Review (enlace externo a ibm.com) ha planteado otras preguntas importantes en torno al uso de la IA en las prácticas de contratación, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; pueden encontrarse en diversas aplicaciones, desde el software de reconocimiento facial hasta los algoritmos de las redes sociales.

A medida que las empresas son más conscientes de los riesgos de la IA, también se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado el CEO de IBM, Arvind Krishna, compartió que IBM ha puesto fin a sus productos de reconocimiento y análisis facial para uso general de IBM, haciendo hincapié en que "IBM se opone firmemente y no aprobará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia".

Responsabilidad

No existe una legislación universal y general que regule las prácticas de IA, pero muchos países y estados están trabajando para desarrollarlas e implementarlas localmente. Algunas normas de regulación de la IA ya están vigentes y muchas más están por venir. Para llenar este vacío, han surgido marcos éticos como parte de una colaboración entre éticos e investigadores para regir la construcción y distribución de modelos de IA en la sociedad. Sin embargo, por el momento, estos solo sirven para orientar, y la investigación (enlace externo a ibm.com) muestra que la combinación de responsabilidad distribuida y falta de previsión de las posibles consecuencias no es necesariamente conducente a la prevención de daños a la sociedad.

Cómo establecer la ética de la IA

La inteligencia artificial funciona de acuerdo con la forma en la que se diseña, desarrolla, entrena, ajusta y utiliza, y la ética de la IA consiste en establecer un ecosistema de normas éticas y barreras de protección a lo largo de todas las fases del ciclo de vida de un sistema de IA.

Tanto las organizaciones como los gobiernos y los investigadores han comenzado a elaborar marcos para abordar las preocupaciones éticas actuales sobre la IA y dar forma al futuro del trabajo dentro de ese campo. Aunque cada día se incorporan más estructuras a estas pautas, existe cierto consenso en cuanto a incorporar lo siguiente:

Gobierno

El gobierno es el acto de una organización de supervisar el ciclo de vida de la IA a través de políticas y procesos internos, personal y sistemas. El gobierno ayuda a garantizar que los sistemas de IA funcionen según los principios y valores de una organización, como esperan las partes interesadas y según lo requiera la regulación pertinente. Un programa de gobierno exitoso:

  • definirá las funciones y responsabilidades de las personas que trabajan con IA.

  • educará a todas las personas involucradas en el ciclo de vida de la IA sobre cómo construir la IA de manera responsable.

  • establecerá procesos para crear, gestionar, monitorizar y comunicar sobre la IA y los riesgos de la IA.

  • aprovechará las herramientas para mejorar el rendimiento y la fiabilidad de la IA a lo largo del ciclo de vida de la IA.

Un Consejo de Ética de la IA es un mecanismo de gobierno especialmente eficaz. En IBM, el Consejo de Ética de la IA está compuesto por diversos líderes de toda la empresa. Proporciona un proceso centralizado de gobierno, revisión y toma de decisiones para las políticas y prácticas éticas de IBM. Obtenga más información sobre el Comité de Ética de IA de IBM.

Principios y áreas de enfoque

El enfoque de una organización hacia la ética de la IA puede guiarse por principios que se pueden aplicar a productos, políticas, procesos y prácticas en toda la organización para ayudar a permitir una IA fiable. Estos principios deben estructurarse y apoyarse en áreas de enfoque, como la explicabilidad o la equidad, en torno a las cuales se puedan desarrollar las normas y alinear las prácticas.

Cuando la IA se construye con la ética en el centro, es capaz de tener un enorme potencial para impactar a la sociedad para bien. Hemos empezado a verlo en su integración en áreas de la atención médica, como la radiología. La conversación en torno a la ética de la IA también es importante para evaluar y mitigar adecuadamente los posibles riesgos relacionados con los usos de la IA, comenzando la fase de diseño.

Organizaciones que promueven la ética de la IA

Como las normas éticas no son la principal preocupación de los ingenieros y científicos de datos del sector privado, han surgido varias organizaciones para promover una conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos proporcionan recursos para promulgar la ética de la IA:

  • AlgorithmWatch: esta organización sin ánimo de lucro se centra en un algoritmo y un proceso de decisión explicables y trazables en programas de IA. Haga clic aquí (enlace externo a ibm.com) para obtener más información.
  • AI Now Institute: esta organización sin ánimo de lucro de la Universidad de Nueva York investiga las implicaciones sociales de la inteligencia artificial. Haga clic aquí (enlace externo a ibm.com) para obtener más información.
  • DARPA: la Agencia de Proyectos de Investigación Avanzada de Defensa (enlace externo a ibm.com) del Departamento de Defensa de los Estados Unidos se centra en promover la investigación explicable sobre la IA y la IA.
  • CHAI: el Centro de Inteligencia Artificial Compatible con Humanos (enlace externo a ibm.com) es una cooperación de varios institutos y universidades para promover una IA fiable y sistemas beneficiosos demostrables.
  • NASCAI: la Comisión de Seguridad Nacional sobre Inteligencia Artificial (enlace externo a ibm.com) es una comisión independiente "que considera los métodos y medios necesarios para avanzar en el desarrollo de la inteligencia artificial, el machine learning y las tecnologías asociadas para abordar de forma integral las necesidades de seguridad nacional y defensa de Estados Unidos".
El punto de vista de IBM sobre la ética de la IA

IBM también ha establecido su propio punto de vista sobre la ética de la IA, creando Principios de Confianza y Transparencia para ayudar a los clientes a entender dónde se encuentran sus valores dentro de la conversación en torno a la IA. IBM tiene tres principios básicos que dictan su enfoque hacia el desarrollo de datos e IA, que son:

  1. El objetivo de la IA es potenciar la inteligencia humana. Esto significa que no buscamos reemplazar la inteligencia humana con IA, sino apoyarla. Dado que toda nueva innovación tecnológica implica cambios en la oferta y la demanda de determinados puestos de trabajo, IBM se compromete a apoyar a los trabajadores en esta transición invirtiendo en iniciativas globales para promover la formación de competencias en torno a esta tecnología.
  2. Los datos y la información y la información pertenecen a quien los crea. Los clientes de IBM pueden estar seguros de que ellos, y solo ellos, son propietarios de sus datos. IBM no ha proporcionado ni proporcionará al gobierno acceso a los datos de los clientes para ningún programa de vigilancia, y sigue comprometida con la protección de la privacidad de sus clientes.
  3. Los sistemas de IA deben ser transparentes y explicables. IBM cree que las empresas de tecnología deben tener claro quién entrena sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos.

IBM también ha desarrollado cinco pilares para guiar la adopción responsable de las tecnologías de IA. Entre ellas figuran:

  • Explicabilidad: un sistema de IA debe ser transparente, especialmente en cuanto a lo que incluye las recomendaciones de su algoritmo, ya que es relevante para una variedad de partes interesadas con diversos objetivos.
  • Equidad: se refiere al trato equitativo de individuos, o grupos de individuos, por parte de un sistema de IA. Cuando se calibra correctamente, la IA puede ayudar a los humanos a tomar decisiones más justas, contrarrestar los sesgos humanos y promover la inclusión.
  • Robustez: los sistemas impulsados por la IA deben defenderse activamente de los ataques de los adversarios, lo que minimiza los riesgos de seguridad y permite confiar en los resultados del sistema.
  • Transparencia: para reforzar la confianza, los usuarios deben ser capaces de ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones.
  • Privacidad: los sistemas de IA deben priorizar y salvaguardar los derechos de privacidad y datos de los consumidores y proporcionar garantías explícitas a los usuarios sobre cómo se utilizarán y protegerán sus datos personales.

Estos principios y áreas de enfoque forman la base de nuestro enfoque de la ética de la IA. Para obtener más información sobre los puntos de vista de IBM en torno a la ética y la inteligencia artificial, lea más aquí.

 

Soluciones relacionadas
Ética de la IA en IBM

El enfoque multidisciplinario y multidimensional de IBM para una IA fiable

Explore la ética de la IA en IBM
IBM Watson Studio

Cree, ejecute y gestione modelos de IA. Prepare datos y construya modelos en cualquier nube utilizando código abierto o modelado visual. Pronostique y optimice sus resultados.

Explore watsonx Studio
IBM watsonx.governance

Cree flujos de trabajo de IA responsables, transparentes y explicables.

Explore IBM watsonx.governance
Dé el siguiente paso

Acelere flujos de trabajo de IA responsables, transparentes y explicables a lo largo del ciclo de vida, tanto para modelos generativos como de machine learning. Dirija, gestione y controle las actividades de IA de su organización para gestionar mejor la creciente normativa sobre IA y detectar y mitigar los riesgos.

Explore watsonx.governance Solicite una demostración en directo