La ética es un conjunto de principios morales que nos ayudan a discernir entre el bien y el mal. La ética de la IA es un campo multidisciplinar que estudia cómo optimizar el impacto beneficioso de la IA a la vez que se reducen los riesgos y los resultados adversos.
Algunos ejemplos de cuestiones éticas de la IA son la responsabilidad y la privacidad de los datos, la imparcialidad, la explicabilidad, la solidez, la transparencia, la sostenibilidad medioambiental, la inclusión, la agencia moral, la alineación de valores, la responsabilidad, la confianza y el uso indebido de la tecnología. Este artículo tiene como objetivo ofrecer una visión integral del mercado de la ética de la IA en la industria actual. Para obtener más información sobre el punto de vista de IBM, consulte nuestra página de ética de la IA aquí.
Con la aparición del big data, las empresas han aumentado su enfoque para impulsar la automatización y la toma de decisiones basada en datos en todas sus organizaciones. Aunque la intención suele ser, si no siempre, mejorar los resultados comerciales, las empresas están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, particularmente debido a un diseño de investigación inicial deficiente y conjuntos de datos sesgados.
A medida que han salido a la luz casos de resultados injustos, han surgido nuevas directrices, principalmente de las comunidades de investigación y ciencia de datos, para abordar las preocupaciones en torno a la ética de la IA. Las empresas líderes en el campo de la IA también se han interesado en dar forma a estas directrices, ya que ellas mismas han comenzado a experimentar algunas de las consecuencias de no mantener los estándares éticos dentro de sus productos. La falta de diligencia en esta área puede provocar una exposición reputacional, regulatoria y legal, lo que se traduce en costosas sanciones. Al igual que con todos los avances tecnológicos, la innovación tiende a superar la regulación gubernamental en nuevos campos emergentes. A medida que se desarrollen los conocimientos adecuados en la industria gubernamental, podemos esperar más protocolos de IA para que las empresas los sigan, permitiéndoles evitar cualquier infracción de los derechos humanos y las libertades civiles.
Mejore los flujos de trabajo de forma responsable, transparente y explicable para la IA generativa creada en plataformas de terceros.
Regístrese para obtener el libro electrónico sobre almacenes de datos de IA
Aprenda a aprovechar las bases de datos adecuadas para aplicaciones, análisis e IA generativa.
Mientras se desarrollan reglas y protocolos para gestionar el uso de la IA, la comunidad académica ha aprovechado el Informe Belmont (enlace externo a ibm.com) como medio para guiar la ética dentro de la investigación experimental y el desarrollo algorítmico. Hay tres principios fundamentales que se desprenden del Informe Belmont y que sirven de guía para el diseño de experimentos y algoritmos, que son:
Ética de IBM AI
Cinco pasos para implementar prácticas de seguridad algorítmica
Hay una serie de cuestiones que están a la vanguardia de las conversaciones éticas en torno a las tecnologías de IA en el mundo real. Entre las que se incluyen:
El lanzamiento de ChatGPT en 2022 marcó un verdadero punto de inflexión para la inteligencia artificial. Las capacidades del chatbot de OpenAI, desde la redacción de informes legales hasta la depuración de código, abrieron una nueva constelación de posibilidades sobre lo que puede hacer la IA y cómo se puede aplicar en casi todas las industrias. ChatGPT y herramientas similares se basan en modelos fundacionales, modelos de IA que pueden adaptarse a una amplia gama de tareas posteriores. Los modelos fundacionales suelen ser modelos generativos a gran escala, compuestos por miles de millones de parámetros, que se entrenan con datos no etiquetados mediante autosupervisión. Esto permite a los modelos de base aplicar rápidamente lo que han aprendido en un contexto a otro, lo que los hace altamente adaptables y capaces de realizar una amplia variedad de tareas diferentes. Sin embargo, hay muchos posibles potenciales y preocupaciones éticas en torno a los modelos fundacionales que son comúnmente reconocidos en la industria tecnológica, como la parcialidad, la generación de contenidos falsos, la falta de explicabilidad, el mal uso y el impacto social. Muchos de estos problemas son relevantes para la IA en general, pero adquieren una nueva urgencia a la luz del poder y la disponibilidad de los modelos fundacionales.
Aunque este tema suscita mucha atención pública, a muchos investigadores no les preocupa la idea de que la IA supere a la inteligencia humana en un futuro próximo o inmediato. También se habla de superinteligencia, que Nick Bostrum define como "cualquier intelecto que supere ampliamente a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar de que la IA fuerte y la superinteligencia no son inminentes en la sociedad, su idea plantea algunas cuestiones interesantes al considerar el uso de sistemas autónomos, como los coches autoconducidos. Es poco realista pensar que un coche sin conductor nunca tendrá un accidente de coche, pero ¿quién es el responsable en esas circunstancias? ¿Deberíamos seguir apostando por los vehículos autónomos, o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad de los conductores? El debate aún no ha concluido, pero estos son los tipos de debates éticos que se producen a medida que se desarrolla la nueva e innovadora tecnología de IA.
Aunque gran parte de la percepción pública en torno a la inteligencia artificial se centra en la pérdida de puestos de trabajo, probablemente habría que replantear esta preocupación. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de funciones laborales específicas. Por ejemplo, si nos fijamos en la industria de la automoción, muchos fabricantes, como GM, están pasando a centrarse en la producción de vehículos eléctricos para alinearse con las iniciativas ecológicas. El sector energético no va a desaparecer, pero la fuente de energía está desplazándose de la economía de combustible a la eléctrica. La inteligencia artificial debe verse de manera similar, donde la inteligencia artificial desplazará la demanda de puestos de trabajo a otras áreas. Será necesario que haya personas que ayuden a administrar estos sistemas a medida que los datos crezcan y cambien todos los días. Seguirá siendo necesario contar con recursos para tratar problemas más complejos en los sectores con más probabilidades de verse afectados por los cambios en la demanda de empleo, como el servicio de atención al cliente. Lo importante de la inteligencia artificial y su efecto en el mercado laboral será ayudar a las personas en la transición a estas nuevas áreas de demanda del mercado.
La privacidad tiende a debatirse en el contexto de la privacidad, la protección y la seguridad de los datos, y estas preocupaciones han permitido a los responsables políticos avanzar más en este terreno en los últimos años. Por ejemplo, en 2016 se creó la legislación RGPD para proteger los datos personales de las personas en la Unión Europea y el Espacio Económico Europeo, dando a los individuos más control sobre sus datos. En Estados Unidos, los estados individuales están desarrollando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que se introdujo en 2018 y exige a las empresas que informen a los consumidores sobre la recopilación de sus datos. Esta reciente legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas, que tratan de eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería informática y ciberataques.
Los casos de sesgo y discriminación en una serie de sistemas de machine learning han planteado muchas cuestiones éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los conjuntos de datos de formación pueden prestarse al sesgo? Aunque las empresas suelen tener intenciones bien intencionadas en torno a sus esfuerzos de automatización, la incorporación de la IA en las prácticas de contratación puede tener consecuencias imprevistas. En su esfuerzo por automatizar y simplificar un proceso, Amazon , sin querer, sesgó a los posibles candidatos laborales (enlace externo a ibm.com) por género para los puestos técnicos abiertos y, en última instancia, tuvo que descartar el proyecto. A medida que salen a la luz eventos como estos, Harvard Business Review (enlace externo a ibm.com) ha planteado otras preguntas importantes en torno al uso de la IA en las prácticas de contratación, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.
El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; pueden encontrarse en diversas aplicaciones, desde el software de reconocimiento facial hasta los algoritmos de las redes sociales.
A medida que las empresas son más conscientes de los riesgos de la IA, también se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado el CEO de IBM, Arvind Krishna, compartió que IBM ha puesto fin a sus productos de reconocimiento y análisis facial para uso general de IBM, haciendo hincapié en que "IBM se opone firmemente y no aprobará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la elaboración de perfiles raciales, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia".
No existe una legislación universal y general que regule las prácticas de IA, pero muchos países y estados están trabajando para desarrollarlas e implementarlas localmente. Algunas normas de regulación de la IA ya están vigentes y muchas más están por venir. Para llenar este vacío, han surgido marcos éticos como parte de una colaboración entre éticos e investigadores para regir la construcción y distribución de modelos de IA en la sociedad. Sin embargo, por el momento, estos solo sirven para orientar, y la investigación (enlace externo a ibm.com) muestra que la combinación de responsabilidad distribuida y falta de previsión de las posibles consecuencias no es necesariamente conducente a la prevención de daños a la sociedad.
La inteligencia artificial funciona de acuerdo con la forma en la que se diseña, desarrolla, entrena, ajusta y utiliza, y la ética de la IA consiste en establecer un ecosistema de normas éticas y barreras de protección a lo largo de todas las fases del ciclo de vida de un sistema de IA.
Tanto las organizaciones como los gobiernos y los investigadores han comenzado a elaborar marcos para abordar las preocupaciones éticas actuales sobre la IA y dar forma al futuro del trabajo dentro de ese campo. Aunque cada día se incorporan más estructuras a estas pautas, existe cierto consenso en cuanto a incorporar lo siguiente:
El gobierno es el acto de una organización de supervisar el ciclo de vida de la IA a través de políticas y procesos internos, personal y sistemas. El gobierno ayuda a garantizar que los sistemas de IA funcionen según los principios y valores de una organización, como esperan las partes interesadas y según lo requiera la regulación pertinente. Un programa de gobierno exitoso:
definirá las funciones y responsabilidades de las personas que trabajan con IA.
educará a todas las personas involucradas en el ciclo de vida de la IA sobre cómo construir la IA de manera responsable.
establecerá procesos para crear, gestionar, monitorizar y comunicar sobre la IA y los riesgos de la IA.
aprovechará las herramientas para mejorar el rendimiento y la fiabilidad de la IA a lo largo del ciclo de vida de la IA.
Un Consejo de Ética de la IA es un mecanismo de gobierno especialmente eficaz. En IBM, el Consejo de Ética de la IA está compuesto por diversos líderes de toda la empresa. Proporciona un proceso centralizado de gobierno, revisión y toma de decisiones para las políticas y prácticas éticas de IBM. Obtenga más información sobre el Comité de Ética de IA de IBM.
El enfoque de una organización hacia la ética de la IA puede guiarse por principios que se pueden aplicar a productos, políticas, procesos y prácticas en toda la organización para ayudar a permitir una IA fiable. Estos principios deben estructurarse y apoyarse en áreas de enfoque, como la explicabilidad o la equidad, en torno a las cuales se puedan desarrollar las normas y alinear las prácticas.
Cuando la IA se construye con la ética en el centro, es capaz de tener un enorme potencial para impactar a la sociedad para bien. Hemos empezado a verlo en su integración en áreas de la atención médica, como la radiología. La conversación en torno a la ética de la IA también es importante para evaluar y mitigar adecuadamente los posibles riesgos relacionados con los usos de la IA, comenzando la fase de diseño.
Como las normas éticas no son la principal preocupación de los ingenieros y científicos de datos del sector privado, han surgido varias organizaciones para promover una conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos proporcionan recursos para promulgar la ética de la IA:
IBM también ha establecido su propio punto de vista sobre la ética de la IA, creando Principios de Confianza y Transparencia para ayudar a los clientes a entender dónde se encuentran sus valores dentro de la conversación en torno a la IA. IBM tiene tres principios básicos que dictan su enfoque hacia el desarrollo de datos e IA, que son:
IBM también ha desarrollado cinco pilares para guiar la adopción responsable de las tecnologías de IA. Entre ellas figuran:
Estos principios y áreas de enfoque forman la base de nuestro enfoque de la ética de la IA. Para obtener más información sobre los puntos de vista de IBM en torno a la ética y la inteligencia artificial, lea más aquí.
El enfoque multidisciplinario y multidimensional de IBM para una IA fiable
Cree, ejecute y gestione modelos de IA. Prepare datos y construya modelos en cualquier nube utilizando código abierto o modelado visual. Pronostique y optimice sus resultados.
Cree flujos de trabajo de IA responsables, transparentes y explicables.