Este artículo tiene como objetivo ofrecer una visión global del mercado de la ética de la IA en el sector. Para obtener más información sobre el punto de vista de IBM, consulte aquí nuestra página sobre la ética de la IA.
La ética es un conjunto de principios morales que nos ayudan a discernir entre lo correcto y lo incorrecto. La ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados de la inteligencia artificial. Los seres humanos vienen con todo tipo de sesgos cognitivos, como el sesgo de actualidad y el de confirmación, y estos sesgos inherentes se exhiben en nuestros comportamientos y, en consecuencia, en nuestros datos. Dado que los datos son la base para todos los algoritmos de machine learning, es importante para nosotros estructurar experimentos y algoritmos teniendo esto en cuenta, ya que la inteligencia artificial tiene el potencial de intensificar y escalar estos sesgos humanos a un ritmo sin precedentes.
Con el surgimiento de big data, las empresas han mostrado un creciente interés en la automatización y la toma de decisiones basada en datos en sus organizaciones. Si bien la intención suele ser, si no siempre, mejorar los resultados de negocio, las empresas están experimentando consecuencias imprevistas en algunas de sus aplicaciones de IA, en particular debido a una falta de investigación inicial y a conjuntos de datos sesgados.
A medida que han salido a la luz casos de resultados injustos, han ido surgiendo nuevas pautas, principalmente de las comunidades de investigación y ciencia de datos, para atender las preocupaciones en torno a la ética de la IA. Las empresas líderes en el campo de la IA también han mostrado interés en definir estas pautas, ya que ellas mismas han sido víctimas de algunas de las consecuencias de no mantener los estándares éticos en sus productos. La falta de diligencia en esta área puede tener implicaciones legales y normativas, resultando en costosas sanciones, además de afectar a la reputación. Al igual que con todos los avances tecnológicos, la innovación tiende a ir por delante de la regulación gubernamental en nuevos campos emergentes. A medida que se desarrolle la experiencia adecuada dentro del Gobierno, podremos esperar más protocolos de IA que deban seguir las empresas, que les permitirán evitar cualquier violación de los derechos humanos y las libertades civiles.
Multiplique la potencia de la IA para su empresa con la plataforma de datos e IA de nueva generación de IBM
Obtenga más información sobre cómo llevar a la práctica los principios de la ética de la IA. (326 KB)
Mientras se desarrollan reglas y protocolos para gestionar el uso de la inteligencia artificial, la comunidad académica ha aprovechado el Informe Belmont (enlace externo a ibm.com) (PDF, 121 KB) como medio para guiar la ética en el ámbito de la investigación experimental y el desarrollo de algoritmos. Hay tres principios que surgieron del Informe Belmont que sirven como guía para el diseño de algoritmos y experimentos, que son:
Ética de la IA de IBM
Varias son las cuestiones recurrentes en las conversaciones éticas en torno a las tecnologías de IA. De ellas, destacamos:
Aunque esta cuestión recibe mucha atención pública, la mayoría de investigadores no están preocupados por la idea de que la IA supere a la inteligencia humana en un futuro cercano o inmediato. Esto también se conoce como superinteligencia, que Nick Bostrum define como "cualquier intelecto que supera con creces a los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales". A pesar del hecho de que la IA fuerte y la superinteligencia no son inminentes en la sociedad, esta idea plantea algunas preguntas interesantes, si consideramos el uso de sistemas autónomos, como los automóviles autónomos. No es realista pensar que un coche sin conductor nunca tendría un accidente, pero ¿quién sería responsable en esas circunstancias? ¿Seguimos intentando crear vehículos autónomos o limitamos la integración de esta tecnología para crear solo vehículos semiautónomos que promuevan la seguridad entre los conductores? Todavía no se ha alcanzado ningún consenso al respecto, pero estos son los tipos de debates éticos que surgen a medida que se desarrolla la nueva tecnología de IA innovadora.
Aunque gran parte de la percepción pública sobre la inteligencia artificial se centra en la pérdida de empleos, esta preocupación probablemente debería reformularse. Con cada nueva tecnología disruptiva, vemos que cambia la demanda del mercado de puestos de trabajo específicos. Por ejemplo, si observamos la industria del automóvil, muchos fabricantes, como GM, están cambiando para centrarse en la producción de vehículos eléctricos y adaptarse a iniciativas ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. La inteligencia artificial debe mirarse bajo el mismo prisma: la IA cambiará la demanda de empleos a otras áreas. Se necesitarán personas para gestionar estos sistemas a medida que los datos crezcan y cambien cada día. También se necesitarán recursos para abordar problemas más complejos dentro de las industrias que son más propensas a verse afectadas por cambios en la demanda de empleo, como el servicio al cliente. La relevancia de la inteligencia artificial y su efecto en el mercado laboral ayudará a las personas a cambiar a estas nuevas áreas de demanda del mercado.
La privacidad tiende a analizarse en el contexto de la privacidad, la protección y la seguridad de los datos, y es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016, se creó el Reglamento General de Protección de Datos (RGPD) para proteger los datos personales de los ciudadanos de la Unión Europea y el Espacio Económico Europeo, ofreciéndoles un mayor control de sus datos. En Estados Unidos, los distintos estados están desarrollando políticas como, por ejemplo, la Ley de Privacidad del Consumidor de California (CCPA), que requieren que las empresas informen a los consumidores sobre la recopilación de sus datos. Esta reciente legislación ha obligado a las empresas a replantearse cómo almacenan y utilizan los datos de identificación personal (PII). Como resultado, las inversiones en seguridad se han convertido en una prioridad cada vez mayor para las empresas que buscan eliminar cualquier vulnerabilidad y oportunidad de vigilancia, piratería y ciberataques.
Los casos de sesgo y discriminación en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? Normalmente, aunque las empresas ponen sus mejores intenciones en sus iniciativas de automatización, Reuters (enlace externo a ibm.com) destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review (enlace externo a ibm.com) ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.
El sesgo y la discriminación tampoco se limitan a la función de recursos humanos; están presentes en distintas aplicaciones, desde el software de reconocimiento facial a los algoritmos de redes sociales.
A medida que las empresas se vuelven más conscientes de los riesgos de la IA, se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado, el CEO de IBM, Arvind Krishna, anunció que IBM ha desechado sus productos de análisis y reconocimiento facial de IBM de uso general, enfatizando que "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia".
Dado que no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar prácticas éticas de IA. Los incentivos actuales para que las empresas sigan estas directrices son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, y un estudio (enlace externo a ibm.com) (PDF, 1 MB) muestra que la combinación de la responsabilidad distribuida y la falta de previsión de las posibles consecuencias no es necesariamente buena para prevenir el daño en la sociedad.
Dado que la inteligencia artificial no genera máquinas morales, los equipos han empezado a definir marcos de trabajo y conceptos para abordar algunas de las preocupaciones éticas actuales y definir el futuro del trabajo en este campo. Si bien cada día se invierte más estructura en estas directrices, existe cierto consenso en torno a la incorporación de lo siguiente:
Lograr una IA ética será sin duda importante para su éxito. Sin embargo, cabe señalar su gran potencial de impacto positivo sobre la sociedad. Hemos empezado a comprobarlo en su integración en áreas de la asistencia sanitaria, como la radiología. Este debate en torno a la ética de la IA tiene como finalidad garantizar que, en nuestro intento de aprovechar esta tecnología, evaluamos adecuadamente su potencial de daño inherente a su diseño.
Dado que las normas éticas no son la preocupación prioritaria de los ingenieros y científicos de datos en el sector privado, han surgido diversas organizaciones para promover la conducta ética en el campo de la inteligencia artificial. Para aquellos que buscan más información, las siguientes organizaciones y proyectos brindan recursos sobre la implementación de la IA ética:
IBM también ha establecido su propio punto de vista sobre la ética de la IA, creando principios de confianza y transparencia para ayudar a los clientes a comprender sus valores en el debate de la IA. IBM se basa en tres principios que determinan su enfoque hacia los datos y la IA, que son:
IBM también ha desarrollado un conjunto de áreas de atención para guiar la adopción responsable de tecnologías de IA. Estas incluyen:
Estos principios y áreas de atención constituyen la base de nuestro enfoque hacia la ética de IA. Para obtener más información sobre la visión de IBM en torno a la ética y la inteligencia artificial, pulse aquí.
IBM trata de garantizar que sus productos se desarrollen y utilicen teniendo en cuenta pautas y principios éticos. Uno de los productos que IBM ofrece a sus clientes es IBM Watson Studio, que mejora la supervisión y el cumplimiento de los estándares éticos de la IA.
IBM Watson Studio en IBM Cloud Pak for Data ayuda a supervisar y gestionar modelos para aplicar una IA fiable. Una organización puede visualizar y realizar un seguimiento de los modelos de IA en producción, validar y probar modelos para mitigar los riesgos normativos y aumentar la visibilidad sobre el ciclo de vida de la IA. Regístrese para obtener un IBMid y crear su cuenta de IBM Cloud gratuita hoy mismo.
Para obtener más información sobre el punto de vista de IBM sobre la ética de la inteligencia artificial, pulse aquí.
Cree, ejecute y gestione modelos de IA. Prepare datos y desarrolle modelos en cualquier cloud con código fuente abierto o modelado visual. Pronostique y optimice sus resultados.
Cloud Pak for Data es una plataforma de datos abierta y ampliable que proporciona un entramado de datos para facilitar todos los datos para IA y analítica en cualquier cloud.
Enfoque multidisciplinar y multidimensional de IBM hacia la IA fiable