Las empresas se enfrentan a un panorama normativo mundial cada vez más complejo y cambiante en lo que respecta a la IA. El enfoque de IBM sobre la ética de la IA equilibra la innovación con la responsabilidad, lo que le ayuda a adoptar una IA fiable a escala.
Fomentar un futuro más ético por medio de la tecnología
Caso de éxito: generar confianza en la IA
Cocreadas por IBM, las nuevas normas de procedencia de los datos de Data & Trust Alliance ofrecen una taxonomía de metadatos inédita para fomentar la transparencia sobre la procedencia de los datos.
Este reconocimiento valida el enfoque exclusivo de IBM para ofrecer modelos fundacionales de nivel empresarial que ayuden a los clientes a acelerar la adopción de la IA generativa en sus flujos de trabajo empresariales y, al mismo tiempo, mitiguen sus riesgos inherentes.
La Ley de IA de la UE entrará en vigor en junio de 2024. ¿Qué debe saber y hacer para cumplir la normativa?
Tres líderes de IBM ofrecen sus puntos de vista sobre las importantes oportunidades y desafíos que enfrentan los nuevos directores de IA en sus primeros 90 días.
Conozca las estrategias y herramientas que pueden ayudar a mitigar los riesgos únicos que plantean los modelos fundacionales.
Descubra cómo la responsabilidad en el desarrollo y la implementación de la tecnología basada en IA puede ayudar a las personas y al planeta.
Los líderes de IBM Christina Montgomery y Joshua New destacan tres prioridades clave que los responsables políticos deben abordar para mitigar los perjuicios de los deepfakes.
Un buen diseño no sacrifica la transparencia a la hora de crear una experiencia optimizada.
Calibrada correctamente, la IA puede ayudar a los seres humanos a tomar decisiones más justas.
Dado que los sistemas se emplean para tomar decisiones cruciales, la IA debe ser segura y sólida.
La transparencia refuerza la confianza, y la divulgación es la mejor manera de promoverla.
Los sistemas de IA deben priorizar y salvaguardar la privacidad y los derechos de los consumidores en materia de datos.
Cuando se diseñan de forma ética y se introducen en el mercado de manera responsable, las capacidades generativas de la IA ofrecen oportunidades sin precedentes que benefician tanto a las empresas como a la sociedad.
Los valores humanos están en el corazón de la IA responsable.
IBM y Data & Trust Alliance ofrecen información sobre la necesidad de gobernanza, especialmente en la era de la IA generativa.
Un enfoque de la regulación de la IA basado en el riesgo y el contexto puede mitigar los riesgos potenciales, incluidos los que plantean los modelos fundacionales.
El Consejo de Ética de la IA de IBM se creó como organismo multidisciplinar que apoya una cultura de la IA ética, responsable y fiable en todo la organización.
Co-presidida por Francesca Rossi y Christina Montgomery, la misión de la Junta es apoyar un proceso centralizado de gobierno, revisión y toma de decisiones para las políticas, prácticas, comunicaciones, investigación, productos y servicios éticos de IBM. La Junta es el mecanismo por el que IBM, mediante la aplicación de nuestros sólidos principios y pensamiento ético, logra que la empresa y todo el personal de IBM se ciña a nuestros valores.
Lea el informe IBM Impact de 2023 para obtener más información
Eche un vistazo al marco de gobierno ético de la IA de IBM
Más información sobre Francesca
Más información sobre Christina
IBM aboga por políticas que equilibren la innovación con la responsabilidad y la confianza para ayudar a construir un futuro mejor para todos.
Las cinco mejores prácticas de IBM para incluir y equilibrar la supervisión humana, el control y la responsabilidad sobre las decisiones en todo el ciclo de vida de la IA.
La perspectiva de IBM sobre las oportunidades planteadas por los modelos fundacionales, así como sus riesgos y posible mitigación.
La concienciación sobre los riesgos y las posibles mitigaciones es un primer paso crucial para construir y utilizar modelos fundacionales de forma responsable.
Informe técnico que describe siete recomendaciones sobre los riesgos del modelo de negocio basado en datos para los responsables políticos.
Las empresas deberían usar un marco de políticas de gobierno de IA basado en el riesgo y unos principios selectivos para desarrollar una IA confiable.
Informe técnico sobre los riesgos para la privacidad de las interfaces cerebro-ordenador.
Las empresas que recogen, gestionan o tratan datos tienen la obligación de manejarlos con responsabilidad y garantizar su propiedad y privacidad, seguridad y confianza.
IBM ya no produce software de reconocimiento o análisis facial. Creemos en un infraestructura de gobierno basada en la regulación de la precisión.
Cinco prioridades para reforzar la adopción de las pruebas, la evaluación y las estrategias para reducir al máximo el sesgo de los sistemas de IA.
Un estudio pionero sobre responsabilidad, conformidad y ética en la era de las máquinas inteligentes.
El punto de vista de IBM sobre la protección de los grupos de riesgo en la auditoría de sesgo de IA.
La nueva hoja de ruta de políticas de Data & Trust Alliance, elaborada en colaboración con IBM, ofrece recomendaciones para equilibrar la innovación en IA con su seguridad.
En The Futurist Summit, la directora de privacidad y confianza de IBM, Christina Montgomery, y la directora general de colaboración para la IA, Rebecca Finley, debaten sobre la relación crucial entre la innovación abierta y la seguridad de la IA.
Con el apoyo del Laboratorio de Ética Tecnológica Notre Dame-IBM, en 2024 se llevarán a cabo diez proyectos de investigación.
Con el apoyo del Laboratorio de Ética Tecnológica Notre Dame-IBM, el Pulitzer Center lanza la serie AI Spotlight, una iniciativa de formación mundial.
IBM y Meta lanzan la AI Alliance en colaboración con más de 50 miembros fundadores y colaboradores de todo el mundo.
Conozca las predicciones en materia de privacidad de los principales líderes del sector, como Christina Montgomery, directora de privacidad y confianza de IBM.
En colaboración con IBM, el Foro Económico Mundial presenta tres documentos informativos para guiar la transformación responsable con la IA.