Enquanto eu crescia, meu pai sempre dizia: “faça bom”. Quando criança, eu achava que era uma gramática barata e eu o corrigia, insistência que deveria ser "faça bem". Até mesmo meus filhos me provocam quando ouvem seu conselho de "faça bom", e admito que deixo a desejar no quesito gramática.
No caso da inteligência artificial (IA) responsável, as organizações devem priorizar a capacidade de evitar danos como foco central. Algumas organizações também podem pretender usar a IA para "fazer o bem". No entanto, às vezes a IA exige proteções claras antes que se possa concordar com “bom”.
Leia o paper "Presidio AI Framework" para aprender como lidar com os riscos da IA generativa com guardrails em todo o ciclo de vida expandido da IA (link externo a ibm.com)
À medida que a IA generativa continua a se popularizar, as organizações estão entusiasmadas com o potencial de transformar processos, reduzir custos e aumentar o valor comercial. Os líderes empresariais estão ansiosos para redesenhar suas estratégias de negócios para melhor atender clientes, pacientes, funcionários, parceiros ou cidadãos de forma mais eficiente e melhorar a experiência geral. A IA generativa está abrindo portas e criando novas oportunidades e riscos para as organizações em todo o mundo. A liderança de recursos humanos (RH) desempenhando um papel fundamental na gestão desses desafios.
Adaptar-se às implicações do aumento da adoção de IA pode incluir cumprir requisitos regulatórios complexos, como NIST, a Lei de IA da UE, NYC 144, US EEOC e The White House AI Act (todos os links anteriores são externos a ibm.com), que afetam diretamente as políticas organizacionais e de RH, bem como os acordos sociais, de qualificação profissional e de negociação coletiva. A adoção de IA responsável exige uma estratégia multissetorial, conforme afirmado por importantes recursos internacionais, incluindo o NIST, a OCDE, o Responsible Artificial Intelligence Institute, a Data and Trust Alliance e o IEEE (todos os links anteriores são externos a ibm.com).
Boletim informativo do setor
Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
Agora, os líderes de RH orientam as empresas sobre as habilidades necessárias para o trabalho atual, bem como as habilidades futuras, considerando IA e outras tecnologias. De acordo com o WOF, os empregadores estimam que 44% das habilidades dos trabalhadores serão interrompidas nos próximos cinco anos. Os profissionais de RH estão explorando cada vez mais seu potencial para melhorar a produtividade, fortalecendo o trabalho dos funcionários e permitindo que se concentrem em trabalhos de nível superior. À medida que os recursos de IA se expandem, surgem preocupações e questões éticas que todo líder de negócios deve considerar para que o uso de IA não aconteça às custas de trabalhadores, parceiros ou clientes.
A educação dos trabalhadores e o gerenciamento do conhecimento agora são fortemente coordenados como uma estratégia multistakeholders com operadores de TI, jurídicos, de conformidade e de negócios como um processo contínuo, em vez de uma caixa de seleção uma vez por ano. Sendo assim, os líderes de RH precisam estar intrinsecamente envolvidos no desenvolvimento de programas para criar políticas e aprimorar o conhecimento em IA dos funcionários, identificando onde aplicar os recursos de IA, estabelecendo uma estratégia de governança de IA responsável e utilizando ferramentas como IA e automação para ajudar a garantir consideração e respeito pelos funcionários por meio de uma adoção de IA confiável e transparente.
Embora a adoção de IA e os casos de uso continuem se expandindo, as organizações podem não estar totalmente preparadas para as muitas considerações e consequências da adoção de recursos de IA em seus processos e sistemas. Embora 79% dos executivos entrevistados tenham enfatizado a importância da ética na IA na abordagem com relação à IA em toda a empresa, menos de 25% operacionalizaram princípios comuns de ética na IA, de acordo com uma pesquisa do IBM Institute for Business Value.
Essa discrepância existe porque as políticas por si só não conseguem eliminar a prevalência e o aumento do uso de ferramentas digitais. O uso crescente de dispositivos inteligentes e aplicativos pelos trabalhadores, como o ChatGPT ou outros modelos públicos de caixa-preta, sem a devida aprovação, tornou-se um problema persistente e não inclui a gestão de mudanças para informar os trabalhadores sobre os riscos associados.
Por exemplo, os trabalhadores podem usar essas ferramentas para escrever e-mails para clientes usando dados confidenciais de clientes ou os gerentes podem usá-las para escrever avaliações de desempenho que divulgam dados pessoais dos funcionários.
Para ajudar a reduzir esses riscos, pode ser útil incorporar pontos focais ou defensores da prática de IA responsável em cada departamento, unidade de negócios e nível funcional. Esse exemplo pode ser uma oportunidade para o RH impulsionar e defender esforços para impedir possíveis desafios éticos e riscos operacionais.
No final das contas, é imperativo criar uma estratégia de IA responsável com valores e princípios comuns que estejam alinhados aos valores mais amplos da empresa e à estratégia de negócios e que sejam comunicados a todos os funcionários. Essa estratégia precisa defender os funcionários e identificar oportunidades para as organizações adotarem a IA e a inovação que impulsionam os objetivos de negócios. Também deve ajudar os funcionários com a educação para ajudar a proteger contra os efeitos prejudiciais da IA, lidar com a desinformação e o viés e promover a IA responsável, tanto internamente quanto na sociedade.
As três principais considerações que os líderes de negócios e RH devem ter em mente ao desenvolver uma estratégia de IA responsável são:
Em outras palavras, priorize seu pessoal ao planejar sua estratégia de tecnologia avançada. Isso significa identificar como a IA trabalha com seus funcionários, comunicar especificamente a esses funcionários como a IA pode ajudá-los a se destacar em suas funções e redefinir as formas de trabalhar. Sem educação, os funcionários poderiam ficar excessivamente preocupados com o fato de a IA ser implementada para substituí-los ou eliminar a força de trabalho. Comunique-se diretamente com os funcionários com honestidade sobre como esses modelos são desenvolvidos. Os líderes de RH devem lidar com possíveis mudanças de emprego, bem como a realidade de novas categorias e empregos criados pela IA e outras tecnologias.
A IA não é um monolito. As organizações podem implementá-la de muitas maneiras e, por isso, devem definir claramente o que a IA responsável significa para elas, como planejam usá-la e como deixarão de usá-la. Princípios como transparência, confiança, equidade, justiça, robustez e o uso de equipes diversas, alinhados às diretrizes da OCDE ou da RAII, devem ser considerados e projetados dentro de cada caso de uso de IA, quer envolva IA generativa ou não. Além disso, avaliações de rotina de descompasso de modelos e medidas de privacidade devem ser conduzidas para cada modelo e métricas específicas de diversidade, equidade e inclusão para mitigação de viés.
A realidade é que alguns funcionários já estão experimentando as ferramentas de IA generativa para ajudá-los na realização de tarefas como responder perguntas, redigir e-mails e realizar outras tarefas rotineiras. Portanto, as organizações devem agir imediatamente para comunicar seus planos de usar essas ferramentas, definir expectativas para os funcionários que as utilizarão e ajudar a garantir que o uso dessas ferramentas esteja alinhado com os valores e a ética da organização. Além disso, as organizações devem oferecer oportunidades de desenvolvimento de habilidades para ajudar os funcionários a qualificar seus conhecimentos de IA e entender possíveis caminhos de carreira.
Praticar e integrar a IA responsável na sua organização é essencial para uma adoção bem-sucedida. A IBM colocou a IA responsável no centro de sua abordagem de IA com clientes e parceiros. Em 2018, a IBM estabeleceu o Conselho de Ética de IA como um órgão central e interdisciplinar para apoiar uma cultura de IA ética, responsável e confiável. Ele é composto por líderes seniores de vários departamentos, como pesquisa, unidades de negócios, recursos humanos, diversidade e inclusão, assuntos jurídicos, governo e regulatórios, aquisição e comunicações. O conselho direciona e aplica iniciativas e decisões relacionadas à IA. A IBM leva a sério os benefícios e os desafios da IA, incorporando responsabilidade em tudo o que fazemos.
Permitirei a meu pai essa regra de gramática violada. A IA pode "fazer bom" quando gerenciada corretamente, com o envolvimento de muitos seres humanos, proteções, supervisão, governança e um framework de ética em IA.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.