A introdução de sistemas de IA generativa no domínio público expôs pessoas em todo o mundo a novas possibilidades tecnológicas, implicações e até mesmo consequências que muitas ainda não consideraram. Graças a sistemas como o ChatGPT, praticamente qualquer pessoa pode agora usar modelos de IA que são capazes de não só detectar padrões, aprimorar dados e fazer recomendações como as versões anteriores da IA, mas também ir além disso para criar novo conteúdo, desenvolver respostas de chat originais e mais.
Quando projetados de forma ética e levados ao mercado com responsabilidade, os recursos de IA generativa apoiam oportunidades sem precedentes para beneficiar os negócios e a sociedade. Eles podem ajudar a criar um melhor atendimento ao cliente e melhorar os sistemas de saúde e serviços jurídicos. Eles também podem apoiar e aumentar a criatividade humana, acelerar descobertas científicas e mobilizar maneiras mais eficazes de lidar com os desafios climáticos.
Estamos em um ponto de inflexão crítico no desenvolvimento, na implementação e no uso da IA e em seu potencial para acelerar o progresso humano. No entanto, esse enorme potencial vem com riscos, como a geração de conteúdo falso e texto prejudicial, possíveis vazamentos de privacidade, amplificação de vieses e uma profunda falta de transparência sobre como esses sistemas operam. É crítico, portanto, que questionemos o que a IA pode significar para o futuro da força de trabalho, para a democracia, para a criatividade e para o bem-estar geral dos humanos e do nosso planeta.
Alguns líderes de tecnologia pediram recentemente uma pausa de seis meses no treinamento de sistemas de IA mais poderosos para permitir a criação de novos padrões éticos. Embora as intenções e motivações da carta sejam sem dúvida boas, ela ignora um ponto fundamental: esses sistemas estão sob nosso controle hoje, assim como as soluções.
O treinamento responsável, juntamente com uma abordagem ética por design em todo o pipeline de IA, apoiado por uma colaboração entre os vários stakeholders em torno da IA, pode melhorar esses sistemas, e não piorá-los. A IA é uma tecnologia em constante evolução. Portanto, tanto para os sistemas em uso hoje quanto para os sistemas que entrarão em operação no futuro, o treinamento deve fazer parte de uma abordagem responsável para a construção da IA. Não precisamos de uma pausa para priorizar a IA responsável.
É hora de levar a sério os padrões e as proteções éticas da IA que todos nós devemos continuar adotando e refinando. A IBM, por sua vez, estabeleceu anos atrás um dos primeiros Conselhos de Ética em IA do setor, juntamente com um framework de ética em IA para toda a empresa. Nós nos esforçamos constantemente para fortalecer e melhorar esse framework, fazendo um balanço do cenário tecnológico atual e futuro, a partir de nossa posição nos setores, bem como por meio de uma abordagem de vários stakeholders que prioriza a colaboração com outros.
Nosso Conselho oferece uma estrutura de governança responsável e centralizada que define políticas claras e orienta a responsabilidade ao longo do ciclo de vida da IA, mas ainda é ágil e flexível para atender às necessidades de negócios da IBM. Isso é crítico e é algo que temos feito tanto com os sistemas de IA tradicionais quanto com os mais avançados. Porque, novamente, não podemos apenas nos concentrar nos riscos dos sistemas de IA futuros e ignorar os atuais. O alinhamento de valores e as atividades éticas em IA são necessários agora e precisam evoluir continuamente à medida que a IA evolui.
Além da colaboração e da supervisão, a abordagem técnica para construir esses sistemas também deve ser moldada desde o início por considerações éticas. Por exemplo, as preocupações com a IA geralmente decorrem da falta de entendimento do que acontece dentro da "caixa-preta". É por isso que a IBM desenvolveu uma plataforma de governança que monitora os modelos quanto à imparcialidade e ao viés, captura as origens dos dados usados e pode, em última análise, fornecer um processo de gerenciamento de IA mais transparente, explicável e confiável. Além disso, a estratégia de IA para Empresas da IBM se concentra em uma abordagem que incorpora confiança em todo o processo do ciclo de vida da IA. Isso começa com a criação dos próprios modelos e se estende aos dados nos quais treinamos os sistemas e, por fim, à aplicação desses modelos em domínios específicos de aplicações comerciais, em vez de domínios abertos.
Primeiro, exortamos outros em todo o setor privado a colocar a ética e a responsabilidade na vanguarda de suas agendas de IA. Uma pausa geral no treinamento de IA, juntamente com as tendências existentes que parecem estar despriorizando o investimento nos esforços éticos de IA dos setores, só levará a danos adicionais e contratempos.
Em segundo lugar, os governos devem evitar regulamentar amplamente a IA na tecnologia. Caso contrário, acabaremos com uma abordagem descomplicada que dificulta a inovação benéfica e não é preparada para o futuro. Pedimos aos legisladores de todo o mundo que, em vez disso, adotem uma regulamentação inteligente e precisa que aplique o controle de regulamentação mais forte aos casos de uso de IA com o maior risco de danos à sociedade.
Por fim, ainda não há transparência suficiente sobre como as empresas estão protegendo a privacidade dos dados que interagem com seus sistemas de IA. É por isso que precisamos de uma lei de privacidade nacional consistente nos EUA. As proteções de privacidade de um indivíduo não devem mudar só porque ele atravessa a linha de um estado.
O recente foco na IA em nossa sociedade é um lembrete da antiga linha de que com qualquer grande poder vem grande responsabilidade. Em vez de uma pausa generalizada no desenvolvimento de sistemas de IA, vamos continuar a quebrar as barreiras à colaboração e trabalhar juntos para promover uma IA responsável— desde uma ideia que nasce numa sala de reuniões até ao seu treino, desenvolvimento e implementação no mundo real. Os riscos são simplesmente altos demais, e nossa sociedade não merece nada menos que isso.