A IA invisível é o uso não autorizado de qualquer ferramenta ou aplicação de inteligência artificial (IA) por funcionários ou usuários finais sem a aprovação formal ou supervisão do departamento de tecnologia da informação (TI).
Um exemplo comum de IA invisível é o uso não autorizado de aplicações de IA generativa (IA gen), como o ChatGPT da OpenAI, para automatizar tarefas como edição de texto e análise de dados. Os funcionários geralmente recorrem a essas ferramentas para aumentar a produtividade e agilizar os processos. No entanto, como as equipes de TI não sabem que esses aplicativos estão sendo usados, os funcionários podem, sem saber, expor a organização a riscos significativos relacionados à segurança de dados, conformidade e reputação da empresa.
Para CIOs e CISOs, desenvolver uma estratégia de IA robusta que incorpore iniciativas de governança e segurança de IA é fundamental para um gerenciamento de riscos de IA eficaz. Ao se comprometer com políticas de IA que enfatizam a importância da conformidade e da cibersegurança , os líderes podem gerenciar os riscos da IA invisível e, ao mesmo tempo, adotar os benefícios das tecnologias de IA.
Para entender as implicações da IA invisível, é útil distingui-la da TI invisível.
TI invisível refere-se à implementação de qualquer software, hardware ou tecnologia da informação em uma rede corporativa sem a aprovação, conhecimento ou supervisão de um departamento de TI ou CIO. Os funcionários podem recorrer à tecnologia de IA não autorizada quando acharem que as soluções existentes são insuficientes ou acreditarem que as opções aprovadas são muito lentas. Exemplos comuns incluem o uso de serviços de armazenamento em nuvem pessoal ou ferramentas de gerenciamento de projetos não aprovadas.
Enquanto a TI invisível se concentra em qualquer aplicação ou serviço não autorizado, a IA invisível se concentra em ferramentas, plataformas e casos de uso específicos de IA. Por exemplo, um funcionário pode usar um grande modelo de linguagem (LLM) para gerar rapidamente um relatório sem perceber os riscos de segurança. A principal diferença está na natureza das ferramentas utilizadas: IA invisível tem a ver com o uso não autorizado de inteligência artificial, que introduz preocupações únicas relacionadas ao gerenciamento de dados, saídas de modelos e tomada de decisões.
De 2023 a 2024, a adoção de aplicações de IA generativa por funcionários corporativos cresceu de 74% para 96%, à medida que as organizações adotaram tecnologias de IA.1 Junto com esse crescimento, veio um aumento na IA invisível. Hoje, mais de um terço (38%) dos funcionários reconhecem compartilhar informações confidenciais de trabalho com ferramentas de IA sem a permissão de seus empregadores.2
A IA invisível pode expor as empresas a vários riscos, incluindo vazamento de dados, multas por não conformidade e graves danos à reputação:
Um dos principais riscos associados à IA invisível é o potencial para violações de dados. Quando há falta de supervisão quanto ao uso da IA, os funcionários podem expor inadvertidamente informações confidenciais , levando a preocupações com a privacidade de dados . De acordo com uma pesquisa recente com CISOs, uma em cada cinco empresas do Reino Unido sofreu vazamento de dados por causa de funcionários que usavamIA generativa.3 O risco elevado de vazamento de dados pode explicar por que três quartos dos entrevistados também afirmaram que os agentes internos representam um risco maior para a organização do que as ameaças externas.4
Em muitos setores, a conformidade regulatória não é negociável. O uso da IA invisível pode levar a problemas de conformidade, especialmente em relação à proteção e privacidade de dados. As organizações podem ser obrigadas a cumprir regulamentações como o General Data Protection Regulation (GDPR). As multas por não conformidade com o GDPR podem ser substanciais: infrações graves (como o processamento de dados para fins ilícitos) podem custar a empresas acima de EUR 20 milhões, ou 4% da receita mundial da organização no ano anterior, o que for maior.
Confiar em modelos de IA não autorizados pode afetar a qualidade da tomada de decisões . Sem uma governança adequada, as saídas geradas por esses modelos podem não estar alinhadas com os objetivos da organização ou padrões éticos. Dados tendenciosos, overfitting e desvio do modelo são alguns exemplos de riscos de IA que podem levar a escolhas estratégicas ruins e prejudicar a reputação de uma empresa.
O uso não autorizado da IA também pode contradizer os padrões de qualidade de uma empresa e minar a confiança do consumidor. Considere a reação quando a Sports Illustrated foi exposta por publicar artigos escritos por autores gerados por IA ou quando o Uber Eats foi criticado por usar imagens de alimentos geradas por IA.
Apesar dos riscos, a IA invisível está se tornando mais comum por diversas razões. As organizações estão adotando a transformação digital e, por extensão, a integração das tecnologias de IA para reimaginar os fluxos de trabalho e a tomada de decisões.
A proliferação de ferramentas de IA fáceis de usar significa que os funcionários podem acessar facilmente soluções de IA avançadas para aprimorar seus recursos. Muitas aplicações de IA estão disponíveis como produtos de software como serviço (SaaS), permitindo que os indivíduos adotem rapidamente essas ferramentas sem necessariamente envolver equipes de TI ou segurança. Com a democratização da IA, os funcionários estão encontrando novas maneiras de:
A IA invisível se manifesta de várias maneiras em todas as organizações, muitas vezes impulsionada pela necessidade de eficiência e inovação. Exemplos comuns de IA invisível incluem chatbots impulsionados por IA , modelos de ML para análise de dados, ferramentas de automação de marketing e ferramentas de visualização de dados.
No atendimento ao cliente, as equipes podem recorrer a chatbots IA não autorizados para gerar respostas para consultas. Por exemplo, um representante de atendimento ao cliente pode tentar responder à pergunta de um cliente pedindo respostas a um chatbot em vez de consultar os materiais aprovados pela empresa. Isso pode resultar em mensagens inconsistentes ou falsas, possíveis falhas de comunicação com os clientes e riscos de segurança se a pergunta do representante contiver dados confidenciais da empresa.
Os funcionários podem usar modelos externos de aprendizado de máquina para analisar e encontrar padrões nos dados da empresa. Embora essas ferramentas possam gerar insights valiosos, o uso não autorizado de serviços de IA pode criar vulnerabilidades de segurança. Por exemplo, um analista pode usar um modelo de comportamento preditivo para entender melhor o comportamento do cliente a partir de um conjunto de dados proprietário, expondo, sem saber, informações confidenciais no processo.
As equipes de marketing podem procurar otimizar campanhas usando ferramentas de IA invisível, que podem automatizar esforços de marketing por e-mail ou analisar dados de engajamento de redes sociais. O uso dessas ferramentas pode levar a melhores resultados de marketing. No entanto, a ausência de governança pode resultar em não conformidade com normas de proteção de dados, especialmente se os dados dos clientes forem mal utilizados.
Muitas organizações usam ferramentas de visualização de dados impulsionadas por IA para criar rapidamente mapas de calor, gráficos de linhas, gráficos de barras e muito mais. Essas ferramentas podem ajudar a reforçar a business intelligence , ao exibir relacionamentos e insights de dados complexos de uma forma fácil de entender. No entanto, inserir dados da empresa sem a aprovação da TI pode levar a imprecisões na geração de relatórios e a possíveis problemas de segurança de dados.
Para gerenciar os riscos da IA invisível, as organizações podem considerar várias abordagens que incentivam o uso da IA responsável e , ao mesmo tempo reconhecem a necessidade de flexibilidade e inovação:
O diálogo aberto entre departamentos de TI, equipes de segurança e unidades de negócios pode facilitar uma melhor compreensão dos recursos e limitações da IA. Uma cultura de colaboração pode ajudar as organizações a identificar quais ferramentas de IA são benéficas e, ao mesmo tempo, ajudar a garantir a conformidade com os protocolos de proteção de dados .
Frameworks de governança podem acomodar a natureza acelerada da adoção da IA e, ao mesmo tempo, manter as medidas de segurança. Esses frameworks podem incluir diretrizes claras sobre quais tipos de sistemas de IA podem ser usados, como as informações confidenciais devem ser tratadas e de qual treinamento os funcionários precisam em relação à ética de IA e conformidade.
As proteções em torno do uso da IA podem fornecer uma rede de segurança, ajudando a garantir que os funcionários usem somente ferramentas aprovadas dentro de parâmetros definidos. As proteções podem incluir políticas relativas ao uso externo da IA, ambientes de área de testes para testar aplicações de IA ou firewalls para bloquear plataformas externas não autorizadas.
Talvez não seja viável eliminar todas as instâncias da IA invisível. Portanto, as organizações podem implementar ferramentas de monitoramento de rede para rastrear o uso de aplicações e estabelecer controles de acesso para limitar o software não aprovado. Auditorias regulares e monitoramento ativo dos canais de comunicação também podem ajudar a identificar se, e como, aplicativos não autorizados estão sendo usados.
O cenário da IA invisível está em constante evolução, apresentando novos desafios às organizações. As empresas podem estabelecer comunicações regulares, como boletins informativos ou atualizações trimestrais, para informar os funcionários sobre a IA invisível e os riscos associados.
Ao aumentar a consciência sobre as implicações do uso de ferramentas de IA não autorizadas, as organizações podem promover uma cultura de uso responsável da IA responsável. Essa compreensão pode incentivar os funcionários a buscar alternativas aprovadas ou consultar a TI antes de implementar novas aplicações.
Todos os links levam para fora do site ibm.com
1 Sensitive Data Sharing Risks Heightened as GenAI Surges, Infosecurity Magazine, 17 de julho de 2024.
2 Over a Third of Employees Secretly Sharing Work Info with AI, Infosecurity Magazine, 26 de setembro de 2024.
3 Fifth of CISOs Admit Staff Leaked Data Via GenAI, Infosecurity Magazine, 24 de abril de 2024.
4 Article 99: Penalties, EU Artificial Intelligence Act.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.