Estudo da IBM e AWS: menos de 25% dos projetos atuais de IA generativa estão sendo protegidos
O mundo corporativo sempre operou com a noção de que a confiança é a moeda dos bons negócios. Mas, à medida que a IA transforma e redefine o funcionamento das empresas e a interação com os clientes, é preciso construir a confiança na tecnologia.
Os avanços em IA podem liberar o capital humano para focar em entregas de alto valor. Essa evolução certamente terá um impacto transformador no crescimento dos negócios, mas a experiência de usuários e clientes depende do compromisso das organizações em construir soluções tecnológicas seguras, responsáveis e confiáveis.
As empresas precisam garantir que a IA generativa que interage com os usuários seja confiável, e a segurança é um componente fundamental dessa confiança. Portanto, aqui reside uma das maiores apostas das empresas: proteger suas implementações de IA.
Hoje, o IBM Institute for Business Value lançou o estudo Protegendo a IA generativa: o que importa agora, coautorado pela IBM e AWS, apresentando novos dados, práticas e recomendações sobre a proteção de implementações de IA generativa. De acordo com o estudo da IBM, 82% dos executivos entrevistados afirmaram que uma IA segura e confiável é essencial para o sucesso de suas empresas. Embora isso pareça promissor, 69% dos líderes entrevistados também indicaram que, quando se trata de IA generativa, a inovação tem prioridade sobre a segurança.
Priorizar entre inovação e segurança pode parecer uma escolha, mas na verdade é um teste. Há uma clara tensão aqui; as organizações reconhecem que os riscos são maiores do que nunca com a IA generativa, mas não estão aplicando as lições aprendidas com as disrupções tecnológicas anteriores. Assim como na transição para nuvem híbrida, desenvolvimento ágil de software ou zero trust, a segurança da IA generativa pode ser deixada em segundo plano. Mais de 50% dos entrevistados estão preocupados com riscos imprevisíveis que impactam iniciativas de IA generativa e temem que possam aumentar o potencial de interrupção dos negócios. No entanto, eles relatam que apenas 24% dos projetos atuais de IA generativa estão sendo protegidos. Por que existe essa desconexão?
A indecisão em relação à segurança pode ser tanto um indicador quanto um resultado de uma lacuna mais ampla de conhecimento sobre IA generativa. Quase metade dos entrevistados (47%) afirmou estar incerta sobre onde e quanto investir quando se trata de IA generativa. Mesmo enquanto as equipes testam novos recursos, os líderes ainda estão definindo quais casos de uso de IA generativa fazem mais sentido e como escalá-los para seus ambientes de produção.
Não saber por onde começar pode também ser um impedimento para ações de segurança. Por isso, a IBM e a AWS uniram esforços para elaborar um guia de ação e recomendações práticas para organizações que buscam proteger sua IA.
Para estabelecer confiança e segurança em sua IA generativa, as organizações devem começar pelo básico, tendo o controle como fundamento. Na verdade, 81% dos entrevistados indicaram que a IA generativa requer um novo modelo de controle de segurança fundamentalmente diferente. Ao iniciar com controle, risco e conformidade (GRC), os líderes podem construir a base para uma estratégia de cibersegurança que proteja sua arquitetura de IA alinhada aos objetivos de negócios e aos valores da marca.
Para que qualquer processo seja protegido, é preciso primeiro entender como ele deve funcionar e qual é o processo esperado, para que desvios possam ser identificados. Uma IA que se desvia do que foi projetada para fazer operacionalmente pode introduzir novos riscos com impactos nos negócios não previstos. Assim, identificar e compreender esses potenciais riscos ajuda as organizações a entender seu próprio limiar de risco, de acordo com seus requisitos exclusivos de conformidade e regulamentação.
Uma vez definidos os parâmetros de controle, as organizações podem estabelecer de forma mais eficaz uma estratégia para proteger o pipeline de IA. Os dados, os modelos e seu uso, bem como a infraestrutura subjacente na qual estão construindo e incorporando suas inovações de IA. O modelo de responsabilidade compartilhada pela segurança pode mudar dependendo de como a organização usa a IA generativa. Há muitas ferramentas, controles e processos disponíveis para mitigar o risco de impacto nos negócios à medida que as organizações desenvolvem suas próprias operações de IA.
As organizações também precisam entender que, embora alucinações, ética e viés sejam frequentemente as primeiras preocupações ao se pensar em IA confiável, o pipeline de IA enfrenta um cenário de ameaças que coloca a própria confiança em risco. Ameaças convencionais ganham um novo significado, novas ameaças utilizam recursos ofensivos de IA como um novo vetor de ataque, e novas ameaças buscam comprometer os ativos e serviços de IA dos quais dependemos cada vez mais.
A segurança pode ajudar a trazer confiança e credibilidade aos casos de uso de IA generativa. Para obter essa sinergia, as organizações precisam adotar uma abordagem de cooperação ampla, onde todos estejam envolvidos. A conversa deve ir além dos stakeholders de IS e TI, abrangendo estratégia, desenvolvimento de produtos, risco, cadeia de suprimentos e engajamento do cliente.
Como essas tecnologias são ao mesmo tempo transformadoras e disruptivas, gerenciar os ativos de IA e IA generativa da organização requer colaboração entre as áreas de segurança, tecnologia e negócios.
Um parceiro tecnológico pode desempenhar um papel fundamental. Usar a amplitude e a profundidade da experiência dos parceiros tecnológicos em todo o ciclo de vida das ameaças e no ecossistema de segurança pode ser um ativo inestimável. Na verdade, o estudo da IBM revelou que mais de 90% das organizações pesquisadas utilizam um produto de terceiros ou parceiro tecnológico para suas soluções de segurança em IA generativa. Quando se trata de selecionar um parceiro tecnológico para suas necessidades de segurança em IA generativa, as organizações entrevistadas relataram o seguinte:
O estudo deixa claro que as organizações reconhecem a importância da segurança para suas inovações em IA, mas ainda estão tentando entender a melhor forma de abordar a revolução da IA. Construir relacionamentos que possam orientar, aconselhar e apoiar tecnicamente esses esforços é uma próxima etapa crucial para uma IA generativa protegida e confiável. Além de compartilhar insights importantes sobre as percepções e prioridades dos executivos, a IBM e a AWS incluíram um guia de ação com recomendações práticas para levar sua estratégia de segurança em IA generativa ao próximo nível.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io