
Os líderes de segurança informática esperam que os agentes de IA sejam benéficos, mas a maioria vê lacunas significativas de rapidez na implementação de salvaguardas apropriadas.
A Salesforce (NYSE: CRM), líder mundial em CRM baseado em Inteligência Artificial (IA), acaba de apresentar os resultados do mais recente estudo State of IT, mostrando que, à medida que a adoção de IA acelera e as ameaças de cibersegurança aumentam, 74% dos líderes de IT em Portugal reconhecem que as suas práticas de segurança precisam de transformação. Os dados do relatório demonstram ainda que um otimismo unânime sobre agentes de IA, com 100% dos inquiridos a identificarem pelo menos uma questão de cibersegurança que pode ser corrigida ou melhorada com agentes.
O estudo hoje apresentado e que foi construído com base num inquérito a 2.000 líderes de TI, entre os quais profissionais de Portugal, demonstra também que, embora haja esperança, os inquiridos anteveem desafios significativos na implementação de soluções. Mais de metade (52%) estão preocupados com a base dos dados não estar configurada para retirar o máximo partido da IA de agente, e quase metade (44%) não estão totalmente confiantes de terem as proteções necessárias para a implementação de agentes de IA.
Tanto os profissionais responsáveis pela proteção dos dados e sistemas de uma empresa, como os que procuram explorar as suas vulnerabilidades, estão a juntar de forma crescente a IA às suas ferramentas de trabalho. Os agentes de IA autónomos, que ajudam as equipas de segurança a cortarem com o seu trabalho mais manual, podem ajudar a libertar o tempo dos humanos para que estes estejam focados na resolução de problemas complexos. No entanto, a implementação de agentes de IA, para ser bem sucedida, requer uma infraestrutura de dados robusta e de políticas de governance.
“Agentes de IA de confiança são construídos sobre bases de dados também elas de confiança. As equipas de segurança informática que priorizam o governance dos dados, são as que serão capazes de aumentar as suas capacidades de segurança com agentes, enquanto protegem dados e se mantêm dentro das obrigações regulatórias.” explica Alice Steinglass, EVP & GM, Salesforce Platform, Integration and Automation.
Orçamentos de segurança disparam com o desenvolvimento das ameaças
Além dos riscos já conhecidos como as ameaças à segurança da cloud, malware e ataques de phishing, os líderes de IT indicam que o envenenamento dos dados é uma das suas principais preocupações – sobre os quais atores maliciosos comprometem as infraestruturas de treino de dados com IA. Neste contexto, o consumo de recursos aumenta: 74% das empresas esperam aumentar os orçamentos de segurança no decorrer do próximo ano.
Ambientes regulatórios complexos dificultam a implementação de IA
Enquanto 70% dos líderes de segurança informática acreditam que os agentes de IA vêm com oportunidades de compliance, como melhorar a adesão a leis globais de privacidade, quase a totalidade dos inquiridos (90%) diz que também apresentam desafios de compliance. Esta realidade poderá vir, em parte, de um ambiente regulatório cada vez mais complexo e interconectado em diferentes geografias e indústrias, aprofundado por processos de compliance que se mantêm maioritariamente não automatizados e com tendência para erros.
- Apenas 46% estão totalmente confiantes com conseguir implementar agentes de IA nos departamentos de compliance com regulamentações e standards concretos.
- 84% das empresas dizem que ainda não automatizaram totalmente os processos de compliance.
A confiança é um pilar fundamental do sucesso da IA, mas a mesma confiança é incipiente
Um estudo recente com consumidores veio constatar que a confiança nas empresas está em declínio acentuado, e mais de metade dos entrevistados em todo o mundo (60%) concordam que os avanços em IA tornam a confiança de uma empresa num lugar ainda mais crítico. Além disso, apenas 42% dos consumidores confiam que as empresas vão utilizar a IA de forma ética, uma queda em relação aos 58% observados em 2023. Os líderes de segurança informática acreditam que ainda há muito trabalho a ser feito para conquistar essa confiança tão importante.
- 67% não estão totalmente confiantes na precisão ou explicabilidade dos resultados das soluções de IA.
- 56% não oferecem total transparência sobre como os dados dos clientes são usados na IA.
- 56% não aperfeiçoaram as diretrizes éticas para o uso da IA.
- 82% dos líderes de segurança informática acreditam que os clientes hesitam em adotar serviços de IA devido a preocupações com segurança ou privacidade.
O governance de dados é um elemento fundamental na evolução dos agentes nas empresas
Cerca de metade dos líderes de segurança informática não tem a certeza se tem dados de qualidade para apoiar os agentes ou se poderia implementar a tecnologia com as permissões, políticas e proteções corretas, mas estão a ser feitos progressos. Um estudo recente junto dos CIO descobriu que foi alocado quatro vezes mais orçamento para a infraestrutura e gestão de dados do que para a IA, um sinal de que as organizações estavam a preparar inteligentemente o terreno para uma implementação mais ampla.
Os agentes de IA permitem uma solução à medida que a adoção aumenta
De acordo com o estudo State of IT, 42% das equipas de segurança informática já utilizam agentes nas suas operações diárias — um número que deverá mais do que duplicar nos próximos dois anos. Os líderes de segurança informática esperam uma série de benefícios à medida que a utilização de agentes aumenta, desde a deteção de ameaças até à auditoria sofisticada do desempenho do modelo de IA. A grande maioria (86%) espera utilizar agentes de IA dentro de dois anos — acima dos 42% atualmente.
Revisões táticas já estão em curso
Para além das medidas que estas equipas devem tomar para reforçar as suas bases de dados para a era dos agentes, mais de metade admite que tem trabalho a fazer para pôr em dia as suas práticas gerais de segurança e conformidade. Mais de metade (52%) acredita que as suas práticas de segurança e conformidade estão totalmente preparadas para o desenvolvimento e implementação de agentes de IA.
