theNet by CLOUDFLARE

Combater ameaças com tecnologia de IA

Criar resiliência na nova era de IA da segurança cibernética

Os cibercriminosos estão adotando ferramentas de IA para aumentar a velocidade, a eficiência, a escala e a eficácia de seus ataques. E esses novos ataques com tecnologia de IA estão tendo um impacto muito real nas organizações.

Golpes de deepfake, que podem envolver mensagens de voz ou videochamadas fraudulentas, resultaram em milhões de dólares em perdas. Em um caso, um deepfake do CFO de uma empresa multinacional enganou um trabalhador da área financeira para que pagasse US$ 25 milhões a fraudadores. Enquanto isso, os ataques de phishing gerados por IA estão enganando mais pessoas para divulgar credenciais, enquanto o malware aprimorado por IA está escapando das defesas existentes.

A IA também está alimentando campanhas de desinformação, envenenamento de dados e manipulação de modelos, possivelmente comprometendo os sistemas orientados por IA. A Gartner classificou recentemente a desinformação assistida por IA como um dos principais riscos cibernéticos.

Veremos ataques baseados em IA cada vez mais sofisticados à medida que os cibercriminosos reinvestem mais de seus lucros em novas tecnologias. Muitos já estão usando os ganhos com ataques de baixo custo para financiar P&D em esquemas de custo e de rendimento mais altos. Em muitos casos, os orçamentos dos invasores são muito mais focados do que os orçamentos das organizações visadas.

Para explorar como a IA está mudando o cenário da segurança cibernética, conversei com Khalid Kark, CIO de campo da Cloudflare para as Américas, e Daniel Kendzior, global data and AI security practice leader na Accenture. Concordamos que a maioria das ferramentas de segurança tradicionais são ineficazes contra ataques aprimorados por IA. Para reforçar a resiliência, as organizações precisam transformar sua abordagem de segurança. Em vez de confiar em defesas passivas, elas precisam adotar uma abordagem mais ativa e preventiva, que aproveite a IA para combater a IA.


Enfrentar os desafios das ameaças aprimoradas pela IA

À medida que os invasores continuam a adotar ferramentas de IA, todos nós precisamos estar prontos para versões mais refinadas de esquemas familiares de engenharia social, bem como ataques baseados em bots em maior escala. Enquanto isso, provavelmente veremos uma variedade de novas táticas, incluindo novos tipos de fraude de identidade. Aumentar a conscientização sobre essas mudanças, em todas as nossas organizações, será essencial para criar uma segurança mais forte.

Engenharia social aprimorada

Algumas coisas não mudam. Para os invasores, a engenharia social ainda é a tática mais fácil e mais barata, além de ser muito bem-sucedida. De acordo com um relatório da Verizon, 68% das violações ocorrem devido a erro humano, e muitos desses erros estão vinculados à engenharia social, como esquemas de phishing.

Mas o que estamos vendo é um aumento na sofisticação e consistência dos ataques. Os invasores estão usando a IA generativa (GenAI) para criar e-mails de phishing mais convincentes, por exemplo, sem nenhum erro de ortografia ou gramática que possa sinalizar uma mensagem fraudulenta.

Ao mesmo tempo, os invasores estão usando cada vez mais a IA para criar deepfakes. Um funcionário pode receber uma mensagem de voz que parece ser de um gerente, mas na verdade foi criada por um modelo de IA. O funcionário pode ser induzido a compartilhar credenciais, aprovar transações ou expor dados confidenciais. E com a IA, os invasores podem criar essas mensagens deepfake em segundos.

Infelizmente, é extremamente difícil combater os vieses cognitivos que nos tornam vulneráveis a esses ataques. Todos nós cometemos erros à medida que processamos e interpretamos informações. Por exemplo, temos tendência a favorecer informações que confirmam nossas crenças existentes enquanto ignoramos informações que não confirmam. Esse viés de confirmação nos torna mais propensos a cair em um deepfake: se recebermos uma mensagem de voz que parece ter sido enviada por nosso gerente, nossa tendência é acreditar que é verdade.

Fraude de identidade sintética

Além de criar melhores e-mails de phishing e deepfakes para enganar os funcionários, os invasores estão usando a IA para criar novas identidades. A fraude de identidade sintética (SIF) envolve a criação de identidades hiper-realistas combinando dados reais e falsos para contornar os sistemas de verificação tradicionais. Detalhes pessoais gerados por IA e preenchimento de credenciais automatizado tornam essas identidades cada vez mais difíceis de detectar.

Identidades fraudulentas representam grandes riscos para setores fortemente visados, como serviços financeiros, de saúde e governo. Como a SIF geralmente não tem vítimas imediatas, muitas vezes passa despercebida. Como resultado, os fraudadores podem criar históricos de crédito e executar golpes com sucesso.

Ataques em larga escala, baseados em bots

Os bots são outro tipo de substituto humano que pode causar danos reais. Como mostra o Relatório sobre sinais da Cloudflare de 2025, 28% de todo o tráfego de aplicativos observado pela Cloudflare em 2024 veio de bots, uma porcentagem que se manteve estável nos quatro anos anteriores. Embora os bots possam servir a propósitos legítimos, como indexação de mecanismos de busca ou monitoramento de disponibilidade, a grande maioria dos bots (93%, de acordo com a análise de tráfego da Cloudflare) não é verificada e é potencialmente maliciosa.

Os bots com tecnologia de IA estão permitindo que os invasores lancem ataques automatizados e em larga escala com uma eficiência sem precedentes. Estamos vendo bots com tecnologia de IA que podem produzir 200 vezes mais acessos em um site do que ataques anteriores. Os bots são usados não apenas para montar grandes ataques de negação de serviço distribuída (DDoS), mas também para raspar dados confidenciais e propriedade intelectual, realizar preenchimento de credenciais e executar fraudes na velocidade da máquina. Os modelos de IA potencializam esses recursos, ignorando os CAPTCHAs tradicionais e evitando a detecção com comportamento adaptativo.

O desafio, então, é separar os bons dos ruins e bloquear os ruins.


Defesa contra ameaças de IA

Ficar à frente das ameaças com tecnologia de IA requer uma abordagem de segurança proativa e aprimorada pela IA. Na minha conversa com Khalid Kark e Daniel Kendzior, abordamos sete maneiras pelas quais todos podemos fortalecer nossa postura de segurança para nos defender contra essas ameaças emergentes.

  1. Aumentar a observabilidade.
    “Muitos fornecedores estão adicionando IA a tudo, como se fosse um um enfeite sofisticado”, diz Kendzior. A IA está sendo incorporada até mesmo em softwares que você talvez já esteja usando. Nem todos esses recursos de IA são úteis e alguns podem criar novas vulnerabilidades. Para minimizar quaisquer riscos relacionados à IA, todos precisamos ajustar a forma como adquirimos software, obtendo melhor visibilidade sobre onde a IA foi incorporada.

    Ao mesmo tempo, aumentar a observabilidade do uso da IA dentro de nossas organizações se torna mais importante. Considere que as organizações normalmente têm cerca de 33% mais APIs do que catalogaram. E essas APIs não catalogadas são possíveis vetores de ataques. Da mesma forma, muitas vezes não sabemos onde e como a IA está sendo usada em toda a organização e, ainda assim, cada uma dessas instâncias de ferramentas de IA pode nos deixar expostos.

    Ao implementar uma plataforma que pode unificar logs, analytics, alertas e análise forense, podemos aplicar recursos de IA a esses dados para identificar riscos e identificar suas causas raízes.

  2. Detectar e neutralizar ameaças em tempo real.
    À medida que os invasores usam a IA para aumentar a velocidade e o volume das ameaças, precisamos de uma maneira de acompanhar o ritmo. Felizmente, a IA pode nos ajudar a reforçar a segurança cibernética. Por exemplo, a IA pode analisar vastos conjuntos de dados e identificar anomalias que podem indicar ameaças. As ferramentas de IA podem então automatizar as respostas às ameaças, abordando problemas em tempo real.

    A análise do comportamento dos funcionários e usuários, incluindo padrões de acesso, escalas de privilégios e tentativas de exfiltração de dados, pode ajudar a estabelecer linhas de base e detectar anomalias que podem indicar ameaças internas. Com esses recursos assistidos por IA, podemos detectar riscos internos antes que eles escalem.

  3. Proteção contra phishing e deepfakes aprimorados por IA.
    À medida que os invasores adotam a IA para melhorar o phishing e criar deepfakes, precisamos implementar controles e políticas mais sofisticados, incluindo controles e políticas que nos ajudem a combater nossos próprios viéses e erros. Digamos que um funcionário receba um texto que parece vir de um gerente instruindo o funcionário a transferir dinheiro para uma conta específica. Podemos evitar danos se tivermos, em primeiro lugar, uma política que evite que funcionários em determinadas funções executem transferências eletrônicas. Essa política também deve incluir controles de processo para garantir que várias verificações sejam feitas antes que qualquer coisa seja executada.

  4. Melhorar o gerenciamento de identidades.
    O gerenciamento de identidades sempre foi difícil, mas a IA tornou isso muito pior. “Temos clientes que usam o cadastramento remoto para novos clientes e funcionários. E agora, neste mundo propício ao deepfake, você precisa ter algum ceticismo quanto a estar lidando com uma pessoa real”, diz Kendzior.

    A segurança Zero Trust desempenha um papel fundamental na melhoria do gerenciamento de identidade. Com a solução Zero Trust certa, as organizações podem evitar que indivíduos não autorizados e bots de IA acessem recursos corporativos e, ao mesmo tempo, simplificar o acesso para pessoas autorizadas.

  5. Identificar e bloquear bots ruins. Os recursos de gerenciamento de bots podem separar os bots bons dos ruins. Em seguida, eles podem evitar que os bots ruins raspem dados, roubem conteúdo ou diminuam o desempenho de sites.

  6. Considerar o elemento humano. Sempre haverá uma camada de tecnologia no combate às ameaças de segurança cibernética. Mas deter as ameaças aprimoradas por IA também envolve treinamento comportamental. Precisamos educar os funcionários sobre as tentativas de phishing, deepfakes e outros ataques aprimorados por IA que estão chegando, para que sejam mais céticos em relação às mensagens que recebem.

    As organizações também devem trabalhar para criar não apenas funcionários altamente conscientes, mas também cidadãos digitais melhores, porque esses esquemas aprimorados por IA alcançam as pessoas mesmo após o término do dia de trabalho. Por exemplo, eles podem receber mensagens de texto informando que precisam pagar o pedágio de um veículo com urgência. Se eles clicarem por engano nesses links ou pior, pagarem os invasores, estarão inadvertidamente financiando ataques futuros que podem afetar seus empregadores.

  7. Colaborar com parceiros. A IA está ajudando o crime cibernético a se tornar um negócio ainda maior. Não estamos mais lutando contra hackers individuais. Além de adotar os mais recentes recursos de segurança cibernética aprimorados por IA, precisamos escalar nossas alianças para que tenhamos uma melhor chance de nos proteger contra invasores organizados. Quanto mais trabalharmos com os parceiros, melhores serão as nossas defesas.


Aplicar proteção inteligente e escalável

O número, a escala e a sofisticação das ameaças com tecnologia de IA vão continuar aumentando. E a cada tentativa bem-sucedida de phishing ou violação de dados, os cibercriminosos reinvestem os lucros em tecnologias mais avançadas. Muitas organizações precisam renovar significativamente suas defesas para esta nova era de ataques com tecnologia de IA e precisam começar agora.

A nuvem de conectividade da Cloudflare fornece uma variedade crescente de ferramentas e serviços que podem ajudar você a proteger sua organização contra ameaças de IA. O Cloudflare AI Gateway oferece visibilidade de custo, uso, latência e desempenho geral de aplicativos de IA. E o firewall para IA permite que você proteja aplicativos alimentados por grandes modelos de linguagem (LLMs) contra abusos. Essas ferramentas funcionam com o amplo portfólio de serviços de segurança nativos de nuvem da Cloudflare para ajudar você a escalar suas defesas contra ameaças maiores e mais sofisticadas baseadas em IA.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Saiba mais sobre esse assunto

Saiba mais sobre as ameaças impulsionadas pela IA e outras tendências que exigirão uma mudança para melhorar a resiliência no Relatório sobre sinais da Cloudflare: resiliência em escala de 2025.

Autoria

Mike Hamilton — @mike-hamilton-us
CIO, Cloudflare



Principais conclusões

Após ler este artigo, você entenderá:

  • Como os cibercriminosos estão usando a IA para aprimorar seus ataques

  • Três táticas mais comumente empregadas hoje

  • Sete maneiras de fortalecer a segurança para ameaças baseadas em IA


Recursos relacionados

Receba um resumo mensal das informações mais populares da internet.