O papel da inteligência artificial na cibersegurança: promessas, limites e aplicações reais

Entenda como a inteligência artificial na cibersegurança está transformando a segurança digital, onde ela realmente funciona e até onde vão seus limites na prática. 

Nos últimos anos, a inteligência artificial na cibersegurança se tornou um dos assuntos mais comentados no setor de tecnologia. Fala-se em sistemas que detectam ameaças automaticamente, aprendem com os dados e respondem sozinhos a incidentes. 

Mas até que ponto essas promessas se confirmam na prática? 

Neste conteúdo, explicamos como a inteligência artificial vem sendo aplicada no dia a dia da segurança da informação, onde ela realmente ajuda e por que ela ainda precisa de supervisão, contexto e inteligência humana para funcionar bem. 

A promessa da inteligência artificial na cibersegurança: onde ela realmente funciona 

Segundo o relatório global da Fortinet de 2024, quase 90% das organizações no Brasil sofreram violações de segurança no último ano, e boa parte desses incidentes foi atribuída à falta de profissionais especializados em cibersegurança. Nesse cenário, a automação e o uso de inteligência artificial têm ganhado força como caminhos para ampliar a capacidade de monitoramento e resposta, mesmo com estruturas enxutas.  

A inteligência artificial na cibersegurança mostra resultados consistentes quando aplicada em: 

  • SOCs automatizados, como o da Under Protection, que utiliza correlação inteligente de eventos para reduzir o tempo de detecção e qualificar melhor os alertas. 
  • Análise de comportamento de usuários e entidades (UEBA), identificando desvios que podem indicar riscos internos ou movimentações suspeitas. 
  • Priorização de riscos, com base no impacto para o negócio, em vez de apenas volume técnico de eventos. 
  • Redução de falsos positivos, permitindo que os times foquem no que realmente importa. 
  • Detecção de ameaças por machine learning, como acontece nos antivírus de nova geração (NGAVs), que usam IA para reconhecer padrões maliciosos desconhecidos. 

A plataforma NG LISA®, por exemplo, consegue transformar eventos brutos em indicadores acionáveis, aplicar contexto e priorizar riscos com base em impacto, probabilidade e criticidade do ativo. Tudo isso de forma automatizada, contínua e com visão estratégica, apoiando decisões mais rápidas, consistentes e alinhadas à realidade do negócio. 

O alerta: IA não resolve sozinha 

Durante o podcast da NV Seguros Digitais sobre Estratégias para Empresas Seguras, o CEO da Under Protection, Alberto Teixeira, foi direto: 

“Tem IA com Alzheimer por aí. Muita promessa, pouca execução. Inteligente mesmo é quem sabe onde aplicar e o que espera dela.” 

Ele alerta que muitos fornecedores prometem inteligência artificial, mas entregam soluções baseadas em tecnologias antigas, como vacinas de antivírus combinadas com rotinas automatizadas genéricas. 

Além disso, reforça que: 

  • IA só é eficaz com dados relevantes e atualizados. 
  • Modelos mal treinados ou fora de contexto geram ruído, não resultado. 
  • A IA não substitui a supervisão humana nem a governança. 
  • Falta de supervisão pode gerar problemas inesperados, como IAs vulneráveis a ataques por prompt injection ou manipulações externas, que acabam tomando decisões prejudiciais, como dar descontos não autorizados ou executar comandos perigosos. 

É preciso entender que IA não é uma mágica, mas uma ferramenta dentro de uma estratégia robusta. Como diz Alberto: “Inteligência artificial só funciona bem com inteligência natural por perto.”

IA como aliada, não protagonista 

A maior contribuição da inteligência artificial na cibersegurança é potencializar o trabalho humano e não substituí-lo. Ao automatizar tarefas repetitivas e reduzir a sobrecarga de alertas, ela permite que analistas e CISOs concentrem esforços no que realmente importa: risco, impacto e resposta. 

No SOC da Under Protection, por exemplo, 90% das ativações são automáticas, o que reduz o tempo de contenção e melhora o índice de precisão. Mas há sempre pessoas por trás, orientando decisões críticas e ajustando estratégias com base no contexto real de cada cliente.

Os riscos de deixar a IA agir sem supervisão 

Ao mesmo tempo em que a inteligência artificial avança nas ferramentas de defesa, cresce também o número de empresas que implementam IAs para realizar atividades críticas sem um acompanhamento humano adequado. Isso cria um novo tipo de risco: a vulnerabilidade das próprias IAs a ataques e manipulações externas. 

Um exemplo comum é o prompt injection, onde atacantes conseguem manipular IAs que atuam como chatbots corporativos ou assistentes de decisão. Sem os devidos controles, essas IAs podem executar ações não planejadas e potencialmente prejudiciais, como:

  • Conceder descontos indevidos. 
  • Divulgar informações sensíveis de clientes ou da empresa. 
  • Alterar regras de negócio ou executar comandos críticos sem validação. 

O problema aqui não é a IA usada por atacantes para golpes de engenharia social (esse é outro risco, tratado em um ponto separado), mas sim a falta de governança, validação e supervisão sobre as IAs internas, que pode transformar uma boa iniciativa de automação em um novo vetor de ataque. 

A inteligência artificial na resposta a incidentes 

Além da detecção de ameaças, a IA tem papel essencial na resposta a incidentes, ajudando a conter ataques com mais velocidade e precisão. 

No SOC da Under Protection, por exemplo, a automação permite que grande parte das ações sejam tomadas sem necessidade de ativação humana imediata. Isso reduz drasticamente o tempo entre a detecção e a contenção, evitando danos maiores e mantendo a operação do cliente estável. 

Em um caso recente citado por Alberto, um ataque detectado às 3h41 da manhã foi contido automaticamente antes de gerar qualquer impacto, graças à integração entre IA, regras de priorização e orquestração de resposta.

Conclusão: inteligência com propósito 

A inteligência artificial na cibersegurança pode ser uma grande aliada. Mas, para isso, precisa de propósito, estratégia e contexto. Não se trata de prometer milagres. É sobre apoiar quem toma decisões com dados reais, tempo de resposta rápido e clareza de risco. 

Quando bem aplicada, a IA é um acelerador. Quando mal aplicada ou deixada sem supervisão, pode se tornar um novo vetor de risco. 

 

 

Compartilhe

INSCREVA-SE PARA RECEBER
ATUALIZAÇÕES

Digite seu endereço de e-mail para assinar este blog e receber notificações de novas publicações por e-mail

    SIGA-NOS