Nos últimos anos, a inteligência artificial na cibersegurança se tornou um dos assuntos mais comentados no setor de tecnologia. Fala-se em sistemas que detectam ameaças automaticamente, aprendem com os dados e respondem sozinhos a incidentes.
Mas até que ponto essas promessas se confirmam na prática?
Neste conteúdo, explicamos como a inteligência artificial vem sendo aplicada no dia a dia da segurança da informação, onde ela realmente ajuda e por que ela ainda precisa de supervisão, contexto e inteligência humana para funcionar bem.
Segundo o relatório global da Fortinet de 2024, quase 90% das organizações no Brasil sofreram violações de segurança no último ano, e boa parte desses incidentes foi atribuída à falta de profissionais especializados em cibersegurança. Nesse cenário, a automação e o uso de inteligência artificial têm ganhado força como caminhos para ampliar a capacidade de monitoramento e resposta, mesmo com estruturas enxutas.
A inteligência artificial na cibersegurança mostra resultados consistentes quando aplicada em:
A plataforma NG LISA®, por exemplo, consegue transformar eventos brutos em indicadores acionáveis, aplicar contexto e priorizar riscos com base em impacto, probabilidade e criticidade do ativo. Tudo isso de forma automatizada, contínua e com visão estratégica, apoiando decisões mais rápidas, consistentes e alinhadas à realidade do negócio.
Durante o podcast da NV Seguros Digitais sobre Estratégias para Empresas Seguras, o CEO da Under Protection, Alberto Teixeira, foi direto:
“Tem IA com Alzheimer por aí. Muita promessa, pouca execução. Inteligente mesmo é quem sabe onde aplicar e o que espera dela.”
Ele alerta que muitos fornecedores prometem inteligência artificial, mas entregam soluções baseadas em tecnologias antigas, como vacinas de antivírus combinadas com rotinas automatizadas genéricas.
Além disso, reforça que:
É preciso entender que IA não é uma mágica, mas uma ferramenta dentro de uma estratégia robusta. Como diz Alberto: “Inteligência artificial só funciona bem com inteligência natural por perto.”
A maior contribuição da inteligência artificial na cibersegurança é potencializar o trabalho humano e não substituí-lo. Ao automatizar tarefas repetitivas e reduzir a sobrecarga de alertas, ela permite que analistas e CISOs concentrem esforços no que realmente importa: risco, impacto e resposta.
No SOC da Under Protection, por exemplo, 90% das ativações são automáticas, o que reduz o tempo de contenção e melhora o índice de precisão. Mas há sempre pessoas por trás, orientando decisões críticas e ajustando estratégias com base no contexto real de cada cliente.
Ao mesmo tempo em que a inteligência artificial avança nas ferramentas de defesa, cresce também o número de empresas que implementam IAs para realizar atividades críticas sem um acompanhamento humano adequado. Isso cria um novo tipo de risco: a vulnerabilidade das próprias IAs a ataques e manipulações externas.
Um exemplo comum é o prompt injection, onde atacantes conseguem manipular IAs que atuam como chatbots corporativos ou assistentes de decisão. Sem os devidos controles, essas IAs podem executar ações não planejadas e potencialmente prejudiciais, como:
O problema aqui não é a IA usada por atacantes para golpes de engenharia social (esse é outro risco, tratado em um ponto separado), mas sim a falta de governança, validação e supervisão sobre as IAs internas, que pode transformar uma boa iniciativa de automação em um novo vetor de ataque.
Além da detecção de ameaças, a IA tem papel essencial na resposta a incidentes, ajudando a conter ataques com mais velocidade e precisão.
No SOC da Under Protection, por exemplo, a automação permite que grande parte das ações sejam tomadas sem necessidade de ativação humana imediata. Isso reduz drasticamente o tempo entre a detecção e a contenção, evitando danos maiores e mantendo a operação do cliente estável.
Em um caso recente citado por Alberto, um ataque detectado às 3h41 da manhã foi contido automaticamente antes de gerar qualquer impacto, graças à integração entre IA, regras de priorização e orquestração de resposta.
A inteligência artificial na cibersegurança pode ser uma grande aliada. Mas, para isso, precisa de propósito, estratégia e contexto. Não se trata de prometer milagres. É sobre apoiar quem toma decisões com dados reais, tempo de resposta rápido e clareza de risco.
Quando bem aplicada, a IA é um acelerador. Quando mal aplicada ou deixada sem supervisão, pode se tornar um novo vetor de risco.