A Inteligência Artificial generativa deixou de ser apenas uma ferramenta de produtividade ou criatividade para se tornar também um vetor de riscos cibernéticos. Se por um lado ela abre portas para avanços em automação, eficiência e personalização, por outro traz ameaças inéditas que desafiam a capacidade das empresas de proteger seus dados e operações. A pergunta que os líderes de tecnologia precisam responder hoje é: estamos preparados para uma era em que o “inimigo” também usa IA?
Nos últimos anos, criminosos digitais têm explorado modelos generativos para criar ransomwares automatizados, campanhas de phishing indistinguíveis de comunicações reais e até deepfakes corporativos. Casos recentes mostram que ferramentas desse tipo já conseguem conduzir ataques quase de ponta a ponta, reduzindo custos e barreiras de entrada para o cibercrime. Um levantamento da Accenture indica que 90% das organizações no mundo não estão preparadas para enfrentar ameaças aumentadas por IA, enquanto outro estudo da Thales revelou que 67% dos profissionais já identificaram uso não autorizado de IA generativa dentro de suas empresas. Isso pode acarretar em um novo cenário onde os ataques podem ser mais frequentes, sofisticados e difíceis de rastrear.
Esse risco se torna ainda mais crítico em países emergentes. No Brasil, é comum encontrar organizações de médio porte, com faturamento de centenas de milhões de reais, que contam apenas com antivírus e firewall como barreira de proteção. Cerca de 95% do mercado empresarial brasileiro é composto por pequenas e médias empresas, que muitas vezes acreditam não estar no radar dos cibercriminosos. Na prática, tornam-se alvos justamente pela baixa maturidade em segurança. Hospitais, prefeituras e empresas de infraestrutura já foram forçados a suspender operações após ataques cibernéticos, o que demonstra que o impacto vai muito além do financeiro: trata-se também de risco social e humano.
Enquanto isso, a maioria das companhias ainda busca entender como a IA generativa pode ser aplicada em seus negócios, mas menos de 25% dos projetos atuais incorporam requisitos de segurança desde o início, segundo estudo da IBM. Isso cria um paradoxo: a tecnologia avança rápido, mas sem governança adequada expõe vulnerabilidades críticas. Por outro lado, a mesma IA pode ser usada como aliada defensiva, acelerando a detecção de anomalias, reduzindo falsos positivos e antecipando padrões de ataque. Além disso, relatórios mostram que organizações que já utilizam IA em suas defesas conseguem responder a incidentes até 50% mais rápido, encurtando em 150 dias, em média, o tempo de exposição a violações.
O que se desenha no horizonte é um cenário inevitável de escalada. A tendência é vermos um aumento exponencial de golpes baseados em engenharia social turbinada por IA, o crescimento do uso de deepfakes em fraudes corporativas e políticas e a intensificação da pressão regulatória para que empresas demonstrem maturidade cibernética. Além disso, cresce a demanda por métricas locais e relatórios nacionais que permitam comparar níveis de preparo entre setores e regiões, dando mais visibilidade à real dimensão desse desafio.
Diante desses insights, concluo que a Inteligência Artificial generativa inaugura uma nova fase da cibersegurança: não se trata apenas de defender sistemas contra máquinas, mas de competir com máquinas cada vez mais inteligentes e adaptáveis. Nesse cenário, não investir em segurança equivale a abrir mão de competitividade e confiança. Por isso, as empresas brasileiras, especialmente as PMEs, precisam reconhecer que já estão nesse campo de batalha, e que ignorar a urgência de elevar sua maturidade digital pode custar caro, tanto no bolso quanto na reputação.
*Fernando Dulinski é CEO da Cyber Economy Brasil, hub estratégico com foco em acelerar a maturidade cibernética no Brasil.









