Com o avanço das tecnologias de Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês), como o ChatGPT e atualmente a famigerada DeepSeek, o impacto dessas ferramentas na sociedade tem sido significativo – tanto para o bem quanto para o mal. Apesar de trazerem benefícios em produtividade e eficiência, essas ferramentas também estão sendo exploradas por cibercriminosos para realizar fraudes e campanhas de engenharia social em larga escala.
Antes da chegada dos LLMs, fraudes e ataques baseados em engenharia social dependiam fortemente das habilidades humanas para criar mensagens convincentes. No entanto, muitas vezes essas mensagens eram mal construídas, apresentando erros gramaticais ou estruturas textuais que despertavam suspeitas. A introdução de modelos como os do ChatGPT permitiu que agentes maliciosos eliminassem essa barreira, criando textos altamente persuasivos, bem elaborados e até mesmo personalizados em diferentes idiomas e dialetos. A fraude com LLMs não só melhorou a qualidade da engenharia social, mas também o número de tentativas. Usar LLMs para cometer fraudes é significativamente mais barato, levando a um número maior de tentativas que provavelmente mostrarão um ROI positivo para os fraudadores.
Uso malicioso em campanhas de phishing
Usando LLMs, é possível gerar e-mails ou mensagens de texto que simulam comunicações corporativas ou bancárias com extrema precisão. Essas mensagens são livres de erros gramaticais e podem facilmente ser adaptadas ao perfil da vítima com base em dados públicos. Além disso, o spear phishing, uma versão mais direcionada dessas campanhas, utiliza informações pessoais obtidas de redes sociais ou e-mails vazados para criar mensagens personalizadas e convincentes. A criação de deepfakes textuais também se tornou uma ameaça, permitindo fraudes internas em organizações, como o Business Email Compromise (BEC).
A engenharia social explora vulnerabilidades humanas para obter informações confidenciais, como senhas ou dados bancários. O uso de LLMs torna essas táticas ainda mais eficazes devido a fatores como:
Automatização em massa, permitindo a geração de mensagens personalizadas em larga escala, ampliando o alcance de vítimas potenciais;
Multilinguismo, gerando mensagens em vários idiomas e dialetos, expandindo as fraudes para diferentes regiões;
Coerência e persuasão, produzindo textos mais convincentes e difíceis de serem detectados como fraudulentos.
Além disso, ferramentas como WormGPT e FraudGPT democratizam os ataques, possibilitando sua execução até por pessoas sem experiência técnica.
Prevenção e defesa contra fraudes baseadas em LLMs
Diante desse cenário, empresas e indivíduos devem adotar medidas proativas para mitigar os riscos. Algumas estratégias incluem:
Educação e conscientização: Treinamento para reconhecer mensagens fraudulentas e relatar atividades suspeitas.
Autenticação multifator (MFA): Redução da eficácia de ataques baseados em roubo de credenciais.
Tecnologias de detecção de fraude: Uso de IA e de sinais de risco em tempo real para identificar padrões incomuns em comunicações ou tentativas de login.
Monitoração da dark web: Identificação de ameaças emergentes ou vazamentos de dados.
Controle sobre dados sensíveis: Limitação da exposição de informações em redes sociais para reduzir ataques direcionados.
Embora phishing, engenharia social e fraudes internas já existissem antes dos LLMs, o avanço dessas ferramentas trouxe maior escala e personalização, além de eliminar sinais clássicos de fraude, como erros gramaticais ou formatações suspeitas. O desafio não está em apenas reinventar as estratégias de defesa, mas em reforçar as boas práticas já existentes e adaptá-las para essa nova realidade.
Conforme os LLMs se tornam mais avançados e acessíveis, espera-se que seu uso em campanhas fraudulentas aumente. As organizações, portanto, precisam evoluir suas práticas de segurança para não se tornarem alvos fáceis. Tendências como fraudes em escala e o aumento do crime como serviço (Crimeware-as-a-Service ou CaaS) reforçam a necessidade de soluções antifraude cada vez mais sofisticadas. Combater essas ameaças requer inovação tecnológica e conscientização, garantindo que o potencial dos LLMs seja utilizado de forma ética e produtiva nas empresas.