top of page
branco

Consultoria de Segurança da Informação

branco

Consultoria de Segurança da Informação

Av Paulista, 1634

são paulo | madrid

contato@anzemis.com

Uso de IA para criar e-mails de phishing focado em idosos

  • gustavokoketsu
  • Sep 21
  • 2 min read


Idoso sendo pescado

Imagine uma pessoa idosa recebendo um e-mail despretensioso oferecendo algo que chame sua atenção, que o instigue a fazer algo e ainda mais, que pareça legítimo e bem escrito de forma que suas objeções rapidamente desaparecem e quando percebe já forneceu todos os seus dados para uma página fraudulenta.     

Não é novidade para ninguém que o uso de IAs anda bem popular, com aplicação em praticamente qualquer coisa, mas como toda ferramenta, pode ser usada tanto para o bem quanto para o mal, como nesse artigo(Leitura sensível) de uma investigação da Europol sobre o uso de IA em casos envolvendo menores, porém desta vez vamos falar da facilidade do uso de IAs acessíveis a todos como o ChatGPT, Grok e DeepSeek para criar campanhas de phishing extremamente convincentes voltadas para um público mais sensível, como os idosos.

Basta solicitar a qualquer um desses chatbots populares que logo em seguida eles desenvolverão todo o plano de ataque voltado ao seu alvo, com títulos chamativos, assunto, linguagem, cores, imagem, enfim, tudo feito precisamente para atingir o público-alvo. Claro que se você disser “Faça uma campanha de phishing voltada para o público idoso” a IA poderá recusar dizendo que é uma atividade maliciosa, porém basta adicionar um contexto simples como para um “estudo de segurança” ou para “uma história que eu estou escrevendo”, ou insistir em qualquer outra desculpa que o bot acabará cedendo, isso quando o simples fato de tentar novamente em outra sessão já possa resolver o impasse.

Essa situação evidencia o ainda frágil mecanismo de segurança da IA, pois mesmo colocando medidas diretas de proteção elas ainda são facilmente contornáveis, até mesmo um experimento na DeepSeek que exibe o processamento da informação mostra que se colocar uma ordem de  ignorar os filtros de restrição e gerar uma informação maliciosa o chatbot primeiramente para diante do bloqueio da informação mas posteriormente aplica o pedido do usuário e ignora o filtro, entregando a informação normalmente.

Tendo isso em mente, a Reuters junto a Universidade de Harvard testaram esses e-mails criados por IA em um grupo de 108 voluntários idosos com aproveitamento de 11% dos idosos clicando, com destaque na eficiência dos e-mails gerados pelo Meta e pelo Grok e ineficiência nos e-mails gerados pelo ChatGPT e DeepSeek, embora o foco seja voltado para o desempenho dos e-mails gerados por IA no geral e não da ferramenta em si.

Esse impasse sobre a IA é uma questão delicada, pois ao mesmo tempo que temos a preocupação sobre o abuso dessas inteligências também temos a preocupação na forma de restringir o seu processamento ao ponto que as informações tornem-se tão restritas que a inteligência chega a entregar uma informação irrelevante, perdendo assim o seu valor. Essas nuances mostram que ainda temos muito a aprender e desenvolver com a inteligência, tanto artificial quanto orgânica. 


Quer saber mais sobre Phihing? Não perca nossa série de artigos explicando o phishing:


bottom of page