Nos últimos dias, diversos usuários foram surpreendidos ao receber uma mensagem no WhatsApp contendo um arquivo compactado com nome estranho, parte de um golpe cibernético que visa roubar dados de quem o executa. Embora esse tipo de fraude seja antigo, amplamente utilizado no passado por meio de e-mails falsos, especialistas alertam que a nova geração de golpes está mais sofisticada graças ao uso de tecnologias de Inteligência Artificial (IA).
A popularização da IA trouxe inúmeros benefícios, como automação de tarefas, atendimento personalizado e criação de conteúdos complexos. Contudo, o mesmo poder que facilita a inovação também tem servido para aprimorar golpes virtuais, tornando-os mais realistas, convincentes e difíceis de detectar.
Um dos exemplos mais preocupantes é a clonagem de voz. Com apenas alguns segundos de áudio, muitas vezes obtidos em vídeos públicos ou mensagens compartilhadas, criminosos conseguem reproduzir com alta precisão a voz de uma pessoa. Casos registrados nos Estados Unidos mostram pais que receberam ligações falsas com pedidos de resgate em que “ouviam” a voz dos próprios filhos, quando, na verdade, tratava-se de uma imitação gerada por IA.
Essas situações exploram o lado emocional das vítimas, reduzindo sua capacidade de análise crítica. Para se proteger, especialistas orientam a fazer perguntas pessoais que só a pessoa verdadeira saberia responder, como o nome de um vizinho, um apelido familiar ou uma lembrança compartilhada, o que pode confundir o golpista e expor a fraude.
Outro fator que preocupa é a facilidade de acesso às ferramentas de IA. Hoje, um único indivíduo com conhecimento técnico e softwares disponíveis publicamente pode alcançar milhares de vítimas em escala global, sem depender de grandes quadrilhas. Essa democratização da tecnologia reduziu barreiras e ampliou o potencial de dano.
Entre as principais medidas de proteção estão:
Desconfiar de mensagens urgentes ou suspeitas, especialmente as que pedem cliques ou downloads;
Verificar links e remetentes antes de abrir qualquer arquivo;
Confirmar identidades por outros meios de comunicação;
Ativar a autenticação em dois fatores em aplicativos e contas sensíveis.
Especialistas também defendem que governos e empresas de tecnologia invistam em regulação e educação digital. De acordo com a MIT Technology Review, a expansão da IA precisa ser acompanhada de mecanismos de segurança e responsabilização, evitando que ferramentas avançadas se tornem armas virtuais nas mãos de criminosos.
A Inteligência Artificial não é, por si só, uma ameaça, mas, nas mãos erradas, pode se transformar na ferramenta ideal para enganar. Num cenário onde “ver para crer” já não é suficiente, a desconfiança informada e o pensamento crítico são as melhores defesas contra a nova era dos golpes digitais.
Com informações: Jornalista Fernando Kopper