A popularização de ferramentas de inteligência artificial está ampliando o alcance de golpes digitais, especialmente aqueles que utilizam clonagem de voz. Um vídeo recente do criador de conteúdo Paulo Aguiar ganhou repercussão ao evidenciar como criminosos conseguem reproduzir falas realistas com poucos segundos de áudio, tornando fraudes cada vez mais difíceis de identificar.
VEJA MAIS:
- Sozinha, mas nunca só: o crescimento de viagens solo no Brasil
- Entenda o projeto que pode mudar placas de veículos no Brasil
- Clique aqui e receba, gratuitamente, as principais notícias da cidade, no seu WhatsApp, em tempo real.
Quando a tecnologia vira armadilha
Na demonstração, o influenciador recria vozes e rostos de figuras conhecidas, como Luiz Inácio Lula da Silva, Virginia Fonseca, Vinícius Júnior, Felca e Ana Paula Renault. A proposta é mostrar, na prática, o potencial dos chamados deepfakes — conteúdos manipulados por IA capazes de imitar com precisão vozes, expressões e comportamentos.
O material expõe situações comuns exploradas por golpistas, como ligações silenciosas que podem captar a voz da vítima e mensagens urgentes simulando pedidos de ajuda financeira. Com a combinação de áudio e imagem sintéticos, o nível de convencimento aumenta significativamente, ampliando o risco principalmente entre pessoas com menos familiaridade tecnológica.
Como se proteger de golpes com voz clonada
A orientação principal é adotar uma postura de desconfiança diante de contatos inesperados, mesmo quando parecem vir de conhecidos. A recomendação inclui confirmar qualquer pedido por meio de outro canal direto, evitando respostas impulsivas em situações de urgência.
Outra medida importante é não compartilhar dados pessoais ou realizar transferências financeiras sem verificação prévia. Especialistas também sugerem a criação de uma “palavra de segurança” entre familiares, funcionando como um código para validar situações reais de emergência.
Além disso, a checagem de informações por diferentes meios e a recusa em tomar decisões sob pressão são estratégias fundamentais para reduzir riscos. Com o avanço constante das ferramentas de IA, reconhecer conteúdos falsos exige cada vez mais atenção e senso crítico.