Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA
Ferramentas de inteligência artificial capazes de clonar vozes com apenas alguns segundos de áudio estão disponíveis ao público, e já estão sendo usadas em golpes financeiros. O alerta é do CEO da vortice.ai e especialista em IA, Giovanni La Porta, em entrevista ao Podcast Canaltech desta sexta-feira (20).
Segundo La Porta, o modelo de fraude mais preocupante no momento envolve ligações silenciosas: o criminoso liga, aguarda a vítima falar por alguns segundos e coleta o áudio necessário para treinar a clonagem.
"Quanto mais você responder aquela ligação e continuar falando, mais perfeita ficará a clonagem da sua voz", explica.
O passo seguinte é enviar uma mensagem de áudio pelo WhatsApp imitando um familiar ou conhecido e pedir uma transferência. A diferença em relação aos golpes mais antigos, feitos por texto, é que o áudio elimina a desconfiança imediata de quem recebe a mensagem.
Últimas Notícias
Polícia mira clínica clandestina após mulher quase morrer em cirurgia de R$ 250
Procon Alagoas inicia fiscalização em postos de combustíveis para apurar aumento no preço da gasolina
Anvisa aprova versão multidose do Mounjaro para diabetes tipo 2 e obesidade
Homem é condenado a mais de 11 anos de prisão por tráfico de drogas e porte ilegal de arma em Arapiraca
Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA
Vídeos mais vistos
Homem que conduzia motocicleta pela contramão morre ao ter veículo atingido por carro, em Arapiraca
Delegado detalha prisão de autor de homicídio no Bosque das Arapiracas
Campanha 'Eu sou queridinho'
Inauguração do Centro de Convenções de Arapiraca

