Gazeta Itaúna

WhatsApp Image 2024-11-21 at 08.59.51
WhatsApp Image 2024-11-21 at 08.59.51

Assista o vídeo até o fim e veja como a inteligência artificial clona voz para aplicar golpes

Assista o vídeo até o fim e veja como a inteligência artificial clona voz para aplicar golpes

Imagem ilustrativa (Freepik)

Golpes financeiros por telefone passaram a contar com a mente de criminosos que enxergaram nos programas de inteligência artificial uma oportunidade para clonar a voz das pessoas.

Atualize-se rapidamente:
  • O golpe financeiro feito por telefone onde criminosos se passam por familiares, amigos e conhecidos da vítima a fim de obter vantagens e realizar transações financeiras fraudulentas, agora conta com ajuda de programas de inteligência artificial.
  • Para enganar o seu alvo com maior facilidade, o golpista clona a voz de familiares e amigos da vítima e, por meio de softwares de inteligência artificial, elaboram diálogos idênticos a voz da pessoa clonada.
  • O programa é capaz de clonar a tonalidade e respiração da pessoa, assim, qualquer frase é capaz de ser transcrita em forma de áudio.
  • A voz falsa é utilizada para criar e espalhar uma história convincente e pedir dinheiro aos parentes da vítima.

Não é segredo para ninguém que os criminosos estão aplicando golpes cada vez mais sofisticados e aprimorados, e a tecnologia acaba virando uma facilitadora para isto. Como a inteligência artificial consegue realizar ações de forma semelhante ao que os humanos fazem, os golpistas estão usando estes dispositivos para clonar a voz das pessoas e enganar seus conhecidos.

A princípio pode parecer o enredo de um filme futurístico ou de uma série de ficção científica, mas se trata da realidade que estamos vivenciando. O golpe chegou a ser relatado por um influenciador digital que foi vítima da ação criminosa com o uso da tecnologia, para entender o caso e saber como se proteger, confira as próximas informações.

O influenciador digital Dario Centurione, do Almanaque SOS, relatou em suas redes sociais que foi vítima do golpe. Ele explicou que conversou com especialistas em comunicação e segurança na web para entender como é possível usar a inteligência artificial para clonar a voz de alguém e se passar por essa pessoa.

A explicação é que as vozes de pessoas famosas e que estão com maior frequência na internet, como é o caso do influenciador que posta vídeos no TikTok, estão mais vulneráveis a este tipo de golpe. O criminoso pega um vídeo com o áudio da voz da pessoa, faz o download e utiliza ferramentas para manipular o áudio e simular determinadas vozes.

A inteligência artificial consegue fazer exatamente isso, recriar vozes e imagens de pessoas na internet. Dessa forma, com a captação das vozes, os golpistas escrevem a frase que desejam para regravar com a entonação da voz clonada e criar áudios falsos. Os áudios criados são enviados para pessoas conhecidas, como parentes e amigos, que acreditam se tratar da vítima.

De acordo com Dario, entraram em contato com o pai dele pedindo para fazer um pix de R$ 600. O pai fez a transferência na mesma hora por acreditar que a voz era do filho.

Fontes: Universal.org e Pronatec

Redação

Redação

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *