Novo golpe que utiliza inteligência artificial vem ganhando força! Previna-se

22 de Setembro, 2024

Futuristic robot artificial intelligence huminoid AI programming coding technology development and machine learning concept. Robotic bionic science research for future of human life. 3D rendering.

COMPARTILHE ESTA NOTÍCIA:

A Inteligência Artificial (IA) vem transformando diversos setores da sociedade com sua capacidade inovadora. No entanto, junto com as oportunidades, surgem também desafios e riscos. Um recente alerta do Starling Bank, do Reino Unido, destaca o potencial uso malicioso da IA, especialmente na clonagem de vozes.

Segundo o banco britânico, milhões de pessoas podem ser vítimas de golpes usando IA para clonar vozes. Este novo método torna os golpes mais realistas e, consequentemente, mais perigosos. Vamos explorar essa questão mais a fundo.

Como funciona a clonagem de vozes usando IA?

Em comunicado, o Starling Bank informou que os golpistas conseguem replicar a voz de uma pessoa a partir de apenas três segundos de áudio. Isso significa que, com um vídeo postado na internet, os criminosos podem obter material suficiente para clonar a voz de alguém.

Depois de obter o áudio, eles identificam os amigos e familiares da pessoa e utilizam a voz clonada para fazer chamadas e solicitar dinheiro. Esta prática é uma evolução dos golpes comuns, onde a abordagem era feita por mensagens. Agora, com a voz clonada, a ação torna-se ainda mais convincente e perigosa.

Por que a clonagem de voz é um grande risco?

A técnica de clonagem de voz aumenta significantemente o risco de golpes bem-sucedidos. Uma voz familiar tende a gerar confiança imediata, o que pode levar as vítimas a fazerem transferências financeiras sem suspeitas.

  • Maior realismo nas chamadas fraudulentas.
  • Aumento da taxa de sucesso dos golpes.
  • Dificuldade em distinguir uma chamada verdadeira de uma falsa.

Como se proteger contra golpes de clonagem de voz?

Para se defender desses golpes, o Starling Bank sugere a criação de uma “frase segura”. Esta frase deve ser simples, fácil de lembrar e diferente de outras senhas usadas. Apenas familiares próximos devem conhecê-la.

Além disso, o banco recomenda que esta frase não seja compartilhada por mensagens de texto, uma vez que isso poderia expor a frase aos criminosos. É crucial adotar medidas como essa para aumentar a segurança nas comunicações telefônicas.

O que as pesquisas indicam sobre esses golpes?

Uma pesquisa realizada pelo Starling Bank e a Mortar Research revelou números preocupantes. Mais de um quarto dos entrevistados disseram ter sido alvo de golpes de clonagem de voz nos últimos 12 meses.

Além disso, 46% dos entrevistados não sabiam que tais golpes existiam, e 8% enviariam dinheiro se recebessem um pedido de um amigo ou familiar, mesmo que achassem a ligação estranha.

Esses dados mostram a importância de educar o público sobre esses riscos e incentivar práticas de segurança como a “frase segura”.

Conclusão

A Inteligência Artificial, apesar de suas vantagens, traz consigo riscos que precisam ser mitigados. A clonagem de vozes é uma preocupação crescente que pode ter consequências graves.

Ao seguir dicas de segurança e estar ciente dos riscos, podemos proteger a nós mesmos e nossos entes queridos de possíveis golpes. Fique sempre atento e informado sobre as novas formas de proteção.

COMPARTILHE: