Sam Altman adverte a fraude de voz Ai posa a ameaça de crise ‘

Anúncio

Falando no Federal Reserve dos EUA na terça -feira, o chefe do Openai, Sam Altman (foto), disse que o mundo está à beira de uma ‘crise de fraude’. Altman alertou que a inteligência artificial alcançou as técnicas de prevenção de fraudes usadas pelos bancos, e que os fraudadores poderiam usar plataformas como seu próprio chatgpt para enganar vítimas desavisadas.

Ele disse: ‘A IA derrotou totalmente a maioria das maneiras pelas quais as pessoas se autenticam atualmente, exceto as senhas. Estou muito nervoso por termos uma crise de fraude iminente e significativa (…). Os golpistas que usam nossas próprias vozes e imagens contra nós são uma perspectiva preocupante, e já está se traduzindo em um problema tangível no Reino Unido. Quase um terço, 28 %, das pessoas no Reino Unido acham que foram alvo de um golpe de clonagem de voz da IA no ano passado, de acordo com 2024 dados do Starling Bank.

É quando um scammer usa a tecnologia para personificar a voz de alguém no telefone, por exemplo, para convencer um membro da família a transferir dinheiro. A fraude financeira no Reino Unido está aumentando, com ofensas saltando 46 % apenas no ano passado. Uma estimativa da Aliança Global Anti-SCAM sugere que um impressionante trilhão de US $ 1,03 foi perdido para os golpistas em 2024 em todo o mundo. A IA não apenas pode ser usada para criar clones de voz e vídeos de ‘Deepfake’, mas também permite que os golpistas cometam fraudes em imensa escala, sendo usados para entrar em contato com inúmeras vítimas e reunir rapidamente dados de vítimas.
Como identificar um golpe de clonagem de IA

Apenas um terço das pessoas sabem como procurar um golpe de clonagem de IA, de acordo com o Starling Bank, muitos poderiam dormir em armadilhas de fraudadores e não percebem que estão no gancho até que seja tarde demais. Geralmente, esses golpes de clonagem procuram replicar a voz de alguém que você conhece bem, seja uma criança, pai ou amigo. O que isso também significa, porém, é que seu conhecimento pode dar a você uma vantagem em uma chamada com um scammer.

Sarah Lennette, especialista em crimes financeiros da Starling, disse: ‘Pense no tom com o qual a “pessoa” está falando. ‘A voz deles parece mais plana? Existe algum ruído de fundo que possa vir com um clipe de voz usual? Também vale a pena ouvir para quaisquer mudanças repentinas de pronúncia e pausas não naturais. ‘Se a voz deve ser a de alguém que você conhece, eu também recomendaria pensar se isso soa como algo que eles realmente diriam, assim como como estão “dizendo” isso “.

Obviamente, nem todos os golpes de clonagem usarão a voz de alguém que você conhece bem o suficiente para discernir a diferença de som. Lennette alerta que qualquer pessoa que lhe pedisse dinheiro por telefone ou para detalhes pessoais ou financeiros deve ser uma bandeira vermelha que você não ignora.
Como você pode se proteger?

Lennette sugere a criação de uma frase segura com sua família e amigos próximos. Isso é algo conhecido apenas por você e pode ser usado da mesma maneira que uma senha. Para garantir que seja secreto, Lennette diz que deve ser “completamente separado de outras senhas, dados memoráveis ou atributos reconhecíveis, como seu time de futebol favorito”. Sem a premeditação de criar uma frase segura, é melhor aproveitar ao máximo o conhecimento compartilhado que você e a pessoa que você acha que está falando.

Isso significa fazer uma pergunta à qual eles sabem a resposta e que não estão disponíveis online. Para proteger os outros de serem enganados e a si mesmo de serem clonados, é aconselhável impedir que um golpista tenha acesso aos dados necessários para clonar sua voz em primeiro lugar. Lennette alerta que os golpistas precisam apenas de três segundos de áudio para clonar vozes, por isso é melhor evitar uma presença pública nas mídias sociais e aceitar apenas amigos e seguidores que você conhece.