Geração recente de deepfakes desafia segurança digital e exige novas abordagens

Geração recente de deepfakes desafia segurança digital e exige novas abordagens
Curso Código Milinário


Uma das instruções mais comuns que devem ser seguidas para evitar golpistas que se passam por outras pessoas online é pedir para falar com eles por uma chamada de vídeo. Caso a pessoa não seja quem afirma ser, essa ação denuncia o crime na hora e impede que seu dinheiro seja roubado — mas e se nem isso servir mais como uma proteção?

Com o avanço da inteligência artificial, os chamados deepfakes — montagens de vídeos convincentes que mostram pessoas falando frases e participando de situações irreais — também se tornam uma arma na mão de criminosos. Se antes golpes em que uma pessoa usava modulares de voz para se passar por outra pessoa eram comuns, em breve criminosos vão poder varrer as redes sociais de alvos para criar modelos 3D convincentes que imitam seus comportamentos.

Um exemplo de como a tecnologia está evoluindo a favor de golpistas aconteceu em 2019: usando sistemas de aprendizado de máquina, criminosos conseguiram fazer um ataque de áudio em tempo real contra uma companhia de energia do Reino Unido. O resultado foi um roubo de US$ 243 mil (R$ 1,2 milhão), feito somente usando comandos que pareciam ter saído diretamente do CEO da empresa.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Segundo o professor  Matthew Canham, pesquisador de cibersegurança do Instituto de Simulação e Treinamento da Universidade da Flórida Central, a pandemia deu espaço para o crescimento de outros golpes semelhantes. Em sua apresentação na conferência Black Hat USA 2021, ele afirmou que houve um aumento de 820% no uso de bots que convencem alvos a comprar cartões de presente se passando por conhecidos ou chefes.

Tecnologia perigosamente convincente

“A possibilidade de um ataque de phishing começar em uma conversa por vídeo com alguém que você pensa ser real está se tornando algo bastante possível. O mesmo vale para um vídeo deepfake de um suposto rapto de uma pessoa amada”, alertam os pesquisadores Tony Anscombe e Cameron Camp, da ESET.

Para Canham, a evolução da tecnologia deepfake está borrando as linhas entre realidade e ficção e pode trazer consequências que vão além de golpes. Como exemplo, ele afirma que será possível criar vídeos convincentes em que alguém aparece se comportando de maneira inapropriada, e esse material poderá ser usado como prova de uma acusação.

O pesquisador alerta que, para combater esses materiais, será preciso criar novas alternativas de segurança:

  • Criar palavras secretas compartilhadas com pessoas em que é preciso confiar, evitando que instruções seguidas por deepfakes sejam seguidas (como um suposto chefe pedindo depósitos em dinheiro, por exemplo);
  • Estabelecer condições que nunca serão pedidas por meios eletrônicos, como a compra de cartões de presente e depósitos bancário;
  • Usar diversos canais de autenticação em uma comunicação: se ela começar por e-mail, a empresa deve confirmá-la em outro meio que não foi requisitado na mensagem inicial.

Enquanto o uso de deepfakes ainda não é comum entre cibercriminosos, parece que é só questão de tempo até que isso se torne realidade. Para a ESET, é necessário tomar uma postura proativa, evitando que isso resulte no fim da confiança entre pessoas, especialmente em situações que envolvem receber e seguir instruções de quem estiver em posições de poder.

Fonte: ESET

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.



Fonte da Notícia