Blog Belem News

DESDE 2008

Ana, 26, que pediu para não ser identificada, sofreu golpe por meio de site falso em 2021 - Zanone Fraissat/Zanone Fraissat/Folhapress

Criminosos usam inteligência artificial para aplicar cinco novos golpes; veja como se proteger

Estelionatários aproveitam da tecnologia para trabalhar em velocidade inédita, criam sites falsos, clonam pessoas e geram spam em massa

SÃO PAULO

Após a popularização do ChatGPT e da inteligência artificial, 2023 ficou registrado como o ano de maior circulação de conteúdos falsos para aplicação de golpes na história. Foram quase 5 milhões de casos, contra 4,7 milhões em 2022.

O dado foi divulgado pelo Anti-Phishing Working Group (grupo de trabalho anti-phishing), uma coalizão internacional para combater golpes de engenharia social na internet, que usam como isca alguma mensagem ou imagem chamativa —por isso, a referência ao verbo pescar em inglês.

Pesquisadores de cibersegurança ouvidos pela Folha afirmam que, além do ganho em escala, a inteligência artificial permite que os golpistas espalhem mensagens mais convincentes e com menos erros ortográficos.

No lado obscuro da internet, conhecido como “deep web”, circula até uma versão do ChatGPT sem filtros e especializada em dar assistência a estelionatários: o FraudGPT.

Ainda em 2023, o anuário brasileiro de segurança pública identificou uma alta de 326,2% nos casos de fraude eletrônica entre 2018 e 2022. Dados de estados que divulgam estatísticas sobre esse crime, como Rio de Janeiro e Pernambuco, indicam que a tendência de crescimento se manteve em 2023.

A reportagem reuniu exemplos dos esquemas com IA, que vão de sites falsos para fingir arrecadar doações para o Rio Grande do Sul a fakes em aplicativos de relacionamento. Veja como se proteger.

VEJA PRINCIPAIS GOLPES QUE USAM IA

  • SITES FALSOS

  • FAKES DO TINDER

  • CLONES VIRTUAIS GOLPISTAS

  • LIGAÇÃO FALSA

  • MENSAGENS E EMAILS FALSOS EM MASSA

SITES FALSOS

Em uma busca no Google por sites que arrecadavam recursos para ajudar os desalojados no Rio Grande do Sul, a reportagem encontrou o site falso “doacoes-rs.vercel.app”, hoje fora do ar. A Vercel mencionada no fim do endereço web é uma plataforma para geração simples de sites a partir de inteligência artificial.

A página que indicava doar para uma chave Pix em nome de uma pessoa física era aberta pela frase de efeito: “ajude-nos a reconstruir vidas”. O site estava repleto de vídeos e imagens da tragédia no Sul, mas não continha referências aos responsáveis por promover a ajuda. Faltavam rostos, nomes, telefone e endereço.

A chave Pix estava no nome de um microempresário individual gaúcho, mas essa informação não era confiável, uma vez que os estelionatários costumam usar dados vazados na internet para abrir contas e aplicar golpes. O link estava patrocinado no Google.

Para evitar o prejuízo, o internauta precisa se atentar aos detalhes, como o trecho “vercel.app”, incomum em um endereço de internet.

FAKES DO TINDER

A imagem mostra a tela de um smartphone com um perfil de uma pessoa em um aplicativo de encontros. A pessoa está sorrindo e vestindo um moletom laranja, e o perfil indica que ela está em Londres, com 30 anos. Ícones de interação como coração e estrela estão visíveis, sugerindo opções para expressar interesse ou não no perfil apresentado.
Reportagem encontrou perfil com imagens de mulher criadas por IA, pelo que indicam três plataformas de identificação de imagens de origem virtual – Reprodução/Tinder

O conhecido golpe do Tinder, que usa perfis falsos para atrair vítimas para sequestros relâmpagos, também ganhou uma variante com IA.

Parte das contas falsas deixou de usar fotos furtadas de terceiros para utilizar imagens geradas por inteligência artificial. A artimanha dificulta reconhecer quando as imagens na verdade são de uma celebridade ou de outra pessoa conhecida.

Uma dica para reconhecer imagens de pessoas geradas por IA é olhar as mãos, que costumam ter defeitos. Outro é procurar detalhes problemáticos como sombras que não fazem sentido ou a falta de marcas de expressão no rosto.

A plataforma Social Catfish, especializada em reconhecer golpes que partem da paquera, recomenda que as pessoas façam buscas reversas para ver se há mais imagens da suposta pessoa na internet. Também é possível buscar por nome, telefone, email ou endereço.

Portanto, é mais recomendável manter contato com perfis verificados.

CLONES VIRTUAIS GOLPISTAS

O servidor público goiano Elias Alves diz ter acreditado em uma falsa promoção de um restaurante que frequenta. Teve as contas no WhatsApp e no Instagram invadidas e, além disso, teve a identidade roubada.

No dia 6 de maio, criminosos copiaram, a partir de uma foto enviada por Alves, a imagem dele em um vídeo fraudulento que usava uma proposta de investimento como isca.

Após perceber que havia perdido acesso às redes sociais, Alves conseguiu prevenir amigos e parentes do golpe e evitar prejuízos. Como não houve perdas materiais, o servidor público não registrou boletim de ocorrência junto à Polícia Civil, como é recomendado.

Também circulam nas redes sociais vídeos de famosos como Neymar, Anitta e Drauzio Varella.

Os conteúdos são produzidos em softwares que usam IA para recriar a voz de pessoas, trocar o rosto em vídeos e sincronizar movimentos labiais.

Essa tecnologia ficou conhecida nos últimos anos como deepfake e está mais acessível a cada dia com a popularização de IAs generativas, como o ChatGPT. Hoje, bastam cinco minutos de áudio para copiar uma voz com qualidade aceitável.

Nesses esquemas, a principal tática é a chamada engenharia social —os criminosos recorrem à lábia para receber transferências de seus alvos de forma espontânea. Isso também diminui a chance de o banco bloquear a transação por comportamentos anômalos, como ocorre em outros golpes.

LIGAÇÃO FALSA

A mesma tecnologia de deepfakes também é usada em ligações falsas, com vozes clonadas.

A polícia de Hong Kong, por exemplo, investiga um caso em que uma empresa multinacional perdeu 200 milhões de dólares de Hong Kong (R$ 126,5 milhões), depois que estelionatários enganaram seus funcionários com uma chamada de vídeo em grupo falsa criada a partir de IA, de acordo com o South China Morning Post.

Os fraudadores fabricaram representações do diretor financeiro da empresa e de outras pessoas na chamada usando imagens públicas e convenceram a vítima a fazer um total de 15 transferências para cinco contas bancárias em Hong Kong, informou o jornal neste domingo (4), citando a polícia da cidade.

As autoridades não identificaram a empresa nem os funcionários.

Hábitos pessoais dos clientes, como horários comuns de transações bancárias e até a maneira de segurar o celular, se tornaram a principal ferramenta de bancos para evitar fraudes em meio ao avanço da inteligência artificial generativa, que pode fraudar sistemas de biometria.

Veja os amigos de IA criados pelo colunista Kevin Roose