Taylor Swift, Scarlett Johansson entre outros, veja lista de famosos que golpistas usam como isca

Você já deve ter visto algo assim nas redes sociais: um vídeo da Taylor Swift “recomendando” um investimento milagroso, ou uma Scarlett Johansson promovendo um site de apostas online.

O vídeo parece real. A voz é convincente. O rosto se mexe perfeitamente. Mas nada daquilo é verdade.

Com a popularização da inteligência artificial, os golpes usando deepfake, vídeos e áudios falsos gerados por IA deixaram de ser exceção e se tornaram parte do dia a dia da internet.

E não são só celebridades internacionais que estão sendo usadas.
No Brasil, criminosos já exploraram nomes de artistas, apresentadores de TV, atletas e até influenciadores digitais para aplicar golpes de investimentos, apostas, sorteios e falsas promoções.

Quem são as celebridades mais usadas em golpes com deepfake

Um estudo recente da McAfee analisou o uso indevido de imagens de celebridades em golpes digitais ao redor do mundo e revelou um mercado crescente de recomendações falsas geradas por IA.

https://www.mcafee.com/blogs/pt-br/seguranca-na-internet/celebridades-que-os-golpistas-mais-imitam-mcafee-revela-quem-e-alvo-de-deepfakes/

No Brasil, embora o estudo seja global, o padrão se repete: golpistas usam figuras públicas conhecidas para dar credibilidade a anúncios falsos de:

  • investimentos “garantidos”
  • plataformas de apostas
  • riptoativos
  • produtos de beleza ou saúde
  • sorteios e promoções inexistentes

A lógica é sempre a mesma: se um rosto famoso está ali, as pessoas confiam mais.

Por que os golpistas adoram usar rostos famosos

A fórmula do golpe é simples e extremamente eficaz.
Criminosos usam IA para clonar o rosto e a voz de celebridades e criar vídeos em que essas pessoas “recomendam” algo que nunca existiu. O objetivo pode ser:

levar a vítima para um site falso
instalar malware
roubar dados pessoais
ou induzir pagamentos via PIX, boleto ou cartão

Segundo a pesquisa da McAfee, feita com 8.600 pessoas em vários países:

72% já viram recomendações falsas feitas por celebridades ou influenciadores
39% já clicaram nesse tipo de conteúdo
1 em cada 10 pessoas perdeu dinheiro ou dados pessoais, com prejuízo médio de US$ 525 por vítima

O golpe funciona porque explora algo muito humano: confiança. Quando vemos alguém famoso, nosso cérebro baixa a guarda e os criminosos sabem exatamente disso.

Deepfakes estão cada vez mais realistas e perigosos

A evolução da IA tornou esses golpes assustadoramente convincentes.

Ferramentas modernas de deepfake conseguem imitar:

  • voz
  • movimentos faciais
  • expressões sutis
  • entonação emocional

Não é à toa que apenas 29% das pessoas dizem se sentir confiantes para identificar um deepfake, e 21% admitem ter dificuldade ou insegurança ao tentar diferenciar o real do falso.

Casos recentes mostram o tamanho do problema:

Uma mulher na França perdeu quase US$ 900 mil após um golpista se passar por Brad Pitt, usando imagens e áudios gerados por IA.

Um vídeo falso mostrou o apresentador Al Roker anunciando problemas graves de saúde.

Tom Hanks, Oprah Winfrey e Scarlett Johansson já tiveram suas imagens usadas em anúncios fraudulentos de produtos com os quais nunca tiveram relação.

O velho ditado “ver para crer” já não funciona mais e os golpistas sabem disso.

A psicologia por trás desses golpes

Esses golpes não dependem apenas da tecnologia.
Eles exploram as chamadas relações parassociais, vínculos emocionais de mão única que fãs criam com figuras públicas.

Quando uma “celebridade” aparece falando diretamente com você, o cérebro interpreta aquilo como algo próximo, pessoal, confiável.
Isso faz com que muitas pessoas ajam por impulso, antes de questionar.

É a mesma lógica usada em golpes românticos, agora potencializada pela IA, que cria vídeos e mensagens de voz praticamente indistinguíveis da realidade.

Como se proteger de golpes com deepfake

Algumas atitudes simples fazem toda a diferença:

Pense antes de clicar: Se algo parecer bom demais para ser verdade, provavelmente é golpe.

Verifique na fonte oficial: Confira se a informação aparece nos perfis oficiais da celebridade ou em veículos de imprensa confiáveis.

Desconfie de anúncios patrocinados: Muitos golpes aparecem como anúncios pagos nas redes sociais.

Observe sinais de IA: Movimentos labiais fora de sincronia, voz artificial, iluminação estranha ou expressões faciais “perfeitas demais” são alertas.

Nunca envie dados ou dinheiro por mensagem: Celebridades, empresas e órgãos oficiais não pedem pagamento via DM, WhatsApp ou links aleatórios.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima