Guia de segurança com IA

Golpe com falso famoso recomendando produto

Como vídeos e anúncios feitos com IA podem usar a imagem de famosos para vender golpe, investimento falso ou produto duvidoso.

Editado por Omer Aktas

Ouvir esta página Lê apenas o texto do artigo, não o menu, o rodapé nem a barra lateral.

Pronto para ler este guia em voz alta.

Hábito de segurança: desacelere, confirme por outro canal e não deixe a urgência decidir por você.

Resposta curta

Um vídeo com rosto conhecido não prova que a recomendação é real. IA pode imitar imagem, voz e estilo para criar anúncio convincente.

Por que isso importa

No Brasil, é comum ver anúncios falsos com apresentadores, médicos, influenciadores ou empresários. A pessoa reconhece o rosto e baixa a guarda.

Passo a passo

Procure a recomendação no perfil oficial da pessoa, no site da marca e em veículos confiáveis. Não clique no anúncio como primeira fonte.

Teste este prompt

Verifique esta suposta recomendação de famoso. Liste sinais de golpe, fontes oficiais para checar e dados que eu não devo informar: [colar texto do anúncio].

Erro comum de iniciante

Comprar, investir ou passar cartão só porque uma pessoa famosa apareceu no vídeo.

Nota de segurança

Vídeos gerados ou manipulados por IA podem enganar até pessoas cuidadosas. Desconfie de urgência, promessa de dinheiro fácil e milagre.

O que fazer depois

Pesquise fora do anúncio e converse com alguém de confiança antes de pagar.