É #FAKE vídeo de Marcos Palmeira divulgando 'vaquinha' para o caso Orelha; golpe usa IA para manipular imagem e áudio

  • 05/02/2026
(Foto: Reprodução)
É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe Reprodução Circula nas redes sociais um vídeo no qual o ator Marcos Palmeira supostamente pede "doações" em uma campanha para "responsabilizar" os autores das agressões que levaram à morte do cão Orelha, no início de janeiro, em Florianópolis. É #FAKE. selo fake g1 🛑 Como é a publicação falsa? O vídeo viralizou no Facebook e no Instagram no início deste mês e explora a comoção em torno do caso Orelha, cachorro comunitário que vivia na Praia Brava. Em 5 de janeiro, ele teve de passar por eutanásia devido à gravidade dos ferimentos. Nesta terça-feira (3), a Polícia Civil de Santa Catarina apontou um adolescente como autor da agressão e pediu a internação provisória do jovem. Na parte superior do quatro, há o seguinte enunciado: "Vamos mostrar que isso não passa batido". A tela se divide em duas: à direita, aparece Marcos Palmeira falando diretamente à câmera; à esquerda, há a foto de um cachorro parecido com Orelha e retratos borrados de quatro pessoas (inicialmente, a investigação havia indicado envolvimento de quatro menores de idade no episódio). Mas a fala atribuída ao ator foi criada com inteligência artificial (IA) – leia detalhes abaixo. A versão manipulada diz: "Oi, eu sou o Marcos Palmeira, sou ator, mas sou eu mesmo. Eu quero fazer um convite para vocês. Por favor, é muito importante. Fiquem comigo até o final que é assunto sério. Está acontecendo um movimento no Brasil todo pelo caso do Orelha. Temos menos de 7 dias para a gente conseguir fazer a coisa certa. Um cachorro que levou um fim da pior forma, tal forma que, até para falar, é complicado, dói no coração. Tudo isso, por quatro pessoas desalmadas. Foi aberta uma campanha para levar o caso para a frente com uma equipe de profissionais para que esse caso não seja arquivado e os responsáveis não saiam impunes dessa situação. E eu estou falando, assim, meio urgente, porque temos menos de 7 dias para garantir que esse caso não seja esquecido [...]. Talvez você nunca tenha conhecido Orelha, mas imagine só essas pessoas andando pela rua como nada tivesse acontecido. Conto com a ajuda de todos vocês. Clique aqui no link abaixo e faça sua parte. Vamos fazer o que é certo, aquilo que Deus nos ensinou". Na parte inferior do quadro, um link direciona o usuário a um site de uma vaquinha solidária on-line com propostas de doações de R$ 30 a R$ 1 mil. O endereço é pouco confiável, segundo uma ferramenta de análise de segurança, e exige um pagamento via PIX. O valor vai para uma intermediadora de pagamentos que não revela o destinatário final dos recursos. Além disso, a página apresenta sinais típicos de golpe como: apelo emocional extremo; foco em urgência; ausência de CNPJ, razão social, endereço físico ou responsável legal pela campanha; e pagamento fora de plataformas conhecidas ou que permita auditoria. ⚠️ Por que a publicação é falsa? Ao Fato ou Fake, Marcos Palmeira enviou um e-mail, por meio de sua assessoria de imprensa, desmentindo o material: “Os criminosos se apropriaram de uma causa importante, que eu apoio, para aplicar o golpe. É uma prática sórdida, que a gente tem que denunciar e combater. Temos que ficar sempre muito atentos, principalmente nesse ano de eleição, que não vai ser fácil". A equipe informou ainda que, provavelmente, os criminosos usaram uma foto do autor como base para criar o vídeo. O Fato ou Fake submeteu o conteúdo ao detector de deepfake da plataforma InVID. A ferramenta apontou 98% de probabilidade de adulteração por IA (veja infográfico abaixo). Deepfake é uma técnica que permite alterar vídeos e fotos. Ele permite, por exemplo, substituir o rosto de uma pessoa pelo de outra, além de inserir áudios fabricados. O Fato ou Fake submeteu o vídeo ao detector de deepfake da plataforma InVID. A ferramenta apontou 98% de probabilidade de o material conter rosto manipulado por inteligência artificial. Reprodução Além disso, uma análise com a ferramenta Hiya, que identifica áudios falsos, detectou 92% de probabilidade de o material ter sido gerado por IA (veja infográfico abaixo). O áudio foi submetido à ferramenta Hiya, que detectou 92% de probabilidade de o material ter sido gerado por IA. Reprodução Por fim, a verificação sites de segurança, como ScamAdviser, indicou que o domínio do site golpista é novo, pouco conhecido e tem índice de confiança baixo (veja infográfico abaixo). Uma análise por sites de segurança como ScamAdviser aponta que o domínio é novo e pouco conhecido. Além disso, tem índice de confiança baixo. Reprodução Vídeo mostra Orelha andando em calçada após horário estimado da agressão, confirma polícia É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe Reprodução Veja também Vídeo de capivara pegando "carona" em cima de tatu foi feito com IA É #FAKE vídeo de capivara pegando 'carona' em cima de tatu VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

FONTE: https://g1.globo.com/fato-ou-fake/noticia/2026/02/05/e-fake-video-de-marcos-palmeira-divulgando-vaquinha-para-o-caso-orelha-golpe-usa-ia-para-manipular-imagem-e-audio.ghtml


#Compartilhe

Aplicativos


Locutor no Ar

Peça Sua Música

Top 5

top1
1. Desejo Imortal

Gusttavo Lima

top2
2. Oi Balde

Zé Neto e Cristiano

top3
3. Nosso Quadro

Ana Castela

top4
4. Anti-Hero

Taylor Swift

top5
5. Hold Me Closer

Elton John feat. Britney Spears

Anunciantes