'Caça-deepfake' brasileira atrai políticos e revela descaso de big techs

11 de Mai de 2026 - 12:00
 0  0
'Caça-deepfake' brasileira atrai políticos e revela descaso de big techs

Quase todo brasileiro já tropeçou em uma deepfake na internet, o que nos torna mais expostos a manipulações com fotos de pessoas criadas ou modificadas com inteligência artificial do que americanos e britânicos. E, mesmo alvejados por imagens sintéticas, nossa capacidade de distinguir entre alguém real e um indivíduo completamente inventado tem a precisão de uma moeda jogada para cima.

É o cenário perfeito para um caos eleitoral, ainda que, segundo ordem do TSE (Tribunal Superior Eleitoral), . Como a restrição vale só para os políticos, se as falsificações forem feitas por apoiadores —ou detratores—, segue o baile. E pode ter certeza de uma coisa: diante de uma comunicação dominada por redes sociais com vontade molenga de conter a avalanche de foto e vídeo de gente que não existe, você provavelmente só contará com essa baixíssima habilidade de identificar falsidades para decidir se acredita ou não em vídeos gerados por IA mostrando seu candidato ou os adversários dele fazendo coisas abomináveis.

As grandes empresas de tecnologia até têm seus métodos de deteção, que funcionam direito mesmo se o conteúdo sintético for feito pelo serviço dela. É nesse ambiente de incertezas que um serviço brasileiro insinua uma mudança. Criado nas barbas das big techs, o SignaIP não nasceu para ser um "caça-deepfake", mas acaba agindo assim. Mesmo aberta só para convidados, a plataforma da startup InspireIP já foi procurada por um grande partido político com pretensões presidenciais, apurou Radar Big Tech. E, sem querer, a ferramenta revela outra coisa para lá de incômoda: o descaso das donas da IA.

O que rolou?

Criada em 2020 pela advogada Caroline Nunes, a InspireIP lida com propriedade intelectual em plataformas digitais. Ela associa blockchain, a revolucionária tecnologia nascida com o , e contratos inteligentes para gerar provas jurídicas de que um objeto digital pertence a uma empresa. Um desafio, já que todo mundo está a uma captura de tela de possuir qualquer imagem na internet. Mas a era da IA jogou a empresa em outra direção:

  • Para garantir que chatbots de IA não explorem conteúdo protegido, a empresa encontrou a solução ideal em uma tecnologia desenvolvida pelas big techs;
  • Sim, parece estranho, mas foi isso mesmo: Adobe, Microsoft, Intel, ARM, Truepic e BBC se uniram para criar a C2PA (Coalizão para Autenticidade e Origem de Conteúdo, na sigla em inglês), responsável por construir um protocolo para toda a indústria. Na prática, o rótulo digital é inserido em imagens, vídeos e áudios saídos de aparelhos eletrônicos e serviços digitais. Invisível aos olhos humanos, o selo mostra todo o histórico de edições, o que inclui modificações feitas por IA;
  • Logo se juntaram ao grupo Amazon, Google, Meta, Microsoft, OpenAI, TikTok, Samsung e Huawei, que se comprometeram a incluir o certificado nos conteúdos criados em suas plataformas;
  • Ainda que tenha sido criado em 2021, o consórcio só começou a emitir licenças do uso do rótulo nas ferramentas das integrantes em junho de 2025. Em maio deste ano, a InspireIP virou a primeira brasileira da lista;
  • Como é algo novo, apenas 52 produtos usam a tecnologia em sua versão plena e atualizada, --19 do Google, três da Xiaomi e um só da OpenAI. Número baixo diante dos mais de 5 mil membros da iniciativa ligada à C2PA;
  • O que o SignaIP, da InspireIP, faz é verificar o certificado C2PA de imagens para averiguar se alguma IA foi usada durante as edições. Não é trivial, já que poucas empresas no mundo recorrem ao protocolo para basear seus serviços. "Material empolgante. Vocês estão criando algo cheio de recursos", disse Tim Murphy, da Pixelstream Verify, outra empresa do consórcio;
  • O "caça deepfakes" involuntário atraiu o mundo político, escritórios de advogados e agências de publicidade. Consultada por Radar Big Tech, a InspireIP não comentou a respeito dos contatos comerciais;
  • Verificar imagens, no entanto, é uma função paralela do SignaIP, já que o serviço foi criado com outro propósito: atribuir a imagens certificações digitais válidas e verificáveis de autoria e procedência; assim, seus donos podem bater na porta de big techs e exigirem a retirada de conteúdos que lhes pertençam, mas estejam sendo usados de forma indevida por ferramentas de IA;
  • A solução atende uma demanda comercial --preservar conteúdo protegido por direito autoral--, tem lastro jurídico --a LGDP permite que as pessoas retirem dados de plataformas não autorizadas a usá-los-- e, de quebra, acolhe a angustia pessoal da fundadora da InspireIP, Caroline Nunes, que, diga-se, é a de muita gente.

Por que é importante?

Há outras ferramentas de detecção de deepfakes. O Google aplica uma marca d'água invisível, o SynthID, em todo conteúdo gerado pelo Gemini que é lido pelas plataformas da empresa e, às vezes, pelas de parceiras, como o Linkedin. Outras ferramentas usam IA para analisar imagens e averiguar se há sinais gráficos de geração sintética. O resultado é apenas uma indicação da probabilidade de ser uma mídia feita com IA.

Nenhuma delas é tão ampla como o C2PA. De forma técnica e complexa, ele apregoa a um conteúdo digital um "manifesto" para registrar, a cada nova edição, o sistema usado, o dispositivo e o usuário. Isso é incluído na imagem de, ao menos, três formas: nos metadados, de forma criptografada nos bytes do arquivo e sob a forma de uma marca d'água invisível.

Funciona? Depende. Nos testes de Radar Big Tech, o SignaIP:

  • Detectou o uso de IA em imagem gerada pelo ChatGPT (o presidente Lula e o ex-mandatário Jair Bolsonaro se cumprimentando aos sorrisos);
  • Disse não ter edição sintética em foto feita pelo Gemini (uma aeronave dentro de uma xícara azul);
  • Indicou a inexistência de manifesto C2PA em imagem gerada pelo Meta AI (a remoção do fundo de foto tirada na academia).

Em edição cruzadas, os efeitos foram os seguintes:

  • Depois de gerada pelo ChatGPT, a foto do amistoso aperto de mão entre Lula e Bolsonaro foi submetida ao Gemini junto da imagem de um sorridente Barack Obama. O pedido da coluna foi incluir os três em uma nova imagem. Feito. Novamente, o SignaIP não detectou uso de IA;
  • A imagem do trio foi então submetida ao ChatGPT junto de uma foto de Donald Trump. A tarefa agora era acrescentar o presidente dos EUA à cena. Feito --mas não sem alucinações: o chatbot da OpenAI colocou Trump no lugar de Bolsonaro. Dessa vez, o SignaIP detectou uso de IA;
  • Enviada pelo WhatsApp, a nova imagem foi baixada e processada outra vez pelo SinaIP, que não encontrou qualquer rótulo C2PA.
  • Sem muita cerimônia, as duas maiores ferramentas de IA usadas por brasileiros criam deepfakes de políticos, ainda que Google e OpenAI digam ter travas de segurança contra isso e mesmo que este colunista não seja um expert em prompts;
  • A análise do SignaIP indica que o ChatGPT gera imagens com C2PA acusando o uso de IA, mas o Gemini remove essa informação do certificado;
  • Ambas as ferramentas ignoram quaisquer edições anteriores;
  • No caso dos serviços da Meta, os processos de geração e compressão de imagem aniquilam os manifestos.

Ao ver esse quadro de permissividade das plataformas, começamos a entender por que somos bombardeados por deepfakes. Oito a cada dez brasileiros já viram fotos e vídeos de pessoas modificadas sinteticamente, mostra pesquisa realizada por Kantar e Veriff, uma empresa da Estônia especializada em identidade digital, com 3 mil pessoas no Brasil, Estados Unidos e Reino Unido. Além disso, quase 60% dos entrevistados no Brasil já criaram imagens com IA. Ou seja, comparado com americanos e britânicos, lideramos no consumo e na produção. Mas, ainda segundo o estudo, não sabemos diferenciar o sintético do real.

Não é bem assim, mas tá quase lá

Não à toa, o TSE criou regras para o uso de IA nas eleições de 2026:

  • Todo conteúdo de propaganda eleitoral criado ou alterado com IA deve avisar de forma clara, visível e compreensível sua origem sintéticas; plataformas digitais, como redes sociais, devem criar ainda um campo para as campanhas informarem o uso de IA;
  • Conteúdos que alterem voz, imagem ou manifestação de candidatos com IA --ou seja, as deepfakes-- são proibidos de circular nas 72 horas antes da votação e nas 24 horas seguintes;
  • Chatbots de IA não podem recomendar, favorecer ou ranquear candidatos ou partidos envolvidos nas eleições.

Ainda que seja obrigação legal das plataformas identificar o que é feito por IA, os vários tribunais eleitorais do país podem firmar parcerias para caçar montagens. Nada disso seria necessário se iniciativas como o C2PA fossem levadas a sério.

Acontece que, para dar certo, o rótulo precisa do comprometimento de todas as empresas envolvidas na criação de conteúdo digital, dos fabricantes dos aparelhos que captam as imagens (celulares, câmeras fotográficas), das donas dos processadores de imagem (ferramentas de edição, montagem, tratamento e modificação com IA ou não), dos marketplaces (agências de venda de conteúdo) e das plataformas de distribuição (redes sociais, streaming de vídeo). Todas elas estão no consórcio, só falta implementarem de fato.

Sem aviso, Chrome baixa arquivos de 4 GB para ativar o Gemini

Alguns usuários foram surpreendidos pelo , serviço de inteligência artificial da empresa.

Segundo alguns relatos, o comprometimento do armazenamento interno dos computadores chega a 4 Gigabytes. A ação foi descrita pelo . O modelo de IA é gravado em um arquivo chamado "wights.bin" m computadores que atendem a certos requisitos de hardware.

O download só começa se as funções de IA estiverem ativas. A pegadinha é que, no Chrome, essas funções vêm ligadas de fábrica nas versões mais recentes. O modelo baixado é o Gemini Nano, que está por trás do "Ajude-me a escrever" (Help me write), da detecção de golpes em tempo real e da organização inteligente de abas. Os brasileiros, por ora, podem respirar sossegados. Apesar de anunciada em 2024, a integração entre navegador e Gemini só passou a ser liberada amplamente nos Estados Unidos em setembro do ano passado e, apenas em março de 2026, chegou a outros países, como Canadá, Índia e Nova Zelândia.

A liberação a conta-gotas é estratégica. Navegador mais usado do mundo, o Chrome é peça-chave na disputa do Google pela hegemonia da IA. No ano passado, o governo dos Estados Unidos tentou convencer a Justiça norte-americana a ordenar a venda do navegador, como remédio para a condenação de monopólio sofrida pela gigante das buscas. Não deu certo. . Empresas como Perplexity, Yahoo! e OpenAI manifestaram interesse na compra. Nem chegaram a ser ouvidas pelo Google.

Brasil supera EUA no medo da IA e uso da tecnologia para novas tarefas

O Brasil tem mais profissionais na fronteira da inteligência artificial do que Estados Unidos, Japão e Índia, mostra o Work Trend Index, estudo da Microsoft. Divulgado nesta semana, a pesquisa analisou, para uma dezena de mercados com alto desenvolvimento tecnológico, os níveis de adoção de IA, os receios dos trabalhadores e suas impressões a respeito da tecnologia.

Por aqui, foram classificados como profissionais de fronteira 27% da força de trabalho que já usa IA. São pessoas que usam agentes de IA para automatizar fluxos de trabalho, constróem sistemas multiagente, redefinem rotinas e identificam onde implementar agentes para automatizar processos repetitivos. Também participam da criação de padrões compartilhados do uso de IA em suas equipes. Para a Microsoft, eles representam um grupo pequeno, mas desproporcionalmente valioso. Na média mundial, correspondem a 16% de todos os usuários de IA.

Ainda segundo o estudo, o . No mundo, esse índice é, na média, de 58%. Talvez isso aconteça porque o brasileiro se sinta mais pressionado do que seus colegas em outros do mundo a se adaptar ao avanço da IA. Por aqui, quase 80% temem ficar para trás se não aprenderem a usar IA rapidamente no trabalho. A média mundial é de 65%.

Lula e Trump debatem big techs, e Brasil indica redes para maior de 16 anos

A regulação das big techs estava entre os vários assuntos elencados pela equipe do presidente Lula para a reunião com . A mensagem: o Brasil mira empresas de todos os países ao impor regras a empresas de tecnologia, como a reforma do Marco Civil da Internet e o ECA Digital.

A conversa ocorreu dias após o . Como a pasta já havia elevado a idade sugerida para o Instagram no ano passado, —a exceção é o Threads, também da Meta, classificado para 14 anos; nascido vinculado ao Instagram, agora permite a criação de contas para quem não tem perfil no Instagram.

DEU TILT

Toda semana, e conversam sobre as tecnologias que movimentam os humanos por trás das máquinas. O programa é publicado às terças-feiras no e nas. Assista ao episódio da semana completo.

MAIS DE RADAR BIG TECH

Deu Tilt
Alexa ficou burra? Faça a assistente da Amazon responder como o ChatGPT

Diogo Cortiz #1
Trump agora quer controle da IA. O que o Brasil pode aprender?

Diogo Cortiz #2
Token Maxxing: ranquear funcionários pelo uso de IA virou febre corporativa

Ctrl+Z: ONG de ex-chefe da Meta recebe denúncias de abusos de big techs

UE investiga Meta por 'dark patterns', o que é essa prática de manipulação?

Cientista do Google diz que medidas da UE representam risco de privacidade a usuários

Apple fecha acordo de US$ 250 milhões por exagerar em capacidades da Siri

Meta: Novo México pede multa bilionária e mudança em redes para menores

Meta vai usar rosto para inferir idade e impedir acesso de menores de 13

Musk questiona chefe da OpenAI: por que tanto dinheiro, se não investiu?

Reportagem

Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.