Ferramenta de geração de vídeos da OpenAI levanta preocupações sobre desinformação
Uma nova pesquisa da NewsGuard revelou que a versão mais recente do modelo de geração de vídeos da OpenAI, o Sora 2, pode ser induzida a criar conteúdos falsos ou enganosos em 80% dos testes realizados.
O estudo destaca o risco de que tecnologias generativas avancem mais rápido do que as medidas de segurança capazes de conter abusos.
Segundo a NewsGuard, responsável por avaliar a credibilidade de sites e informações online, o Sora 2 pode ser facilmente explorado por agentes mal-intencionados para espalhar desinformação em larga escala.
Entre os vídeos falsos produzidos durante os testes estavam cenas de manipulação eleitoral, declarações inexistentes de marcas e situações fabricadas envolvendo autoridades públicas.
OpenAI reconhece riscos e reforça medidas de segurança
Em resposta, a OpenAI reconheceu os riscos associados ao uso do Sora 2 e publicou um “system card” em seu site detalhando medidas de mitigação.
A empresa informou que está adotando uma abordagem iterativa de segurança, com liberação controlada do modelo e restrições de uso envolvendo imagens realistas de pessoas e vídeos com menores de idade.
Além disso, todos os vídeos gerados trazem marcas d’água visíveis e metadados C2PA, um padrão de autenticação para rastrear a origem dos conteúdos.
A OpenAI afirmou que continuará aprimorando o modelo para equilibrar segurança e potencial criativo, destacando avanços técnicos como física mais realista, áudio sincronizado e maior fidelidade às instruções do usuário.
Especialistas alertam para os perigos dos deepfakes
Pesquisadores e especialistas em comunicação consideram os resultados da NewsGuard preocupantes.
De acordo com Michelle A. Amazeen, professora da Universidade de Boston, vídeos falsos gerados por IA ampliam a confusão informacional e dificultam a distinção entre fatos e manipulações.
Outros especialistas destacam que o Sora 2, na prática, funciona como uma ferramenta de deepfake em larga escala.
Segundo Scott Ellis, diretor da empresa de autenticação Daon, o fato de o modelo gerar vídeos enganosos em 80% dos testes é “um grande sinal de alerta”.
Já Arif Mamedov, CEO da Regula Forensics, observou que o modelo pode facilitar a criação de redes industriais de desinformação, acessíveis a qualquer pessoa com um simples comando.
Fragilidade das marcas d’água e a questão da autenticação
Embora a OpenAI tenha incluído sistemas de rastreamento e marcas d’água nos vídeos, a NewsGuard descobriu que esses sinais podem ser facilmente removidos com ferramentas gratuitas disponíveis online.
Durante os testes, os pesquisadores conseguiram eliminar a marca “Sora” em poucos minutos, resultando em vídeos que pareciam autênticos para um observador comum.
Especialistas apontam que marcas d’água são soluções limitadas, já que podem ser apagadas com cortes, redimensionamentos ou recodificações simples.
Como alternativa, defendem o uso de credenciais digitais assinadas e tecnologias baseadas em blockchain para registrar a origem e a propriedade do conteúdo de forma imutável.
Inconsistência nas recusas e perda de confiança
A pesquisa também observou que o Sora 2 se recusou a gerar alguns vídeos falsos, mas sem um padrão claro.
Essa inconsistência, segundo analistas, pode ser ainda mais perigosa do que uma recusa total.
Ela sugere que o sistema se baseia em padrões de linguagem e não em princípios sólidos de segurança, o que abre espaço para exploração por parte de usuários mal-intencionados.
A falta de previsibilidade também gera desconfiança na tecnologia, uma vez que usuários, reguladores e empresas não conseguem compreender os critérios de bloqueio.
Essa opacidade aumenta o risco de uso indevido e fragiliza a credibilidade de conteúdos digitais em geral.
Entre inovação e responsabilidade
O caso do Sora 2 reforça o dilema atual da inteligência artificial: equilibrar inovação criativa e segurança da informação.
Enquanto a OpenAI avança na capacidade técnica de seus modelos, cresce a pressão por transparência, consistência e mecanismos eficazes de verificação.
O desafio agora é garantir que essas ferramentas sejam usadas de forma responsável, evitando que se tornem instrumentos de manipulação em massa em um ambiente digital cada vez mais complexo.
