Desculpe desapontar, mas se você está procurando uma lista rápida de maneiras facilmente identificáveis e infalíveis de detectar vídeos gerados por IA, você não a encontrará aqui. Já se foram os dias em que AI Will Smith comia espaguete grotescamente. Agora temos ferramentas que podem criar vídeos fotorrealistas convincentes com apenas alguns cliques.
No momento, os vídeos gerados por IA ainda são uma modalidade relativamente incipiente em comparação com texto, imagens e áudio gerados por IA, porque acertar todos os detalhes é um desafio que requer muitos dados de alta qualidade. “Mas não há nenhum obstáculo fundamental para a obtenção de dados de maior qualidade”, apenas trabalho intensivo em mão-de-obra, disse Siwei Lyu, professor de ciência da computação e engenharia na Universidade de Buffalo SUNY.
Isso significa que você pode esperar que os vídeos gerados por IA melhorem muito em breve e eliminem os artefatos reveladores – falhas ou imprecisões – como rostos que se transformam e objetos que mudam de forma que marcam as criações atuais de IA. A chave para identificar vídeos gerados por IA (ou qualquer modalidade de IA), então, reside na alfabetização em IA. “Entender que (as tecnologias de IA) estão crescendo e ter a ideia central de ‘algo que estou vendo poderia ser gerado pela IA’ é mais importante do que, digamos, pistas individuais”, disse Lyu, que é diretor do Media Forensic da UB. Laboratório.
Tweet pode ter sido excluído
Navegar na web infestada de IA requer o uso de seu conhecimento on-line e bom senso para reconhecer quando algo pode estar errado. É a sua melhor defesa contra ser enganado por deepfakes de IA, desinformação ou apenas lixo de baixa qualidade. É uma habilidade difícil de desenvolver, porque todos os aspectos do mundo online lutam contra ela em uma tentativa de chamar sua atenção. Masa boa notícia é que é possível ajustar seus instintos de detecção de IA.
“Ao estudar (imagens geradas por IA), acreditamos que as pessoas podem melhorar sua alfabetização em IA”, disse Negar Kamali, cientista pesquisador de IA da Kellogg School of Management da Northwestern University, coautor de um guia para identificar imagens geradas por IA. “Mesmo que eu não veja nenhum artefato (indicando geração de IA), meu cérebro pensa imediatamente: ‘Ah, algo está errado'”, acrescentou Kamali, que estudou milhares de imagens geradas por IA. “Mesmo que eu não encontre o artefato, não posso dizer com certeza se é real, e é isso que queremos.”
O que procurar: vídeos impostores versus vídeos de texto para imagem
Antes de podermos identificar vídeos gerados por IA, temos que distinguir os diferentes tipos. Os vídeos gerados por IA são geralmente divididos em duas categorias diferentes: vídeos impostores e vídeos gerados por um modelo de difusão de texto para imagem.
Vídeos impostores
Estes são vídeos editados por IA que consistem em troca de rosto – onde todo o rosto de uma pessoa é trocado pelo de outra pessoa (geralmente uma celebridade ou político) e obrigado a dizer algo falso – e sincronização labial – onde a boca de uma pessoa é sutilmente manipulada e substituída com áudio diferente.
Os vídeos do Impostor geralmente são bastante convincentes, porque a tecnologia já existe há mais tempo e eles são construídos a partir de filmagens existentes, em vez de gerar algo do zero. Lembra daqueles vídeos deepfake de Tom Cruise de alguns anos atrás que se tornaram virais por serem tão convincentes? Eles funcionaram porque o criador, Chris Ume, se parecia muito com Tom Cruise, trabalhou com um imitador profissional de Tom Cruise e fez muitas edições minuciosas, de acordo com um entrevista com Ume do The Verge. Hoje em dia, há uma abundância de aplicativos por aí que realizam a mesma coisa e podem até – assustadoramente – incluir áudio de um breve trecho de som que o criador encontra online.
Dito isso, há algumas coisas a serem observadas se você suspeitar de um vídeo deepfake de IA. Em primeiro lugar, observe o formato do vídeo. Deepfakes de vídeo de IA são normalmente “filmados” em formato de cabeça falante, onde você pode ver apenas as cabeças e ombros do locutor, com os braços fora de vista (mais sobre isso em um minuto).
Para identificar trocas de rosto, procure falhas ou artefatos nos limites do rosto. “Você normalmente vê artefatos quando a cabeça se move obliquamente em direção à câmera”, disse Hany Farid, especialista em ciência forense digital e professor de ciência da computação da UC Berkeley. Quanto aos braços e mãos, “se a mão se mover, ou algo obstruir o rosto, (a imagem) irá falhar um pouco”, continuou Farid. E observe os braços e o corpo para movimentos naturais. “Se tudo o que você está vendo é isso” – em nossa chamada pelo Zoom, Farid mantém os braços rígidos e ao lado do corpo – “e a pessoa não está se movendo, é falso”.
Velocidade da luz mashável
Se você suspeitar de sincronização labial, concentre sua atenção na boca da pessoa – especialmente nos dentes. Com as falsificações, “vimos pessoas com dentes de formato irregular” ou o número de dentes mudando ao longo do vídeo, disse Lyu. Outro sinal estranho a ser observado é a “oscilação da metade inferior” do rosto, disse Lyu. “Existe um procedimento técnico em que é preciso combinar exatamente o rosto da pessoa”, disse ele. “Enquanto falo, movo muito meu rosto, e esse alinhamento, se você tiver um pouco de imprecisão ali, os olhos humanos são capazes de perceber.” Isso dá à metade inferior do rosto um efeito mais líquido e emborrachado.
Tweet pode ter sido excluído
Quando se trata de deepfakes de IA, Aruna Sankaranarayanan, assistente de pesquisa do Laboratório de Ciência da Computação e Inteligência Artificial do MIT, diz que sua maior preocupação não são os deepfakes dos políticos mais famosos do mundo, como Donald Trump ou Joe Biden, mas de figuras importantes que pode não ser tão conhecido. “A fabricação proveniente deles, distorcendo certos fatos, quando você não sabe como eles se parecem ou soam na maioria das vezes, é realmente difícil de refutar”, disse Sankaranarayanan, cujo trabalho se concentra em deepfakes políticos. Novamente, é aí que a alfabetização em IA entra em jogo; vídeos como esses requerem alguma pesquisa para verificar ou desmascarar.
Vídeos de texto para imagem
Depois, há os recém-chegados: os modelos de difusão de texto para imagem que geram vídeos a partir de prompts de texto ou imagem. A OpenAI causou grande impacto ao anunciar o Sora, seu gerador de vídeo de IA. Embora ainda não esteja disponível, os vídeos de demonstração foram suficientes para surpreender as pessoas com seus detalhes meticulosos, fotorrealismo vívido e rastreamento suave, tudo supostamente a partir de simples instruções de texto.
Desde então, surgiram vários outros aplicativos que podem transformar seus memes favoritos em GIFs e cenas imaginativas que parecem ter levado uma equipe inteira de CGI com um orçamento da Disney. Criativos de Hollywood estão certos em ficar indignados com o advento dos modelos de texto para imagem, que provavelmente treinado em seu trabalho e agora ameaça substituí-lo.
Tweet pode ter sido excluído
Mas a tecnologia ainda não chegou lá, porque mesmo aqueles vídeos do Sora provavelmente exigiram uma edição inteligente e demorada. Os vídeos de demonstração de Sora consistem em uma série de edições rápidas, porque a tecnologia ainda não é boa o suficiente para criar vídeos mais longos e perfeitos. Portanto, você pode ficar alerta, principalmente, para clipes curtos: “Se o vídeo tiver 10 segundos de duração, desconfie. Há uma razão para ele ser curto”, disse Farid. “Basicamente, a conversão de texto em vídeo simplesmente não consegue fazer um único corte de um minuto”, continuou ele, acrescentando que é provável que isso melhore nos próximos seis meses.
Tweet pode ter sido excluído
Farid também disse para ficar atento a “inconsistências temporais”, como “o prédio adicionou uma história ou o carro mudou de cor, coisas que fisicamente não são possíveis”, disse ele. “E muitas vezes é longe do centro das atenções que isso está acontecendo.” Portanto, aprimore os detalhes do plano de fundo. Você pode ver objetos anormalmente lisos ou deformados, ou o tamanho de uma pessoa mudar enquanto ela anda ao redor de um prédio, disse Lyu.
Tweet pode ter sido excluído
Kamali diz para procurar “implausibilidades socioculturais” ou pistas contextuais onde a realidade da situação não parece plausível. “Você não vê imediatamente as histórias, mas sente que algo está errado – como uma imagem de Biden e Obama vestindo ternos rosa”, ou o Pope com jaqueta Balenciaga.
Deixando de lado as pistas de contexto, a existência de artefatos provavelmente diminuirá em breve. E Wall Street está disposta a apostar bilhões de dólares nisso. (Dito isto, o capitalismo de risco não é realmente conhecido para avaliações a preços razoáveis de startups de tecnologia com base em evidências sólidas de lucratividade.)
Os artefatos podem mudar, mas o bom senso permanece.
Como Farid disse ao Mashable: “Venha falar comigo em seis meses e a história terá mudado”. Portanto, confiar em certas dicas para verificar se um vídeo é gerado por IA pode causar problemas.
O artigo de Lyu de 2018 sobre a detecção de vídeos gerados por IA porque os sujeitos não piscaram corretamente foi amplamente divulgado na comunidade de IA. Como resultado, as pessoas começaram a procurar defeitos no piscar dos olhos, mas à medida que a tecnologia avançava, o mesmo acontecia com piscadelas mais naturais. “As pessoas começaram a pensar que se há um piscar de olhos bem, não deve ser um deepfake e esse é o perigo”, disse Lyu. “Na verdade, queremos aumentar a conscientização, mas não nos apegarmos a artefatos específicos, porque os artefatos serão alterados.”
Construir a consciência de que algo poder ser gerado por IA “desencadeará toda uma sequência de ações”, disse Lyu. “Verifique, quem está compartilhando isso? Esta pessoa é confiável? Existem outras fontes correlacionadas à mesma história, e isso foi verificado por algum outro meio? Acho que essas são as medidas mais eficazes para combater deepfakes.”
Tweet pode ter sido excluído
Para Farid, a identificação de vídeos gerados por IA e deepfakes enganosos começa com a fonte de suas informações. Pegue o Imagens geradas por IA que circulou nas redes sociais após o furacão Helene e o furacão Milton. A maioria deles eram obviamente falsos, mas ainda tinham um efeito emocional nas pessoas. “Mesmo quando essas coisas não são muito boas, não significa que não penetrem, não significa que não tenham impacto na maneira como as pessoas absorvem informações”, disse ele.
Tweet pode ter sido excluído
Tenha cuidado ao receber notícias nas redes sociais. “Se a imagem parece clickbait, é clickbait”, disse Farid antes de acrescentar que tudo se resume à alfabetização midiática. Pense em quem postou o vídeo e por que ele foi criado. “Você não pode simplesmente olhar algo no Twitter e pensar: ‘Oh, isso deve ser verdade, deixe-me compartilhar'”.
Se você suspeitar de conteúdo gerado por IA, verifique outras fontes para ver se elas também o estão compartilhando e se tudo parece igual. Como diz Lyu, “um deepfake só parece real de um ângulo”. Procure outros ângulos da instância em questão. Farid recomenda sites como Snopes e Politifact, que desmascaram a desinformação e a desinformação. À medida que todos nós continuamos a navegar no cenário de IA em rápida mudança, será crucial fazer o trabalho – e confiar em seu instinto.
Tópicos
Inteligência artificial