No momento em que você pode pedir à IA para modificar uma foto existente da maneira que desejar, ou até mesmo pedir para ela gerar uma imagem completamente artificial, será que algum dia poderemos confiar nas fotos novamente?
A Apple está trabalhando para resolver o problema de duas maneiras, e muitos de nós esperamos que ela também se junte a um novo padrão emergente de autenticidade de conteúdo…
Este não é um problema novo
Se podemos confiar na veracidade de uma foto, é claro, não é um problema novo. Um fotógrafo sempre foi capaz de influenciar a nossa visão da realidade simplesmente escolhendo o que incluir ou excluir do enquadramento.
A escolha da lente pode distorcer a mesma visão de diferentes maneiras, por exemplo, fazendo com que as coisas pareçam mais próximas ou mais distantes. Ajustar a exposição pode fazer com que as coisas pareçam mais escuras ou mais claras. A escolha do filme ou filtro pode afetar a percepção das cores. Uma longa exposição pode ser usada para remover quaisquer sinais de pessoas andando pela cena. E assim por diante.
Depois houve a câmara escura. Coisas como mascarar, queimar e esquivar podem mudar drasticamente a aparência de uma cena. O software convencional de edição de fotos simplesmente ampliou a gama de ajustes que poderiam ser feitos.
A edição e criação de fotos com IA é apenas a mais recente em uma longa linha de maneiras pelas quais as fotos podem ser usadas para nos influenciar ou até mesmo nos enganar completamente.
Mas a IA torna isso um problema maior
Anteriormente, a edição de fotos exigia pelo menos algum grau de habilidade, portanto, criar uma imagem convincentemente enganosa não era algo que pudesse ser feito por qualquer pessoa.
Agora, qualquer um pode fazer isso, e em segundos. A imagem falsa acima é, obviamente, deliberadamente incontroversa, mas poderia facilmente ter sido algo que parecia mostrar alguém ou algo sob uma luz muito pouco lisonjeira. Todo o processo de upload de uma foto de referência para o Photoshop, criação de um prompt de texto e espera pelo resultado demorou cerca de 30 segundos.
Quando alguém consegue fazer isso em segundos e os resultados se tornam cada vez mais realistas, isso potencialmente cria enormes problemas para o futuro.
A Apple está lidando com isso de duas maneiras
Com o lançamento (gradual) do Apple Intelligence, a empresa poderia potencialmente piorar o problema, colocando ferramentas de criação de imagens de IA nas mãos de mais milhões de pessoas. Mas a empresa está muito consciente dos perigos e toma dois cuidados.
Primeiro, o Image Playground – que permite aos proprietários de iPhone criar imagens completamente imaginárias a partir de descrições de texto – exclui deliberadamente resultados fotorrealistas.
O Image Playground suporta três estilos: Animação, Ilustração, Esboço (…) É digno de nota que todas as imagens demonstradas para o Image Playground são animadas ou têm um estilo irreal. Claramente, a Apple não quer fornecer ferramentas para criar fotos falsas com aparência realista.
Em segundo lugar, quando você usa ferramentas de IA para manipular fotos reais, a Apple marca esse fato. Isso foi algo que Craig Federighi falou em seu WSJ entrevista.
A fotografia tem uma grande história e como as pessoas veem o conteúdo fotográfico como algo em que podem confiar, como um indicativo da realidade. Nossos produtos, nossos telefones, são muito usados e é importante para nós ajudarmos a fornecer informações precisas e não fantasiosas.
Garantimos que, mesmo que você remova um pequeno detalhe de uma foto (como uma garrafa de água), atualizamos os metadados da foto para que alguém possa voltar e verificar se se trata de uma foto alterada.
A Iniciativa de Autenticidade de Conteúdo
Até agora, a Apple está seguindo seu próprio caminho com suas atualizações de metadados, mas a abordagem subjacente é apoiada por muitas empresas e organizações de notícias por meio de algo conhecido como Content Authenticity Initiative (CAI).
A ideia é garantir que quaisquer criações e edições de IA sejam refletidas nos metadados da imagem de uma forma padrão que possa ser detectada e sinalizada.
As credenciais de conteúdo ajudam você a registrar e exibir os detalhes mais importantes sobre um conteúdo em cada etapa de seu ciclo de vida.
Criação: Mostrar ferramentas de suporte a Al, software, câmeras digitais e outros
dispositivos usados na criação de conteúdo.Edição e Al generativo: Qualquer alteração pode ser gravada – corte, adição e exclusão, modificações de Al e muito mais.
Publicação: os consumidores podem acessar facilmente a criação de credenciais de conteúdo.
e editar o histórico.
Os apoiadores do CAI incluem Adobe, ABC News, Associated Press, BBC, Canon, Leica, Microsoft, Nikon, The New York Times, Nvidia, Qualcomm, Reuters e Wall Street Journal.
O padrão é de código aberto, o que significa que qualquer pessoa pode adotá-lo, portanto tem boas chances de se tornar um padrão do setor. Obviamente, seria útil se a Apple garantisse que suas próprias edições de metadados estivessem em conformidade com este padrão.
Imagem: Criação de IA no Photoshop a partir de uma foto e texto do Vision Pro
FTC: Usamos links de afiliados automotivos para geração de renda. Mais.