Depois que Meta recentemente reacendeu planos controversos de usar as postagens públicas dos usuários do Facebook e Instagram como material de treinamento de IA, a gigante das redes sociais deu o próximo passo e começou a notificar os usuários locais de que em breve começará a se ajudar com suas informações novamente.
A má notícia é que o processo que Meta desenvolveu para cancelar essa captura de dados para IA é quase tão oneroso quanto da primeira vez.
Continue lendo para obter uma análise das últimas mudanças e detalhes sobre como se opor…
‘Estamos planejando novos recursos de IA para você…’
A empresa começou a enviar notificações sobre a captura iminente de dados na semana passada e, assim como da última vez, a mensagem que Meta exibe informando aos usuários sobre o uso planejado de suas informações é postada junto com outros alertas de usuários, como solicitações de amizade e atualizações de grupo, tornando-o fácil de perder. (Em comparação, quando o Facebook solicita aos usuários que votem em uma eleição, por exemplo, a mensagem é colocada com destaque no topo do feed.)
A formulação da notificação também implica que os usuários não têm escolha, com Meta apenas divulgando “novos recursos de IA para você” e escrevendo que os usuários podem: “Aprenda como usamos suas informações”. Em vez de informar explicitamente as pessoas, elas têm a opção de negar o processamento.
Além disso, mesmo que o usuário detecte a notificação, o processo de objeção não é simples; eles devem realizar vários cliques e rolagens apenas para registrar uma objeção. A Meta também afirma que fica a seu critério honrar ou não, o que poderia dissuadir ainda mais os usuários de se esforçarem para apresentar uma objeção.
‘Interesse legítimo’
A Meta já faz algum tempo que se utiliza de conteúdo gerado pelo usuário para treinar sua IA em muitos mercados. Mas o quadro abrangente de protecção de dados da Europa, também conhecido como GDPR, criou problemas para o gigante das redes sociais (e outros gigantes da tecnologia) fazerem o mesmo em toda a região.
O argumento da Meta é que precisa de conteúdos locais gerados pelos utilizadores para melhorar os seus grandes modelos linguísticos, incluindo publicações públicas nas redes sociais, comentários, interações, fotos e muito mais – e afirma que esse acesso a ajudará a refletir melhor a diversidade da população europeia. No entanto, o GDPR exige que tenha uma base legal válida para processar informações de pessoas para treinar IAs.
Em junho, a Meta foi forçada a suspender os seus planos de utilizar dados dos europeus para formação em IA, após objeções dos reguladores da União Europeia e do Reino Unido. Os vigilantes ficaram descontentes com o facto de as pessoas terem sido solicitadas a optar por não participar, em vez de concordarem afirmativamente, com esta nova utilização dos seus dados.
A Meta disse que se baseia em uma disposição legal do GDPR chamada “interesses legítimos” (LI) – o que sugere que justifica não obter primeiro o consentimento das pessoas. Mas a utilização da mesma base jurídica para o tratamento de dados pessoais para o seu negócio de publicidade microdirecionada foi anulada pelo Tribunal de Justiça da União Europeia numa decisão de julho de 2023. Especialistas em privacidade argumentam que a LI é igualmente inadequada para o Meta coletar dados de pessoas para treinar IAs.
Dado que os negócios da Meta no Reino Unido estão agora fora da jurisdição da UE, a empresa – no entanto – avançou com os seus esforços de formação em dados no Reino Unido, fazendo apenas pequenas alterações no processo de exclusão que oferece aos utilizadores locais. Isso foi feito apesar de as regras nacionais de proteção de dados do Reino Unido ainda se basearem no GDPR da UE. Também não processa atualmente dados de utilizadores da UE para formação de IA.
Objeção, meritíssimo
Um grande ponto de discórdia para os usuários do Reino Unido é que o Meta não está facilitando para as pessoas se oporem a que suas postagens se tornem material de treinamento de IA.
É verdade que o processo revisado de opt-out do Meta requer um pouco menos cliques do que o anterior, que gerou objeções do Gabinete do Comissário de Informação (ICO) do Reino Unido. Também há menos linguagem corporativa para as pessoas analisarem, em comparação com antes. Mas o processo de pedir a exclusão ainda é muito mais oneroso do que deveria ser.
Veja como desativar o Meta usando seus dados do Facebook e Instagram para treinar sua IA
A questão principal também não mudou: o Meta está apenas oferecendo aos usuários uma opção de exclusão, em vez de dar-lhes a livre escolha sobre o uso de seus dados para treinamento de IA. Se isso acontecesse, os usuários precisariam “aceitar” afirmativamente antes que pudessem usar suas informações e esse ainda não é o caso aqui. A menos que o usuário se oponha, o Meta usará suas informações para treinar sua IA – presumindo que ele honre a objeção.
Então, como você se opõe? Assim que o usuário clica na notificação do Meta (supondo que a veja), ele é levado a uma página que o informa sobre os planos do Meta e também informa que tem o “direito de se opor” ao uso de suas informações.
“Se sua objeção for atendida, a partir de então, não usaremos suas informações públicas do Facebook e Instagram para desenvolver e melhorar modelos de IA generativos para nossos recursos e experiências de IA no Meta”, afirma a notificação.
Se o usuário desejar se opor, ele deverá clicar no hiperlink da palavra “objeto” e será levado a um formulário para preencher.
O formulário é pré-preenchido com o endereço de e-mail associado à conta do usuário. Uma mudança notável aqui em relação ao último opt-out do Meta é que uma caixa pedindo ao usuário para explicar como o processamento de dados do Meta os afeta foi marcada como “opcional” – enquanto quando o Meta tentou implementar isso há alguns meses, o usuário foi obrigado para escrever algo.
Apesar de alguns ajustes, o processo revisado que a Meta projetou ainda não está em conformidade com um opt-out estrito – embora a Meta tenha afirmado publicamente que honrará todas as objeções, o texto ao longo do processo afirma que fica a critério da Meta.
Questionado sobre isso, o porta-voz da Meta, gerente de comunicações políticas Matt Pollard, disse em um e-mail que a linguagem em torno de toda a parte “se a objeção for honrada” se deve à exigência de que os usuários enviem um endereço de e-mail válido conectado à sua conta.
No entanto, o usuário precisa estar conectado à sua conta do Facebook para enviar o formulário, e o campo de endereço de e-mail é pré-preenchido com o endereço de e-mail vinculado do usuário, portanto não está claro como um endereço de e-mail inválido seria enviado, a menos que o o usuário deveria editar manualmente o endereço de e-mail que já está lá.
“Não há nenhuma ambigüidade aqui, é muito simples – honraremos todos os formulários de objeção recebidos”, acrescentou Pollard.
‘Tratamento ilegal’?
Na sequência do processo de notificação revisto do Meta, alguns especialistas jurídicos recorreram às redes sociais para argumentar que este poderia não ser compatível com vários aspectos do GDPR. Na verdade, a Dra. Jennifer Cobbe, professora assistente de direito e tecnologia no Queens’ College, em Cambridge, argumentou que isto equivalia a “processamento ilegal”.
Uma questão jurídica que ela destaca é que, de acordo com o GDPR do Reino Unido, os chamados “dados de categoria especial” requerem proteção extra devido à sua sensibilidade. Isto é importante porque características sensíveis — como origem racial ou étnica de uma pessoa, opiniões políticas, crenças, informações sobre saúde, orientação sexual e muito mais — podem ser facilmente transmitidas publicamente a amigos no Facebook. E o Artigo 9 do GDPR afirma explicitamente que o titular dos dados (ou seja, um usuário do Facebook) deve dar consentimento explícito para que dados de categorias especiais sejam processados – o que significa que deve ser opt-in.
Assim, embora a Meta esteja a avançar com os seus planos de formação em dados no Reino Unido, alegando que tem um “interesse legítimo” em obter dados das pessoas, poderá enfrentar novos obstáculos no caminho se os utilizadores optarem por apresentar queixas formais ao regulador.
Questionado se a abordagem revisada da Meta para processar dados de pessoas para IA atende aos padrões, o ICO apontou o TechCrunch para sua declaração anterior, emitida há três semanas. Nele, Stephen Almond, seu diretor executivo de risco regulatório, disse que iria “monitorar a situação à medida que a Meta se move para informar os usuários do Reino Unido e iniciar o processamento nas próximas semanas”. Portanto, se um número suficiente de usuários levantar suspeitas, a OIC poderá ser forçada a agir.
Na época, Almond enfatizou que a ICO não havia aprovado a abordagem da Meta, acrescentando que cabe à Meta “garantir e demonstrar conformidade contínua”.