O Google e o Meta criticaram abertamente a regulamentação europeia da inteligência artificial esta semana, sugerindo que isso anulará o potencial de inovação da região.
Representantes da empresa controladora do Facebook, juntamente com Spotify, SAP, Ericsson, Klarna e outros assinaram uma carta aberta à Europa expressando suas preocupações sobre “tomada de decisão regulatória inconsistente”.
Diz que as intervenções das Autoridades Europeias de Proteção de Dados criaram incerteza sobre quais dados elas podem usar para treinar seus modelos de IA. Os signatários estão pedindo decisões consistentes e rápidas em torno de regulamentações de dados que permitam o uso de dados europeus, semelhantes ao GDPR.
A carta também destaca que o bloco perderá os últimos modelos de IA “abertos”, que são disponibilizados gratuitamente a todos, e os modelos “multimodais”, que aceitam entrada e geram saída em texto, imagens, fala, vídeos e outros formatos.
Ao impedir a inovação nessas áreas, os reguladores estão “privando os europeus dos avanços tecnológicos desfrutados nos EUA, China e Índia”. Além disso, sem rédea solta sobre os dados europeus, os modelos “não entenderão ou refletirão o conhecimento, a cultura ou as línguas europeias”.
VEJA: Empresas buscam equilibrar inovação e ética em IA, segundo a Deloitte
“Queremos ver a Europa ter sucesso e prosperar, inclusive no campo de pesquisa e tecnologia de ponta em IA”, diz a carta. “Mas a realidade é que a Europa se tornou menos competitiva e menos inovadora em comparação a outras regiões e agora corre o risco de ficar ainda mais para trás na era da IA devido à tomada de decisões regulatórias inconsistentes.”
Google sugere que dados protegidos por direitos autorais podem ser permitidos para treinar modelos comerciais
O Google também se manifestou separadamente sobre as leis no Reino Unido que impedem que modelos de IA sejam treinados em materiais protegidos por direitos autorais.
“Se não tomarmos medidas proativas, corremos o risco de ficarmos para trás”, disse Debbie Weinstein, diretora administrativa do Google no Reino Unido, ao The Guardian.
“A questão dos direitos autorais não resolvida é um obstáculo ao desenvolvimento, e uma maneira de desbloquear isso, obviamente, da perspectiva do Google, é voltar para onde eu acho que o governo estava em 2023, que era o TDM sendo permitido para uso comercial.”
TDM, ou mineração de texto e dados, é a prática de copiar trabalho protegido por direitos autorais. Atualmente, é permitido apenas para fins não comerciais. Os planos para permitir isso para fins comerciais foram abandonados em fevereiro após serem amplamente criticados por indústrias criativas.
O Google também lançou um documento chamado “Unlocking the UK’s AI Potential” esta semana, onde faz uma série de sugestões de mudanças de política, incluindo permitir TDM comercial, criar um mecanismo financiado publicamente para recursos computacionais e lançar um serviço nacional de habilidades em IA.
VEJA: 83% das empresas do Reino Unido aumentam salários para habilidades em IA
Ele também exige uma “estrutura regulatória pró-inovação”, que tenha uma abordagem baseada em risco e específica ao contexto e seja gerenciada por reguladores públicos como a Competition and Markets Authority e o Information Commissioner’s Office, de acordo com o Guardian.
As regulamentações da UE impactaram os planos de IA das Big Techs
A UE representa um mercado enorme para as maiores empresas de tecnologia do mundo, com 448 milhões de pessoas. No entanto, a implementação do rígido AI Act e do Digital Markets Act os impediu de lançar seus mais recentes produtos de IA na região.
Em junho, a Meta atrasou o treinamento de seus grandes modelos de linguagem em conteúdo público compartilhado por adultos no Facebook e Instagram na Europa após a resistência dos reguladores irlandeses. A Meta AI, sua assistente de IA de fronteira, ainda não foi lançada dentro do bloco devido às suas regulamentações “imprevisíveis”.
A Apple também não disponibilizará seu novo conjunto de recursos de IA generativa, o Apple Intelligence, em dispositivos na UE inicialmente, citando “incertezas regulatórias trazidas pelo Digital Markets Act”, via Bloomberg.
VEJA: Apple Intelligence UE: possível lançamento do Mac em meio às regras do DMA
De acordo com uma declaração que o porta-voz da Apple, Fred Sainz, forneceu ao The Verge, a empresa está “preocupada que os requisitos de interoperabilidade do DMA possam nos forçar a comprometer a integridade de nossos produtos de maneiras que coloquem em risco a privacidade do usuário e a segurança dos dados”.
Thomas Regnier, porta-voz da Comissão Europeia, disse à TechRepublic em uma declaração por e-mail: “Todas as empresas são bem-vindas para oferecer seus serviços na Europa, desde que cumpram a legislação da UE”.
O chatbot Bard do Google foi lançado na Europa quatro meses após seu lançamento nos EUA e no Reino Unido, após preocupações com privacidade levantadas pela Comissão Irlandesa de Proteção de Dados. Acredita-se que uma resistência regulatória semelhante levou ao atraso na chegada de sua segunda iteração, Gemini, na região.
Este mês, o DPC da Irlanda lançou uma nova investigação sobre o modelo de IA do Google, PaLM 2, pois ele pode violar os regulamentos do GDPR. Especificamente, ele está investigando se o Google concluiu suficientemente uma avaliação que identificaria riscos associados à forma como ele processa os dados pessoais de europeus para treinar o modelo.
X também concordou em parar permanentemente de processar dados pessoais de postagens públicas de usuários da UE para treinar seu modelo de IA Grok. O DPC levou a empresa de Elon Musk ao Tribunal Superior Irlandês após descobrir que ela não havia aplicado medidas de mitigação, como uma opção de opt-out, até alguns meses após ter começado a coletar dados.
Muitas empresas de tecnologia têm suas sedes europeias na Irlanda, pois o país tem uma das menores taxas de imposto corporativo da UE, de 12,5%. Portanto, a autoridade de proteção de dados do país desempenha um papel fundamental na regulamentação da tecnologia em todo o bloco.
Os regulamentos de IA do próprio Reino Unido permanecem pouco claros
A posição do governo do Reino Unido sobre a regulamentação da IA tem sido mista, em parte por causa da mudança de liderança em julho. Alguns representantes também estão preocupados que o excesso de regulamentação possa afastar os maiores players de tecnologia.
Em 31 de julho, Peter Kyle, Secretário de Estado de Ciência, Inovação e Tecnologia, disse aos executivos do Google, Microsoft, Apple, Meta e outras grandes empresas de tecnologia que o próximo Projeto de Lei de IA se concentrará nos grandes modelos de base no estilo ChatGPT, criados por apenas um punhado de empresas, de acordo com o Financial Times.
Ele também os tranquilizou de que não se tornaria um “projeto de lei da árvore de Natal” onde mais regulamentações são adicionadas por meio do processo legislativo. Ele acrescentou que o projeto de lei se concentraria principalmente em tornar acordos voluntários entre empresas e o governo juridicamente vinculativos e transformar o AI Safety Institute em um “órgão governamental independente”.
Como visto com a UE, as regulamentações de IA atrasam o lançamento de novos produtos. Embora a intenção seja manter os consumidores seguros, os reguladores correm o risco de limitar seu acesso às tecnologias mais recentes, o que pode trazer benefícios tangíveis.
A Meta aproveitou a falta de regulamentação imediata no Reino Unido ao anunciar que treinará seus sistemas de IA em conteúdo público compartilhado no Facebook e no Instagram no país, o que não está fazendo atualmente na UE.
VEJA: Atrasar a implementação da IA no Reino Unido em cinco anos pode custar à economia mais de £ 150 bilhões, segundo relatório da Microsoft
Por outro lado, em agosto, o governo trabalhista arquivou £ 1,3 bilhão em financiamento que havia sido destinado à IA e inovação tecnológica pelos conservadores.
O governo do Reino Unido também indicou continuamente que planeja adotar uma abordagem rigorosa para regulamentar desenvolvedores de IA. O Discurso do Rei de julho disse que o governo “buscará estabelecer a legislação apropriada para impor requisitos àqueles que trabalham para desenvolver os modelos de inteligência artificial mais poderosos”.