As leis dos EUA que regulam a IA são ilusórias, mas pode haver esperança

Tempo de leitura: 3 minutos

Os EUA podem regular significativamente a IA? Ainda não está nada claro. Os decisores políticos alcançaram progressos nos últimos meses, mas também tiveram retrocessos, ilustrando a natureza desafiante das leis que impõem protecções à tecnologia.

Em março, o Tennessee se tornou o primeiro estado a proteger os dubladores da clonagem não autorizada de IA. Neste verão, o Colorado adotou uma abordagem escalonada e baseada no risco para a política de IA. E em setembro, o governador da Califórnia, Gavin Newsom, assinou dezenas de projetos de lei de segurança relacionados com a IA, alguns dos quais exigem que as empresas divulguem detalhes sobre a sua formação em IA.

Mas os EUA ainda carecem de uma política federal de IA comparável à Lei de IA da UE. Mesmo a nível estatal, a regulamentação continua a encontrar grandes obstáculos.

Após uma prolongada batalha com interesses especiais, o governador Newsom vetou o projeto de lei SB 1047, uma lei que teria imposto amplos requisitos de segurança e transparência às empresas que desenvolvem IA. Outro projeto de lei da Califórnia visando os distribuidores de deepfakes de IA nas redes sociais foi suspenso neste outono, enquanto se aguarda o resultado de um processo judicial.

Há motivos para otimismo, no entanto, de acordo com Jessica Newman, codiretora do AI Policy Hub da UC Berkeley. Falando em um painel sobre governança de IA no TechCrunch Disrupt 2024, Newman observou que muitos projetos de lei federais podem não ter sido escritos com a IA em mente, mas ainda se aplicam à IA – como legislação antidiscriminação e de proteção ao consumidor.

“Ouvimos frequentemente que os EUA são uma espécie de ‘Velho Oeste’ em comparação com o que acontece na UE”, disse Newman, “mas penso que isso é exagerado e a realidade é mais matizada do que isso”.

Para Newman, a Comissão Federal do Comércio forçou as empresas que recolhem dados sub-repticiamente a eliminar os seus modelos de IA e está a investigar se as vendas de startups de IA a grandes empresas tecnológicas violam a regulamentação antitrust. Enquanto isso, a Comissão Federal de Comunicações declarou ilegais as chamadas automáticas com voz de IA e lançou uma regra para que o conteúdo gerado por IA em publicidade política seja divulgado.

O presidente Joe Biden também tentou estabelecer certas regras de IA. Há cerca de um ano, Biden assinou a Ordem Executiva de IA, que apoia os relatórios voluntários e as práticas de benchmarking que muitas empresas de IA já estavam optando por implementar.

Uma consequência da ordem executiva foi o US AI Safety Institute (AISI), um órgão federal que estuda riscos em sistemas de IA. Operando dentro do Instituto Nacional de Padrões e Tecnologia, o AISI tem parcerias de pesquisa com grandes laboratórios de IA como OpenAI e Anthropic.

No entanto, o AISI poderia ser extinto com uma simples revogação da ordem executiva de Biden. Em Outubro, uma coligação de mais de 60 organizações apelou ao Congresso para aprovar legislação que codificasse o AISI antes do final do ano.

“Penso que todos nós, como americanos, partilhamos o interesse em garantir que mitigamos as potenciais desvantagens da tecnologia”, disse a diretora da AISI, Elizabeth Kelly, que também participou no painel.

Então, há esperança de uma regulamentação abrangente da IA ​​nos Estados Unidos? O fracasso do SB 1047, que Newman descreveu como um projeto de lei “leve” com contribuições da indústria, não é exatamente encorajador. De autoria do senador estadual da Califórnia, Scott Wiener, o SB 1047 foi contestado por muitos no Vale do Silício, incluindo tecnólogos de alto nível, como o cientista-chefe de IA da Meta, Yann LeCun.

Sendo este o caso, Wiener, outro membro do painel do Disrupt, disse que não teria redigido o projeto de forma diferente – e está confiante de que a ampla regulamentação da IA ​​acabará por prevalecer.

“Acho que preparou o terreno para esforços futuros”, disse ele. “Esperamos poder fazer algo que reúna mais pessoas, porque a realidade que todos os grandes laboratórios já reconheceram é que os riscos (da IA) são reais e queremos testá-los.”

Na verdade, a Anthropic alertou na semana passada sobre a catástrofe da IA ​​se os governos não implementarem regulamentação nos próximos 18 meses.

Os oponentes apenas redobraram sua retórica. Na segunda-feira passada, o fundador da Khosla Ventures, Vinod Khosla, chamou Wiener de “totalmente sem noção” e “não qualificado” para regular os perigos reais da IA. E a Microsoft e a Andreessen Horowitz divulgaram uma declaração manifestando-se contra as regulamentações de IA que possam afetar os seus interesses financeiros.

Newman postula, no entanto, que a pressão para unificar a crescente colcha de retalhos de regras de IA, estado por estado, acabará por produzir uma solução legislativa mais forte. Em vez de consenso sobre um modelo de regulamentação, os decisores políticos estaduais introduziram perto de 700 peças legislativas sobre IA só este ano.

“Minha sensação é que as empresas não querem um ambiente de sistema regulatório de retalhos onde cada estado é diferente”, disse ela, “e acho que haverá uma pressão crescente para ter algo no nível federal que forneça mais clareza e reduza alguns dessa incerteza.”

Rolar para cima
Pular para o conteúdo