Finalmente existe uma definição “oficial” de IA de código aberto.
A Open Source Initiative (OSI), uma instituição de longa data que visa definir e “administrar” todas as coisas de código aberto, lançou hoje a versão 1.0 de sua Definição de IA de Código Aberto (OSAID). Produto de vários anos de colaboração com a academia e a indústria, o OSAID pretende oferecer um padrão pelo qual qualquer pessoa possa determinar se a IA é de código aberto — ou não.
Você deve estar se perguntando – como este repórter – por que o consenso é importante para uma definição de IA de código aberto. Bem, uma grande motivação é colocar os legisladores e os desenvolvedores de IA na mesma página, disse o vice-presidente executivo da OSI, Stefano Maffulli.
“Os reguladores já estão de olho no espaço”, disse Maffulli ao TechCrunch, observando que órgãos como a Comissão Europeia têm procurado dar reconhecimento especial ao código aberto. “Fizemos uma divulgação explícita a um conjunto diversificado de partes interessadas e comunidades – não apenas aos suspeitos habituais da tecnologia. Até tentamos entrar em contato com as organizações que conversam com mais frequência com os reguladores para obter feedback antecipado.”
IA aberta
Para ser considerado de código aberto sob a OSAID, um modelo de IA deve fornecer informações suficientes sobre seu design para que uma pessoa possa recriá-lo “substancialmente”. O modelo também deve divulgar quaisquer detalhes pertinentes sobre seus dados de treinamento, incluindo a procedência, como os dados foram processados e como podem ser obtidos ou licenciados.
“Uma IA de código aberto é um modelo de IA que permite entender completamente como foi construída”, disse Maffulli. “Isso significa que você tem acesso a todos os componentes, como o código completo usado para treinamento e filtragem de dados.”
O OSAID também estabelece os direitos de uso que os desenvolvedores devem esperar da IA de código aberto, como a liberdade de usar o modelo para qualquer finalidade e modificá-lo sem precisar pedir permissão a ninguém. “Mais importante ainda, você deve ser capaz de construir a partir de cima”, acrescentou Maffulli.
O OSI não possui mecanismos de fiscalização dignos de nota. Não pode pressionar os desenvolvedores a respeitar ou seguir o OSAID. Mas pretende sinalizar modelos descritos como “código aberto”, mas que ficam aquém da definição.
“Nossa esperança é que quando alguém tentar abusar do termo, a comunidade de IA diga: ‘Não reconhecemos isso como código aberto’, e isso seja corrigido”, disse Maffulli. Historicamente, isto teve resultados mistos, mas não é totalmente sem efeito.
Muitas startups e grandes empresas de tecnologia, principalmente a Meta, empregaram o termo “código aberto” para descrever suas estratégias de lançamento de modelos de IA – mas poucas atendem aos critérios da OSAID. Por exemplo, a Meta exige que plataformas com mais de 700 milhões de usuários ativos mensais solicitem uma licença especial para usar seus modelos Llama.
Maffulli criticou abertamente a decisão da Meta de chamar seus modelos de “código aberto”. Após discussões com o OSI, Google e Microsoft concordaram em abandonar o uso do termo para modelos que não são totalmente abertos, mas o Meta não o fez, disse ele.
A Stability AI, que há muito anuncia seus modelos como “abertos”, exige que as empresas que faturam mais de US$ 1 milhão obtenham uma licença empresarial. E a licença da Mistral, iniciante francês em IA, proíbe o uso de certos modelos e resultados para empreendimentos comerciais.
Um estudo realizado em agosto passado por pesquisadores da Signal Foundation, da organização sem fins lucrativos AI Now Institute e da Carnegie Mellon descobriu que muitos modelos de “código aberto” são basicamente de código aberto apenas no nome. Os dados necessários para treinar os modelos são mantidos em segredo, o poder computacional necessário para executá-los está fora do alcance de muitos desenvolvedores e as técnicas para ajustá-los são intimidantemente complexas.
Em vez de democratizar a IA, estes projetos de “código aberto” tendem a consolidar e expandir o poder centralizado, concluíram os autores do estudo. Na verdade, os modelos Lllama da Meta acumularam centenas de milhões de downloads, e a Stability afirma que seus modelos alimentam até 80% de todas as imagens geradas por IA.
Opiniões divergentes
Meta discorda desta avaliação, sem surpresa – e discorda da OSAID tal como foi escrita (apesar de ter participado no processo de elaboração). Um porta-voz defendeu a licença da empresa para o Llama, argumentando que os termos – e a política de uso aceitável que os acompanha – atuam como proteção contra implantações prejudiciais.
A Meta também disse que está adotando uma “abordagem cautelosa” para compartilhar detalhes do modelo, incluindo detalhes sobre dados de treinamento, à medida que regulamentações como a lei de transparência de treinamento da Califórnia evoluem.
“Concordamos com nosso parceiro OSI em muitas coisas, mas nós, como outros na indústria, discordamos de sua nova definição”, disse o porta-voz. “Não existe uma definição única de IA de código aberto, e defini-la é um desafio porque as definições anteriores de código aberto não abrangem as complexidades dos atuais modelos de IA em rápido avanço. Tornamos o Llama gratuito e disponível abertamente, e nossa política de licença e uso aceitável ajuda a manter as pessoas seguras ao ter algumas restrições em vigor. Continuaremos trabalhando com o OSI e outros grupos da indústria para tornar a IA mais acessível e gratuita de forma responsável, independentemente das definições técnicas.”’
O porta-voz apontou outros esforços para codificar a IA de “código aberto”, como as definições sugeridas pela Linux Foundation, os critérios da Free Software Foundation para “aplicativos gratuitos de aprendizado de máquina” e propostas de outros pesquisadores de IA.
A Meta, incongruentemente, é uma das empresas que financia o trabalho do OSI – juntamente com gigantes da tecnologia como Amazon, Google, Microsoft, Cisco, Intel e Salesforce. (A OSI obteve recentemente uma doação da Fundação Sloan, sem fins lucrativos, para diminuir a sua dependência de patrocinadores da indústria tecnológica.)
A relutância da Meta em revelar dados de treinamento provavelmente tem a ver com a forma como seus – e a maioria – dos modelos de IA são desenvolvidos.
As empresas de IA extraem grandes quantidades de imagens, áudio, vídeos e muito mais de mídias sociais e sites, e treinam seus modelos com base nesses “dados disponíveis publicamente”, como geralmente são chamados. No mercado acirrado de hoje, os métodos de uma empresa para montar e refinar conjuntos de dados são considerados uma vantagem competitiva, e as empresas citam isso como um dos principais motivos para sua não divulgação.
Mas os detalhes dos dados de treinamento também podem representar um alvo legal nas costas dos desenvolvedores. Autores e editores afirmam que Meta usou livros protegidos por direitos autorais para treinamento. Artistas entraram com ações contra Stability por copiar seu trabalho e reproduzi-lo sem crédito, um ato que eles comparam a roubo.
Não é difícil ver como a OSAID pode ser problemática para as empresas que tentam resolver processos judiciais de forma favorável, especialmente se os demandantes e os juízes considerarem a definição suficientemente convincente para ser utilizada em tribunal.
Perguntas abertas
Alguns sugerem que a definição não vai suficientemente longe, por exemplo, na forma como trata do licenciamento de dados de formação proprietários. Luca Antiga, CEO da Lightning AI, destaca que um modelo pode atender a todos os requisitos do OSAID apesar de os dados utilizados para treiná-lo não estarem disponíveis gratuitamente. É “aberto” se você tiver que pagar milhares para inspecionar os armazenamentos privados de imagens que os criadores de uma modelo pagaram para licenciar?
“Para ter valor prático, especialmente para as empresas, qualquer definição de IA de código aberto precisa dar confiança razoável de que o que está sendo licenciado pode ser licenciado de acordo com a forma como uma organização o utiliza”, disse Antiga ao TechCrunch. “Ao negligenciar o licenciamento de dados de treinamento, o OSI está deixando uma lacuna que tornará os termos menos eficazes na determinação se os modelos de IA licenciados pelo OSI podem ser adotados em situações do mundo real.”
Na versão 1.0 do OSAID, o OSI também não aborda os direitos autorais no que se refere aos modelos de IA, e se a concessão de uma licença de direitos autorais seria suficiente para garantir que um modelo satisfaça a definição de código aberto. Ainda não está claro se os modelos — ou componentes de modelos — pode ser protegido por direitos autorais sob a atual lei de PI. Mas se os tribunais decidirem que sim, o OSI sugere que podem ser necessários novos “instrumentos jurídicos” para abrir adequadamente modelos protegidos por IP de código-fonte.
Maffulli concordou que a definição necessitará de atualizações – talvez mais cedo ou mais tarde. Para tanto, o OSI criou um comitê que será responsável por monitorar a forma como o OSAID é aplicado e propor alterações para versões futuras.
“Este não é o trabalho de gênios solitários em um porão”, disse ele. “É um trabalho que está sendo feito abertamente com amplas partes interessadas e diferentes grupos de interesse.”