RALEIGH, NC. — A Open Source Initiative (OSI) lançou Open Source AI Definition (OSAID) 1.0 em 28 de outubro de 2024, na conferência All Things Open. Criá-lo não foi fácil.
O OSI levou quase dois anos para criar e estabelecer o OSAID. Mas sem nenhuma alteração em relação ao último rascunho da OSAID, finalmente está feito. Infelizmente, nem todos estão satisfeitos com isso, e até mesmo seus criadores admitem que é um trabalho em andamento.
Além disso: OpenAI planeja oferecer ainda mais serviços aos seus 250 milhões de usuários do ChaptGPT
Por que? Carlo Piana, presidente e advogado do OSI, explicou em uma entrevista que: “Nossa compreensão coletiva do que a IA faz, do que é necessário para modificar os modelos de linguagem, é limitada agora. Quanto mais a usarmos, mais entenderemos. Agora mesmo. nossa compreensão é limitada e ainda não sabemos como será a tecnologia daqui a um ano, dois anos ou três anos.”
Ou, como disse Taylor Dolezal, chefe do ecossistema da Cloud Native Computing Foundation (CNCF), “equilibrar princípios de código aberto com complexidades de IA às vezes pode parecer como tentar resolver um cubo de Rubik com os olhos vendados”.
Quanto à razão pela qual as pessoas se opõem à nova definição, em termos gerais, existem três grupos que estão preocupados com a OSAID: pragmáticos, idealistas e líderes empresariais de fontes falsas.
Além disso: o novo curso de IA do Google ensinará você a escrever instruções mais eficazes
Para começar, você precisa entender do que se tratam os conflitos. Mark Collier, COO da OpenStack Foundation que ajudou na elaboração do OSAID, recentemente colocou isso bem em um ensaio:
Um dos maiores desafios na criação da definição de IA de código aberto é decidir como tratar os conjuntos de dados usados durante a fase de treinamento. À primeira vista, exigir que todos os conjuntos de dados brutos sejam tornados públicos pode parecer lógico.
No entanto, esta analogia entre conjuntos de dados e código-fonte é imperfeita e começa a desmoronar quanto mais você olha mais de perto. Os dados de treinamento influenciam os modelos por meio de padrões, enquanto o código-fonte fornece instruções explícitas. Os modelos de IA produzem parâmetros aprendidos (pesos), enquanto o software é compilado diretamente do código-fonte. … muitos modelos de IA são treinados em dados proprietários ou legalmente ambíguos, como conteúdo copiado da web ou conjuntos de dados confidenciais, como registros médicos.
(Portanto) quaisquer dados publicamente disponíveis utilizados para formação devem ser acessíveis, juntamente com total transparência sobre todos os conjuntos de dados utilizados e os procedimentos seguidos para a sua limpeza e rotulagem. Encontrar o equilíbrio certo nesta questão é uma das partes mais difíceis da criação da definição, especialmente com as rápidas mudanças no mercado e no panorama jurídico.
Foi assim que os pragmáticos queriam, e conseguiram, uma definição de IA de código aberto onde nem todos os dados precisassem ser abertos e compartilhados. Para os seus propósitos, basta haver “informações suficientemente detalhadas sobre os dados utilizados para treinar o sistema”, em vez do próprio conjunto de dados completo. Esta abordagem visa equilibrar a transparência com considerações práticas e jurídicas, tais como direitos de autor e dados médicos privados.
Além do OSI, organizações como a Mozilla Foundation, a OpenInfra Foundation, a Bloomberg Engineering e a SUSE endossaram o OSAID. Por exemplo, Alan Clark, do escritório CTO da SUSE, disse: “A SUSE aplaude o progresso feito pelo OSI e seu OSAID. Os esforços estão culminando em uma definição muito completa, o que é importante para o cenário de IA em rápida evolução e o papel do código aberto dentro elogiamos o processo que a OSI está utilizando para chegar à definição e à adesão às metodologias de código aberto.”
Os acadêmicos também aprovaram esta primeira versão do OSAID. Percy Liang, diretor do Centro de Pesquisa em Modelos Fundamentais da Universidade de Stanford, disse, em comunicado: “É um desafio chegar a uma definição adequada de código aberto, dadas as restrições de dados, mas estou feliz em ver que o OSI A definição da v1.0 requer pelo menos que o código completo para processamento de dados (o principal impulsionador da qualidade do modelo) seja de código aberto. O diabo está nos detalhes, então tenho certeza que teremos mais a dizer assim que tivermos informações concretas. exemplos de pessoas que tentam aplicar esta definição aos seus modelos.”
Falando nesse demônio, os idealistas se opõem veementemente à permissão de dados não abertos dentro de um modelo de IA de código aberto. Embora Piana tenha declarado: “O conselho está confiante de que o processo resultou em uma definição que atende aos padrões de Código Aberto conforme definido na Definição de Código Aberto e nas Quatro Liberdades Essenciais”, os idealistas não veem as coisas dessa forma.
Além disso: Agentic AI é a principal tendência tecnológica estratégica para 2025
Tom Callaway, principal estrategista técnico de código aberto da Amazon Web Services (AWS), resumiu bem suas objeções: “O simples fato permanece… ele permite que você construa um sistema binário de IA a partir de fontes de dados proprietárias e chame o resultado de ‘código aberto’. ,’ e isso é simplesmente errado. Prejudica todo entendimento estabelecido do que é ‘código aberto’, tudo em nome da esperança de anexar essa marca a uma ‘tenda maior’ de coisas.”
O OSI está bem ciente desses argumentos. Num painel de discussão da OSI no All Things Open, um representante da OSI disse: “Os membros das nossas comunidades estão chateados. Eles sentiram que as suas vozes não foram ouvidas como parte deste processo.” O OSI sentiu que tinha de apresentar uma definição porque estavam a ser aprovadas leis tanto nos EUA como na UE sobre IA de código aberto sem a definir. O OSI e muitos outros grupos sentiram que a questão tinha de ser abordada antes que as empresas avançassem com as suas próprias definições falsas de IA de código aberto. Olhando para o futuro, o OSI ajustará a definição para abordar as futuras mudanças na IA.
Entretanto, pelo menos um grupo, os Bens Públicos Digitais (DPG), está a atualizar o seu padrão DPG para IA para exigir dados de formação abertos para sistemas de IA. Sua proposta aparecerá no GitHub no início de novembro e estará aberta para comentários públicos por um período de revisão da comunidade de 4 semanas. Haverá mais esforços desse tipo.
Além disso: a IA poderia tornar a ciência de dados obsoleta?
As empresas de código falso têm interesse em que seus programas sejam considerados de código aberto. As leis e regulamentos para IA de código aberto são mais brandas do que aquelas para sistemas proprietários de IA. Isso significa que eles podem economizar muito dinheiro se seus produtos forem regulamentados de acordo com regras de código aberto.
Por exemplo, a licença do Meta’s Llama 3 não atinge a classificação de código aberto por vários motivos. No entanto, Meta afirmou: “Não existe uma definição única de IA de código aberto, e defini-la é um desafio porque as definições anteriores de código aberto não abrangem as complexidades dos modelos de IA de rápido avanço de hoje”. A Meta e outras grandes potências da IA, como a OpenAI, tentarão fazer com que os governos reconheçam as suas definições autodefinidas. Espero que eles apresentem uma definição de IA de fonte falsa para cobrir seus produtos e serviços proprietários.
O que tudo isto significa, do meu ponto de vista, é que embora a OSAID tenha um padrão que muitos grupos irão observar, os conflitos sobre o que realmente é IA de código aberto apenas começaram. Não vejo nenhuma solução para o conflito nos próximos anos.
Agora, a maioria dos usuários de IA não se importará. Eles só querem ajuda com o dever de casa ou para escrever fanfics de Star Wars e facilitar seu trabalho. É uma história totalmente diferente para empresas e agências governamentais. Para eles, a IA de código aberto é vital tanto para fins comerciais como de desenvolvimento.