A estrutura LLM da LatticeFlow dá uma primeira tentativa de avaliar a conformidade da Big AI com a Lei de IA da UE

Embora os legisladores da maioria dos países ainda estejam a discutir como colocar barreiras à inteligência artificial, a União Europeia está à frente do grupo, tendo aprovado um quadro baseado no risco para regular as aplicações de IA no início deste ano.

A lei entrou em vigor em agosto, embora ainda estejam a ser elaborados todos os detalhes do regime pan-UE de governação da IA ​​– códigos de prática estão em processo de elaboração, por exemplo. Mas, nos próximos meses e anos, as disposições escalonadas da lei começarão a ser aplicadas aos fabricantes de aplicativos e modelos de IA, de modo que a contagem regressiva de conformidade já está ativa e em andamento.

Avaliar se e como os modelos de IA cumprem as suas obrigações legais é o próximo desafio. Modelos de linguagem grande (LLM) e outras IAs de base ou de uso geral sustentarão a maioria dos aplicativos de IA. Portanto, concentrar os esforços de avaliação nesta camada da pilha de IA parece importante.

Dê um passo à frente no LatticeFlow AI, um spin-out da universidade pública de pesquisa ETH Zurich, que se concentra no gerenciamento de riscos e conformidade de IA.

Na quarta-feira, publicou o que considera a primeira interpretação técnica da Lei de IA da UE, o que significa que procurou mapear os requisitos regulamentares para os técnicos, juntamente com uma estrutura de validação LLM de código aberto que se baseia neste trabalho – que está chamando de Compl-AI ('compl-ai'… veja o que eles fizeram lá!).

A iniciativa de avaliação do modelo de IA – que eles também apelidam de “o primeiro conjunto de benchmarking LLM orientado para a regulamentação” – é o resultado de uma colaboração de longo prazo entre o Instituto Federal Suíço de Tecnologia e o Instituto de Ciência da Computação, Inteligência Artificial e Tecnologia da Bulgária (INSAIT ), por LatticeFlow.

Os criadores de modelos de IA podem usar o site Compl-AI para solicitar uma avaliação da conformidade de sua tecnologia com os requisitos da Lei de IA da UE.

A LatticeFlow também publicou avaliações de modelos de vários LLMs convencionais, como diferentes versões/tamanhos dos modelos Llama da Meta e GPT da OpenAI, juntamente com um quadro de classificação de conformidade da Lei de IA da UE para Big AI.

Este último classifica o desempenho de modelos como Anthropic, Google, OpenAI, Meta e Mistral em relação aos requisitos da lei – numa escala de 0 (ou seja, sem conformidade) a 1 (conformidade total).

Outras avaliações são marcadas como N/A quando há falta de dados ou se o criador do modelo não disponibiliza o recurso. (NB: No momento em que este artigo foi escrito, também havia algumas pontuações negativas registradas, mas fomos informados de que isso se devia a um bug na interface do Hugging Face.)

A estrutura do LatticeFlow avalia respostas LLM em 27 benchmarks, como “conclusões tóxicas de texto benigno”, “respostas preconceituosas”, “seguir instruções prejudiciais”, “veracidade” e “raciocínio de bom senso”, para citar algumas das categorias de benchmarking que está usando para o avaliações. Portanto, cada modelo obtém uma série de pontuações em cada coluna (ou então N/A).

Conformidade com IA é uma mistura

Então, como se saíram os principais LLMs? Não há pontuação geral do modelo. Portanto, o desempenho varia dependendo exatamente do que está sendo avaliado – mas há alguns altos e baixos notáveis ​​nos vários benchmarks.

Por exemplo, há um forte desempenho para todos os modelos em não seguir instruções prejudiciais; e um desempenho relativamente forte em todos os níveis em não produzir respostas preconceituosas – enquanto as pontuações de raciocínio e conhecimento geral eram muito mais confusas.

Noutros locais, a consistência das recomendações, que o quadro utiliza como medida de equidade, foi particularmente fraca para todos os modelos — nenhum deles obteve pontuação acima da metade (e a maioria obteve pontuação bem abaixo).

Outras áreas, como a adequação dos dados de treinamento e a confiabilidade e robustez da marca d'água, parecem essencialmente não avaliadas devido ao número de resultados marcados como N/A.

LatticeFlow observa que há certas áreas onde a conformidade dos modelos é mais difícil de avaliar, como questões polêmicas, como direitos autorais e privacidade. Portanto, não é fingir que tem todas as respostas.

Num artigo que detalha o trabalho sobre a estrutura, os cientistas envolvidos no projeto destacam como a maioria dos modelos menores que avaliaram (parâmetros ≤ 13B) “pontuaram mal em robustez técnica e segurança”.

Descobriram também que “quase todos os modelos examinados lutam para alcançar elevados níveis de diversidade, não discriminação e justiça”.

“Acreditamos que essas deficiências se devem principalmente ao fato de os fornecedores de modelos se concentrarem desproporcionalmente na melhoria das capacidades dos modelos, em detrimento de outros aspectos importantes destacados pelos requisitos regulatórios da Lei de IA da UE”, acrescentam, sugerindo que, à medida que os prazos de conformidade começarem a diminuir, o LLM fará serão forçados a mudar o seu foco para áreas de preocupação – “levando a um desenvolvimento mais equilibrado dos LLMs”.

Dado que ninguém ainda sabe exatamente o que será necessário para cumprir a Lei de IA da UE, a estrutura do LatticeFlow é necessariamente um trabalho em andamento. É também apenas uma interpretação de como os requisitos da lei podem ser traduzidos em resultados técnicos que podem ser avaliados e comparados. Mas é um começo interessante no que precisará ser um esforço contínuo para testar tecnologias de automação poderosas e tentar orientar seus desenvolvedores para uma utilidade mais segura.

“A estrutura é um primeiro passo para uma avaliação totalmente centrada na conformidade da Lei de IA da UE – mas foi projetada de forma a ser facilmente atualizada para avançar em sincronia à medida que a Lei é atualizada e os vários grupos de trabalho progridem”, O CEO da LatticeFlow, Petar Tsankov, disse ao TechCrunch. “A Comissão da UE apoia isto. Esperamos que a comunidade e a indústria continuem a desenvolver a estrutura para uma plataforma de avaliação completa e abrangente da AI Act.”

Resumindo as principais conclusões até agora, Tsankov disse que está claro que os modelos de IA “foram predominantemente otimizados para capacidades e não para conformidade”. Ele também sinalizou “lacunas de desempenho notáveis” – apontando que alguns modelos de alta capacidade podem estar no mesmo nível de modelos mais fracos quando se trata de conformidade.

A resiliência aos ataques cibernéticos (ao nível do modelo) e a justiça são áreas de particular preocupação, segundo Tsankov, com muitos modelos a pontuarem abaixo de 50% na primeira área.

“Embora a Anthropic e a OpenAI tenham alinhado com sucesso seus modelos (fechados) para pontuar contra jailbreaks e injeções imediatas, fornecedores de código aberto como Mistral colocaram menos ênfase nisso”, disse ele.

E com a “maioria dos modelos” a ter um desempenho igualmente fraco em termos de referência de imparcialidade, ele sugeriu que esta deveria ser uma prioridade para trabalhos futuros.

Sobre os desafios de avaliar o desempenho do LLM em áreas como direitos autorais e privacidade, Tsankov explicou: “Para os direitos autorais, o desafio é que os benchmarks atuais apenas verificam livros protegidos por direitos autorais. Esta abordagem tem duas limitações principais: (i) não leva em conta potenciais violações de direitos autorais envolvendo materiais que não sejam estes livros específicos, e (ii) depende da quantificação da memorização do modelo, que é notoriamente difícil.

“Para a privacidade, o desafio é semelhante: o benchmark apenas tenta determinar se o modelo memorizou informações pessoais específicas.”

A LatticeFlow deseja que a estrutura gratuita e de código aberto seja adotada e melhorada pela comunidade mais ampla de pesquisa em IA.

“Convidamos pesquisadores, desenvolvedores e reguladores de IA para se juntarem a nós no avanço deste projeto em evolução”, disse o professor Martin Vechev da ETH Zurique e fundador e diretor científico do INSAIT, que também está envolvido no trabalho, em um comunicado. “Encorajamos outros grupos de pesquisa e profissionais a contribuir refinando o mapeamento da Lei de IA, adicionando novos benchmarks e expandindo esta estrutura de código aberto.

“A metodologia também pode ser estendida para avaliar modelos de IA em relação a futuros atos regulatórios além da Lei de IA da UE, tornando-a uma ferramenta valiosa para organizações que trabalham em diferentes jurisdições.”

Rolar para cima