As ferramentas e técnicas de IA estão se expandindo rapidamente no software, à medida que as organizações buscam simplificar grandes modelos de linguagem para aplicações práticas, de acordo com um relatório recente da consultoria tecnológica Thoughtworks. Contudo, o uso indevido destas ferramentas ainda pode representar desafios para as empresas.
No mais recente Technology Radar da empresa, 40% das 105 ferramentas, técnicas, plataformas, linguagens e estruturas identificadas e rotuladas como “interessantes” eram relacionadas à IA.
Sarah Taraporewalla lidera a prática de Modernização Empresarial, Plataformas e Nuvem (EMPC) da Thoughtworks Australia na Austrália. Em uma entrevista exclusiva ao TechRepublic, ela explicou que as ferramentas e técnicas de IA estão se mostrando além do hype da IA que existe no mercado.
“Para entrar no Radar Tecnológico, nossas próprias equipes precisam utilizá-lo, para que possamos ter uma opinião sobre se será eficaz ou não”, explicou ela. “O que estamos vendo em todo o mundo em todos os nossos projetos é que conseguimos gerar cerca de 40% desses itens de que estamos falando a partir do trabalho que realmente está acontecendo.”
Novas ferramentas e técnicas de IA estão entrando rapidamente em produção
O Technology Radar da Thoughtworks foi projetado para rastrear “coisas interessantes” que o Conselho Consultivo de Tecnologia global da consultoria descobriu e que estão surgindo no espaço global de engenharia de software. O relatório também lhes atribui uma classificação que indica aos compradores de tecnologia se devem “adotar”, “experimentar”, “avaliar” ou “manter” essas ferramentas ou técnicas.
De acordo com o relatório:
- Adote: “Blips” que as empresas devem considerar fortemente.
- Julgamento: Ferramentas ou técnicas que a Thoughtworks acredita estarem prontas para uso, mas não tão comprovadas quanto as da categoria adotar.
- Avaliar: Coisas para observar de perto, mas não necessariamente para julgamento ainda.
- Segurar: Proceda com cautela.
O relatório deu à geração de recuperação aumentada o status de “adotar”, como “o padrão preferido para nossas equipes melhorarem a qualidade das respostas geradas por um grande modelo de linguagem”. Enquanto isso, técnicas como “usar o LLM como juiz” – que aproveita um LLM para avaliar as respostas de outro LLM, exigindo configuração e calibração cuidadosas – receberam o status de “teste”.
Embora os agentes de IA sejam novos, o GCP Vertex AI Agent Builder, que permite que as organizações criem agentes de IA usando uma linguagem natural ou abordagem de código inicial, também recebeu um status de “teste”.
Taraporewalla disse que as ferramentas ou técnicas já devem ter progredido em produção para serem recomendadas para status de “teste”. Portanto, representariam sucesso em casos de uso prático reais.
“Portanto, quando falamos sobre essa explosão cambriana nas ferramentas e técnicas de IA, na verdade estamos vendo isso dentro de nossas próprias equipes”, disse ela. “Na APAC, isso é representativo do que estamos vendo dos clientes, em termos de suas expectativas e de quão prontos eles estão para superar o hype e olhar para a realidade dessas ferramentas e técnicas.”
VEJA: A disponibilidade de energia atrapalhará a revolução da IA? (TechRepublic Premium)
Adoção rápida de ferramentas de IA causando antipadrões preocupantes
De acordo com o relatório, a rápida adoção de ferramentas de IA está a começar a criar antipadrões – ou padrões ruins em toda a indústria que estão levando a resultados ruins para as organizações. No caso das ferramentas de assistência à codificação, um antipadrão importante que surgiu é a confiança nas sugestões de assistência à codificação das ferramentas de IA.
“Um antipadrão que estamos vendo é confiar na resposta que está sendo divulgada”, disse Taraporewalla. “Portanto, embora um copiloto nos ajude a gerar o código, se você não tiver essa habilidade especializada e o ser humano no circuito para avaliar a resposta que está surgindo, corremos o risco de sobrecarregar nossos sistemas.”
O Technology Radar apontou preocupações sobre a qualidade do código gerado e as rápidas taxas de crescimento das bases de código. “Os problemas de qualidade do código, em particular, destacam uma área de diligência contínua por parte dos desenvolvedores e arquitetos para garantir que não se afoguem em códigos ‘funcionais, mas terríveis’”, dizia o relatório.
O relatório emitiu uma “retenção” sobre a substituição das práticas de programação em pares por IA, com a Thoughtworks observando que esta abordagem visa garantir que a IA esteja ajudando, em vez de criptografar bases de código com complexidade.
“Algo que temos defendido fortemente é o código limpo, o design limpo e os testes que ajudam a diminuir o custo total geral de propriedade da base de código; onde confiamos demais nas respostas que as ferramentas estão gerando… isso não vai ajudar a sustentar a vida útil da base de código”, alertou Taraporewalla.
Ela acrescentou: “As equipes só precisam redobrar as boas práticas de engenharia sobre as quais sempre falamos – coisas como testes unitários, funções de aptidão de uma perspectiva arquitetônica e técnicas de validação – apenas para ter certeza de que é o código certo que está saindo.”
Como as organizações podem navegar pelas mudanças no cenário de ferramentas de IA?
Focar primeiro no problema, e não na solução tecnológica, é fundamental para que as organizações adotem as ferramentas e técnicas certas sem serem arrebatadas pelo hype.
“O conselho que costumamos dar é descobrir qual problema você está tentando resolver e depois descobrir o que pode estar ao seu redor do ponto de vista de soluções ou ferramentas para ajudá-lo a resolver esse problema”, disse Taraporewalla.
A governação da IA também terá de ser um processo contínuo e contínuo. As organizações podem beneficiar do estabelecimento de uma equipa que possa ajudar a definir os seus padrões de governação da IA, ajudar a educar os funcionários e monitorizar continuamente essas mudanças no ecossistema da IA e no ambiente regulamentar.
“Ter um grupo e uma equipe dedicados a fazer exatamente isso é uma ótima maneira de expandir isso em toda a organização”, disse Taraporewalla. “Assim, você coloca as duas proteções no lugar certo, mas também permite que as equipes experimentem e vejam como podem usar essas ferramentas.”
As empresas também podem construir plataformas de IA com recursos de governança integrados.
“Você poderia codificar suas políticas em uma plataforma MLOps e tê-la como base para as equipes desenvolverem”, acrescentou Taraporewalla. “Dessa forma, você restringe a experimentação e sabe quais partes dessa plataforma precisam evoluir e mudar ao longo do tempo.”
Experimentar ferramentas e técnicas de IA pode valer a pena
As organizações que estão experimentando ferramentas e técnicas de IA podem ter que mudar o que usam, mas também construirão sua plataforma e capacidades ao longo do tempo, de acordo com a Thoughtworks.
“Acho que quando se trata de retorno do investimento… se tivermos a mentalidade de teste, não apenas usaremos essas ferramentas para fazer um trabalho, mas também veremos quais são os elementos que continuaremos a construir em nossa plataforma à medida que avançamos, como nossa base”, disse Taraporewalla.
Ela observou que esta abordagem poderia permitir que as organizações agregassem maior valor aos experimentos de IA ao longo do tempo.
“Acho que o retorno do investimento terá retorno no longo prazo — se eles puderem continuar a olhar para isso da perspectiva de quais partes vamos trazer para uma plataforma mais comum e o que estamos aprendendo da perspectiva de uma fundação que podemos transformar isso em um volante positivo?”