Accenture, líderes SAP em problemas e soluções de diversidade

Tempo de leitura: 4 minutos

A parcialidade da IA ​​generativa, impulsionada por dados de formação de modelos, continua a ser um grande problema para as organizações, de acordo com os principais especialistas em dados e IA. Esses especialistas recomendam que as organizações da APAC tomem medidas proativas para contornar ou eliminar preconceitos à medida que colocam em produção casos de uso de IA generativa.

Teresa Tung, diretora administrativa sênior da Accenture, disse ao TechRepublic que os modelos generativos de IA foram treinados principalmente em dados da Internet em inglês, com uma forte perspectiva norte-americana, e provavelmente perpetuariam pontos de vista predominantes na Internet. Isso cria problemas para os líderes tecnológicos na APAC.

“Apenas do ponto de vista linguístico, assim que você não fala inglês – se você está na China ou na Tailândia e em outros lugares – você não vê seu idioma e suas perspectivas representados no modelo”, disse ela.

Os talentos tecnológicos e empresariais localizados em países que não falam inglês também estão em desvantagem, disse Tung. A desvantagem surge porque a experimentação em IA generativa está sendo feita em grande parte por “falantes de inglês e pessoas que são nativas ou podem trabalhar com inglês”.

Embora muitos modelos nacionais estejam a ser desenvolvidos, especialmente na China, algumas línguas da região não são abrangidas. “Essa lacuna de acessibilidade vai aumentar, de uma forma também tendenciosa, além de propagar algumas das perspectivas que predominam nesse corpus de dados (da Internet)”, disse ela.

O viés da IA ​​pode produzir riscos organizacionais

Kim Oosthuizen, chefe de IA da SAP Austrália e Nova Zelândia, observou que o preconceito se estende ao género. Num estudo da Bloomberg sobre imagens geradas pela difusão estável, as mulheres estavam muito sub-representadas em imagens de profissões mais bem remuneradas, como médicos, apesar das taxas reais de participação mais elevadas nestas profissões.

“Esses preconceitos exagerados que os sistemas de IA criam são conhecidos como danos representacionais”, disse ela ao público no recente Festival SXSW em Sydney, Austrália. “São danos que degradam certos grupos sociais, reforçando o status quo ou amplificando estereótipos”, disse ela.

“A IA é tão boa quanto os dados nos quais é treinada; se fornecermos dados errados a esses sistemas, isso apenas amplificará esses resultados e continuará fazendo isso continuamente. É isso que acontece quando os dados e as pessoas que desenvolvem a tecnologia não têm uma visão representativa do mundo.”

VEJA: Por que os projetos de IA generativa correm o risco de falhar sem a compreensão dos executivos de negócios

Se nada for feito para melhorar os dados, o problema poderá piorar. Oosthuizen citou previsões de especialistas de que grandes proporções das imagens da Internet poderiam ser geradas artificialmente em apenas alguns anos. Ela explicou que “quando excluirmos grupos de pessoas no futuro, isso continuará acontecendo”.

Em outro exemplo de preconceito de gênero, Oosthuizen citou um mecanismo de previsão de IA que analisou amostras de sangue para detectar câncer de fígado. A IA acabou por ter duas vezes mais probabilidade de detectar a doença em homens do que em mulheres porque o modelo não tinha mulheres suficientes no conjunto de dados que estava a utilizar para produzir os seus resultados.

Tung disse que os ambientes de saúde representam um risco particular para as organizações, pois pode ser perigoso quando os tratamentos são recomendados com base em resultados tendenciosos. Por outro lado, o uso da IA ​​em candidaturas e contratações de empregos pode ser problemático se não for complementado por um ser humano informado e por uma lente de IA responsável.

Os desenvolvedores e usuários de modelos de IA devem projetar em torno do preconceito da IA

As empresas devem adaptar a forma como concebem modelos generativos de IA ou integram modelos de terceiros nos seus negócios para superar dados tendenciosos ou proteger as suas organizações deles.

Por exemplo, os produtores de modelos estão a trabalhar no ajuste fino dos dados utilizados para treinar os seus modelos, injetando fontes de dados novas e relevantes ou criando dados sintéticos para introduzir equilíbrio, disse Tung. Um exemplo de género seria a utilização de dados sintéticos para que um modelo seja representativo e produza tanto “ela” como “ele”.

Os usuários organizacionais de modelos de IA precisarão testar o viés de IA da mesma forma que conduzem a garantia de qualidade para código de software ou ao usar APIs de fornecedores terceirizados, disse Tung.

“Assim como você executa o teste de software, isso significa acertar os dados”, explicou ela. “Como usuário do modelo, terei todos esses testes de validação que procuram preconceitos de gênero, preconceitos de diversidade; poderia ser apenas uma questão de precisão, garantindo que tenhamos muito disso para testar as coisas que nos interessam.

VEJO: Treinamento e orientação em IA são um problema para os funcionários

Além dos testes, as organizações devem implementar proteções fora de seus modelos de IA que possam corrigir distorções ou precisão antes de transmitir os resultados a um usuário final. Tung deu o exemplo de uma empresa que usa IA generativa para gerar código que identificou uma nova vulnerabilidade do Python.

“Precisarei aproveitar essa vulnerabilidade e pedirei a um especialista que conheça Python que gere alguns testes – esses pares de perguntas e respostas que mostram como é a aparência boa e possivelmente respostas erradas – e então testarei o modelo para ver se funciona ou não”, disse Tung.

“Se não funcionar com o resultado correto, então preciso fazer uma engenharia em torno disso”, acrescentou ela.

A diversidade na indústria de tecnologia de IA ajudará a reduzir preconceitos

Oosthuizen disse que para melhorar o preconceito de género na IA, é importante que as mulheres “tenham um lugar à mesa”. Isso significa incluir suas perspectivas em todos os aspectos da jornada da IA ​​— desde a coleta de dados até a tomada de decisões e a liderança. Isto exigiria melhorar a percepção das carreiras de IA entre as mulheres, disse ela.

VEJO: Salesforce oferece 5 diretrizes para reduzir o preconceito de IA

Tung concordou que melhorar a representação é muito importante, seja em termos de género, raça, idade ou outros dados demográficos. Ela disse que ter equipes multidisciplinares “é realmente fundamental” e observou que uma vantagem da IA ​​é que “hoje em dia, nem todo mundo precisa ser cientista de dados ou ser capaz de aplicar esses modelos”.

“Muito disso está no aplicativo”, explicou Tung. “Portanto, na verdade, é alguém que conhece muito bem marketing, finanças ou atendimento ao cliente e não está limitado apenas a um conjunto de talentos que, francamente, não é tão diversificado quanto deveria ser. Então, quando pensamos na IA de hoje, é realmente uma grande oportunidade poder expandir essa diversidade.”

Rolar para cima
Pular para o conteúdo