Salima Bhimani tem incentivado o uso responsável e ético da IA há vários anos como o primeiro estrategista-chefe e diretor de tecnologia, negócios e líderes inclusivos e responsáveis da Alphabet de 2017 a 2023.
Na empresa controladora do Google, ela trabalhou com empresas lunares como Waymo, Wing e X, para moldar negócios sustentáveis e impacto global. Ela agora é CEO da 10Xresponsibletech, uma empresa de consultoria focada em ajudar organizações a projetar, integrar e adotar estratégias de IA responsáveis e alinhadas aos negócios.
Numa entrevista recente, Bhimani falou sobre a importância de pensar sobre os usos éticos da IA e como esta pode beneficiar tanto a humanidade como as organizações individuais. A IA e outras tecnologias avançadas têm o potencial de criar enormes benefícios para toda a humanidade, diz ela, incluindo a resolução de problemas difíceis como a desigualdade na saúde e na informação, mas os fornecedores e os utilizadores precisam de pensar nas TI de novas formas.
“A oportunidade que temos diante de nós não é apenas aproveitar a onda da IA”, diz Bhimani. “Teremos que olhar para coisas que não vimos, como a ética, e ver isso como uma oportunidade para nos ajudar a impulsionar esta tecnologia.”
Em muitos casos, os líderes de TI e as empresas concentraram-se na inovação, incluindo benefícios para utilizadores e clientes, mas deveriam pensar de forma mais ampla sobre os impactos globais, diz ela.
“No passado, as motivações em torno da tecnologia foram a inovação, e provavelmente a inovação para servir a humanidade, fazer o bem no mundo e construir excelentes produtos”, acrescenta ela. “Agora, temos que pensar na inovação como uma forma de realmente remodelar o mundo para que funcione para todos. Isso não é um apelo filantrópico; na verdade, é um apelo à tecnologia para acelerar o progresso humano numa direção positiva.”
Aqui está mais uma entrevista recente com Bhimani, editada por questões de brevidade e legibilidade.
Grant Gross: Você se concentrou no uso ético da IA na Alphabet e em sua nova empresa. Você pode definir ‘IA ética’?
Bhimani: Existem três grandes componentes para mim nesta definição. Uma delas é eliminar os danos, de modo a garantir que os sistemas de IA que estamos a construir e que estamos a integrar não irão inadvertidamente exasperar os desafios existentes que as pessoas possam ter ou criar novos danos.
Outra parte é expandir os benefícios. Tendemos a nos concentrar muito no lado prejudicial, mas expandir os benefícios é uma grande parte da questão ética da IA. O que quero dizer com isso é que, se estivermos integrando a IA, estaremos garantindo que ela será, de fato, uma parceira de nossos funcionários e ampliará sua presença, seu impacto dentro da empresa, em vez de apenas eliminar funções? Queremos que seja uma oportunidade benéfica e expansiva.
A última parte é que estamos construindo sistemas simbióticos de IA com humanos. As pessoas falam sobre IA como algo que está se construindo, e há alguma verdade nisso; mas, na realidade, ainda está sendo construído por humanos. Existe uma relação simbiótica entre os sistemas e o que os humanos precisam e desejam, e precisamos ser bastante intencionais sobre isso de forma contínua. Portanto, mesmo que tenhamos sistemas de IA que possam usar dados inicialmente inseridos para criar novos conjuntos de dados, queremos garantir que haja governança em torno disso e que as pessoas estejam realmente envolvidas nesse processo.
Por que os CIOs, CAIOs e outros líderes de TI deveriam buscar IA ética para suas organizações? Qual é o benefício para eles e para suas organizações?
O papel do CIO está mudando. No passado, o foco era manter as luzes acesas, gerir a infraestrutura, garantir a estabilidade dos sistemas ou apenas garantir que a integração acontecesse. Agora estamos falando de nos tornarmos visionários estratégicos dentro da organização. Estamos construindo estratégias de IA alinhadas aos objetivos de negócios? Estamos identificando oportunidades que a IA nos apresenta?
As funções dos CIOs e dos CAIOs tratam de unir o negócio à tecnologia, e a parte ética será imperativa. Como podemos expandir os benefícios desta tecnologia para o que estamos tentando alcançar como empresa? Isso gerará novas oportunidades de negócios para nós? Isso mitigará o risco? Isso impulsionará a inovação?
A outra questão é: atrairá os melhores talentos? Algumas pesquisas dizem que os principais talentos da IA estão realmente interessados em trabalhar com organizações ou empresas que estão pensando no lado ético disso.
Se estivermos desenvolvendo produtos ou sistemas de IA que criam preconceitos, talvez tenhamos que reverter porque eles estão causando problemas de marca e reputação. O CIO ou o CAIO têm um papel muito ampliado agora, onde não estão apenas pensando no alinhamento da tecnologia com os negócios, mas também nas implicações dos riscos sociais e nos benefícios e oportunidades sociais.
Você se preocupa com as recentes resistências políticas contra as políticas de diversidade, equidade e inclusão (DEI)? Quais são as implicações de ignorar as questões éticas e de igualdade envolvidas na IA?
O desafio é que pensamos em ética, responsabilidade ou DEI a partir da perspectiva daqueles que geralmente têm estado à margem, mas penso que na verdade não é bom apenas para as pessoas de lá, é bom para todos nós. Houve uma pesquisa feita pela DataRobot em 2022, e o viés algorítmico causou, na verdade, uma perda de receita de 62% e uma perda de clientes de 61%. Houve perda de 43% de funcionários, sem contar os honorários advocatícios. Existem implicações comerciais. As pessoas querem saber que as coisas que estão sendo construídas estão sendo bem construídas.
Como pode um CIO ou líder de TI garantir que os produtos de IA que está a construir ou a comprar estão a ser utilizados de forma ética?
Eles precisam ter uma definição de IA ética para a organização. Existem definições gerais de IA ética, que podemos adotar, mas existem definições específicas relacionadas com o que a sua empresa está a tentar alcançar. Essas definições precisam ser construídas em conjunto com a liderança dessas organizações ou empresas. É aqui que a abordagem estratégica à IA precisa de acontecer ao nível da liderança, juntamente com uma compreensão muito robusta de quais são as compensações que estamos dispostos a fazer para garantir que os nossos produtos ou serviços são éticos. E precisamos de criar modelos de governação que possam ser integrados entre funções.
Também acho que a alfabetização em torno da IA é muito importante para as pessoas que estão comprando IA para integração em suas organizações. Nossos funcionários sabem o que isso fará por eles? Precisamos garantir que, como empresa, investimos na capacidade e na capacidade de usar a IA da melhor maneira possível para as nossas bases de funcionários.
A última parte é a responsabilização e a avaliação contínua do sistema que temos em vigor. Precisamos de continuar a verificar: está a atingir os objetivos éticos da IA que pretendemos ou está a produzir resultados que não previmos?
Parece haver muitas preocupações por aí sobre a IA, desde a desinformação até a perda de empregos e a tomada do controle da raça humana pela IA. Quais são suas principais preocupações sobre IA?
Penso em mercados perdidos. O que quero dizer com isso é que ainda estamos num mundo de exclusão digital. Muitas pessoas ao redor do mundo ainda não têm acesso à internet, o que é uma loucura, mas é verdade.
Muitos dos dados que utilizamos baseiam-se no tipo de pegada digital, o que significa que a forma como concebemos e desenvolvemos os nossos sistemas de IA se baseia em dados limitados, o que é uma grande preocupação. Se os sistemas de IA devem, em última análise, servir o mundo, como irão servir o mundo quando os dados sobre os quais são construídos basicamente não incluem a maior parte do mundo?
Este é um grande problema que precisamos de resolver, especialmente se quisermos seriamente que isto seja útil para todos, e especialmente se muitas das soluções ainda vierem da América do Norte ou da Europa. Há um fardo e uma responsabilidade extras para todos nós neste extremo do hemisfério realmente pensarmos em como resolveremos este problema com comunidades em todo o mundo?
E depois há a cooperação e a tradução genuínas entre os diferentes intervenientes que estão preocupados, interessados e investidos nisto, na questão de saber o que a IA está a fazer por nós agora e o que irá fazer por nós no futuro – se isso é a tecnologia, as próprias empresas, ou governos ou construtores e até mesmo usuários e consumidores. É esta questão: estamos nos entendendo e estamos encontrando um terreno comum?
A peça regulatória é muito, muito importante. Se as empresas tecnológicas estão a avançar a um determinado ritmo e os governos estão a avançar a outro ritmo, isso é uma preocupação.