Por Emily Frolick, Bryan McGowan e Tim Phelps
À medida que a rápida ascensão da IA generativa (GenAI) continua a provocar mudanças na forma como as organizações trabalham, também está a surgir um paradoxo inesperado.
A maioria dos líderes de organizações bilionárias entrevistadas recentemente pela KPMG afirma que pretende integrar mais GenAI em novas iniciativas e funções de negócios e treinar mais sua força de trabalho para usar IA. Destes entrevistados, 71% dizem que estão a usar dados GenAI na sua tomada de decisões, 52% dizem que a tecnologia está a moldar o seu posicionamento competitivo e 47% dizem que os está a ajudar a descobrir oportunidades de receitas.
A IA oferece a estas organizações um grande potencial para produzir vantagens poderosas tanto em termos de eficiência operacional como de estratégia inovadora, porque pode processar grandes volumes de dados a velocidades incompreensíveis e fortalecer as capacidades, os conhecimentos e a produtividade dos seres humanos.
No entanto, mesmo algumas organizações ansiosas por adotar a IA abordam a tecnologia com cautela, prevendo os seus riscos de forma mais clara do que as suas recompensas. A IA causará demissões na força de trabalho? Irá introduzir riscos de segurança cibernética ou minar a privacidade dos dados?
É por isso que o maior desafio na adoção da IA não é desenvolver a tecnologia em si, mas sim desenvolver um ambiente de confiança.
Para desbloquear o potencial da IA, as organizações, os seus clientes e funcionários, e os reguladores precisam de confiar na IA para produzir apenas resultados úteis, relevantes e seguros. Construir essa confiança requer projetar a IA propositalmente para confiabilidade e altos padrões éticos. Adotar a IA com ousadia, rapidez e responsabilidade significa defender esses padrões e mandatos regulatórios desde o início.
Diretrizes e guarda-corpos
Toda organização com uma estratégia de IA precisa colocar a confiança no centro de suas políticas.
Além de estabelecer confiança nas suas ferramentas e fontes de dados, uma organização precisa de um órgão autónomo de governação da IA para desenvolver regras, diretrizes e procedimentos éticos. Um comitê diretor de IA pode gerenciar a IA em todas as equipes, esclarecendo para todos os funcionários, parceiros e clientes quando e como ela usa (ou não) a IA.
À medida que a IA se torna mais difundida e omnipresente nos modelos de negócio, uma organização cautelosa em matéria de IA ainda precisa de dar os primeiros passos na governação para construir confiança e boa vontade e para mitigar os riscos da tecnologia. Mesmo que uma organização ainda não esteja preparada para estabelecer um órgão de governo completo, muitas ainda estão a considerar um diretor de IA, um líder de alto nível que compreenda a tecnologia e veja a sua gama de oportunidades e riscos de negócio. E uma empresa que não esteja pronta para padronizar práticas e procedimentos de IA em todas as linhas de negócios poderia identificar equipes de incubadoras para dar o primeiro mergulho profundo.
As organizações, incluindo a KPMG, estão agora a ligar-se diretamente às suas infraestruturas subjacentes, capturando e extraindo metadados para que possam automatizar e dimensionar partes dos seus programas de governação de IA, segurança e gestão de riscos para detetar e monitorizar de forma mais eficiente as proteções e controlos configurados.
Outra estratégia é adotar uma abordagem por níveis de risco que aplique diferentes padrões de governação aos sistemas de IA com base no risco e no impacto para clientes, parceiros e funcionários.
Construindo uma Cultura de Confiança
Para iniciar a jornada de IA na KPMG, adotamos a abordagem de sempre colocar a confiança no centro dos nossos planos.
Começamos com um compromisso confiável de IA que delineou nossa estratégia, com pilares éticos para garantir que nosso uso de IA fosse sempre confiável e centrado no ser humano. Usamos essa declaração de valor para desenvolver políticas e diretrizes de IA para cada fase do ciclo de vida da IA para definir as expectativas de uso para nosso pessoal e parceiros, considerações de dados sobre o que era permitido e o que estava fora dos limites, e um conselho de IA para moldar ativamente as diretrizes e comunicar nossas políticas de IA à nossa equipe de 39.000 funcionários.
Com essas diretrizes e equipes estabelecidas, lançamos o aprendizado e o desenvolvimento de IA para toda a organização, usando treinamento individual baseado em pessoas para dar a cada funcionário a orientação necessária para compreender e adotar nossa abordagem de IA de forma segura e responsável.
O Escritório de IA e Inovação Digital da KPMG lançou o KPMG aIQ, um programa de transformação de IA em toda a empresa que se concentra em impulsionar a adoção de IA em todas as áreas do negócio para criar valor para os clientes e uma experiência aprimorada para os funcionários. O programa foi projetado para colocar a tecnologia de IA diretamente nas mãos de todos os parceiros e profissionais e fornecer recursos acessíveis, como um portal centrado em IA de fácil utilização – o hub aIQ – que permite aos funcionários explorar casos de uso, produtos emergentes, cursos de treinamento, e orientação individual de IA.
Indo primeiro para a IA
Como uma organização voltada para a IA equilibra inovação ousada com uso responsável?
O estabelecimento de uma equipe de governança e de uma infraestrutura de aprendizagem abre o caminho para se tornar uma organização que prioriza a IA e se esforça para unificar políticas de adoção de IA entre equipes e disciplinas. Isso requer testes contínuos – e vigilância contínua.
O C-suite reconhece o potencial da IA para impulsionar a inovação, gerar receitas e otimizar operações: 54% dos executivos esperam que a GenAI apoie novos modelos de negócio e 46% prevêem que os ajudará a desenvolver novos produtos e fluxos de receitas, de acordo com o inquérito da KPMG sobre a Perspectiva Executiva sobre GenAI. Um total de 95% dos executivos disseram que consideram a formação e a educação essenciais para garantir que as suas organizações utilizam a GenAI de forma ética; 91% também consideram críticas as auditorias regulares e a supervisão humana.
Manter os líderes de IA em sintonia com o C-suite garante que uma organização atenda às principais preocupações de seus executivos. Um aspecto sensível da IA, especialmente para organizações em sectores estritamente regulamentados, é garantir a conformidade. É vital estabelecer barreiras que regem o uso da IA, garantindo que os líderes em TI e governança, risco e conformidade (GRC) possam aplicar a IA de forma responsável e ética.
Em 2023, a nossa organização estabeleceu um Centro de Excelência em IA (AI CoE) responsável por avaliar produtos e plataformas emergentes e determinar quais ferramentas e tecnologias de IA levar para o resto da nossa organização e além dela. O AI CoE está no centro de nossa experimentação, pesquisa, desenvolvimento e adoção de tecnologia habilitada para GenAI em toda a empresa. Ele informa nossas ferramentas e abordagem tecnológica e fornece uma base para a execução de nossa estratégia de IA em toda a empresa.
Com nossa própria infraestrutura e programas de IA em vigor, a KPMG agora cria programas de treinamento também para nossos parceiros e clientes – um esforço para unificar os padrões de nossa rede sobre governança de IA, orientação e melhores práticas para construir confiança em IA, ensinando a tecnologia para governar a si mesmo.
A KPMG também colabora no desenvolvimento de produtos com nossos parceiros de aliança para ajudá-los a refinar as ofertas de produtos existentes – e projetar novos.
Vemos essas estratégias diferenciadoras de IA como as principais áreas de solução para IA confiável.
“A KPMG e a ServiceNow têm uma forte parceria e colaboração, com foco na inovação, IA e transformação digital”, disse Michael Park, vice-presidente sênior e chefe global de AI Go to Market, ServiceNow. “Sua abordagem para desenvolver e implantar IA demonstra seu compromisso em transformar seus negócios e apoiar seus clientes em suas jornadas de IA. Estabelecer uma estrutura de governança robusta e um roteiro claro desde o início é fundamental para construir confiança e perceber o valor da IA, ao mesmo tempo em que expande a tecnologia com velocidade.”
Para essas organizações e para as nossas, a decisão de priorizar a IA é uma medida ousada – e responsável. Requer uma transformação profunda na forma como vemos o papel da tecnologia na governação.
O futuro pertence àqueles que estabelecem confiança na IA – não apenas como uma ferramenta poderosa, mas como um componente valioso no intrincado equilíbrio para apoiar a inovação, a transformação empresarial, a vantagem competitiva e a conformidade.
Para saber mais sobre a abordagem e os insights da Trusted AI da KPMG, clique aqui.
Emily Frolické líder em transformação de modelo de entrega e gerenciamento de produtos para serviços de risco, Bryan McGowané líder global confiável em IAe Tim Phelpsé líder de serviços de risco na KPMG LLP.