Com o rápido crescimento da IA, especialmente da GenAI, os clientes estão avaliando os riscos do uso da IA por parceiros ou fornecedores. Os CIOs e as organizações são aconselhados a considerar como estes riscos podem afetar as suas operações e segurança e a criar termos contratuais para os abordar. As áreas específicas de preocupação para os CIOs e as organizações de TI são a forma como um fornecedor utiliza os seus dados, se os seus dados serão utilizados na formação de modelos públicos, como os dados são protegidos, o acesso aos dados, o enviesamento dos resultados e os riscos de alucinação e plágio. Os clientes desejam compreender e mitigar o risco adicional que a IA pode trazer de seus relacionamentos com fornecedores e parceiros.
Os CIOs e as organizações que reconhecem este risco (e seguem as recomendações das empresas de investigação) estão agora a incorporar requisitos específicos nos seus contratos com fornecedores e parceiros. Exigem garantias claras sobre a forma como os riscos relacionados com a IA serão mitigados. Esses clientes esperam informações responsivas e significativas sobre as proteções em vigor, especialmente em relação ao uso de dados, adesão às práticas de proteção de dados e casos de uso que os impactam. Para fornecedores e parceiros, atender a essas demandas exige a preparação de respostas contratuais abrangentes e transparentes, precisas e que não atrasem a contratação.
Além disso, estamos testemunhando, tanto do lado do fornecedor quanto do cliente, a frustração com a forma como essas cláusulas estão atrasando a própria contratação, à medida que as equipes jurídicas do cliente e do fornecedor lutam por elas. Para resolver isso, fornecedores e clientes precisam desenvolver um modelo de como desejam abordar, comunicar e compreender o risco de IA.
Para ajudar a simplificar o processo e fornecer uma vantagem para o desenvolvimento de cláusulas de risco de IA em contratos (tanto para clientes como para fornecedores), esta visão geral abrange os elementos-chave que são essenciais para a elaboração e resposta às disposições de risco de IA. Tanto do lado do fornecedor como do cliente, uma linguagem padronizada e flexível deve ser desenvolvida imediatamente com a assistência jurídica, porque, mesmo que um fornecedor ou parceiro ainda não tenha tido que responder a uma cláusula de IA num contrato, ele o fará.
Definir o propósito da IA e garantir a transparência
Os clientes precisam entender como a IA será usada nos serviços ou produtos contratados. Para resolver esta questão, os fornecedores precisam de começar por definir o papel da IA no(s) serviço(s) ou produto(s) fornecido(s), destacando tanto a sua finalidade como os potenciais benefícios para o cliente. Por exemplo, a IA pode ser utilizada para apoiar a análise de dados, melhorar a eficiência operacional ou agilizar tarefas de rotina – todas áreas que podem gerar valor quando comunicadas de forma clara.
Um propósito bem definido da IA ajuda a esclarecer que o papel da IA não é arbitrário e estabelece transparência, permitindo aos clientes compreender exatamente como ela se alinha com os seus objetivos. Além disso, esta seção deve cobrir quaisquer limitações relacionadas ao uso de IA (ou seja, como ela não será usada).
Uso de dados do cliente
Uma preocupação importante (se não a principal) do cliente é como seus dados serão usados por um fornecedor ou parceiro. Embora o uso de dados deva ser declarado como parte da política padrão de proteção de dados existente de um fornecedor, a preocupação aumenta devido a alguns aspectos exclusivos da GenAI. A este respeito, o contrato deve descrever as práticas atuais do fornecedor em relação à segurança e privacidade de dados, bem como a adesão a regulamentos como GDPR, CCPA e outras leis relevantes de proteção de dados. Um fornecedor já deve ter definido políticas de dados do cliente. GenAI deve ser um superconjunto ou expansão das políticas existentes de proteção de dados dos fornecedores. Diretrizes claras sobre práticas de tratamento de dados ajudam a garantir que os dados do cliente permaneçam seguros e protegidos contra usos não intencionais.
Os clientes estão particularmente preocupados com o fato de seus dados serem usados para treinar modelos de IA, bem como com sua visibilidade para outros clientes. Este é um risco importante que os clientes desejam abordar. Uma prática envolve declarar a proibição do uso de dados de clientes não anonimizados para treinamento em IA sem consentimento prévio. Outra é afirmar que os dados do cliente não são utilizados no treinamento. Abordar esses detalhes antecipadamente não apenas aumenta a confiança, mas também se alinha aos padrões do setor em termos de gerenciamento ético de dados.
Estabelecendo uma política de uso de IA e supervisão humana
Os fornecedores que possuem uma política formal de uso de IA oferecem aos clientes clareza sobre os tipos de tecnologias de IA que estão sendo usadas. Esta política deve abranger disposições específicas sobre a forma como a IA pode ser utilizada na geração de informações relacionadas com o cliente. Por exemplo, devem existir disposições que expliquem como a IA é utilizada internamente e aplicada a dados específicos do cliente para responder às necessidades do cliente.
A incorporação da supervisão humana nas aplicações de IA proporciona uma salvaguarda adicional. Ao estabelecer que todas as operações de IA serão submetidas a revisão humana, os fornecedores podem garantir aos clientes que os processos automatizados serão validados por pessoal humano. Isto não só mitiga os riscos, mas também reforça o controlo de qualidade, especialmente em contextos onde a IA é utilizada para apoiar a análise de dados ou insights. Ter um especialista humano revisando e supervisionando esses resultados ajuda a garantir que os padrões e expectativas do cliente sejam atendidos, reduzindo a probabilidade de erros não intencionais ou omissões de processos automatizados. Os fornecedores devem deixar claro qual supervisão está sendo fornecida, se houver, e onde.
Gestão de riscos e confidencialidade
O gerenciamento eficaz de riscos é crucial para qualquer fornecedor que ofereça IA como parte de seu produto, e os clientes desejam saber se existem medidas para lidar com possíveis riscos relacionados à IA. O contrato deve delinear estratégias de gestão de riscos, incluindo auditorias regulares de sistemas de IA, avaliações de impacto para casos de uso de IA de alto risco, mitigação de desvios de IA e planos de resposta a incidentes para violações ou uso indevido de dados. Os clientes se sentirão tranquilos sabendo que o fornecedor possui medidas em vigor para resolver os problemas antes que eles afetem a qualidade do serviço ou a segurança dos dados.
Os acordos de confidencialidade também desempenham um papel crítico na proteção dos dados dos clientes. Reforce o compromisso da organização com a privacidade dos dados, fazendo referência a quaisquer acordos de confidencialidade que protejam as informações dos clientes contra divulgação não autorizada. Ao incluir termos que limitam o acesso a dados sensíveis de clientes para sistemas de IA ou outras tecnologias, os clientes têm a garantia de que os seus dados serão tratados de acordo com as expectativas de privacidade. Esses acordos sinalizam que informações confidenciais não serão divulgadas ou processadas pela IA sem o consentimento prévio do cliente. Esses acordos normalmente existem para o tratamento de dados, mesmo fora do escopo da IA.
Em qualquer contrato relacionado com IA, é essencial garantir que o cliente ou consumidor também tenha em vigor uma política robusta de IA. Os termos e condições do contrato não devem ser meramente simbólicos; eles devem ser apoiados por políticas e controles concretos por parte do cliente. Isto garante que quaisquer obrigações ou restrições relacionadas com a IA sejam aplicáveis e alinhadas com os padrões operacionais do cliente, ajudando a manter a integridade do contrato e o uso responsável da IA.
Conclusão
Ao incorporar esses quatro elementos em seus contratos relacionados à IA, os fornecedores podem atender às preocupações dos clientes, proteger os dados e demonstrar o compromisso da sua organização com o uso responsável da IA. Ao proteger proativamente os clientes contra riscos relacionados à IA, as empresas podem construir uma base de confiança e alinhar-se com as melhores práticas para implantação de IA ética, transparente e compatível.
Saiba mais sobre a pesquisa da IDC para líderes de tecnologia OU inscreva-se hoje para receber pesquisas líderes do setor diretamente em sua caixa de entrada.
A International Data Corporation (IDC) é a principal fornecedora global de inteligência de mercado, serviços de consultoria e eventos para os mercados de tecnologia. A IDC é uma subsidiária integral do International Data Group (IDG Inc.), empresa líder mundial em serviços de mídia, dados e marketing de tecnologia. Recentemente eleita a Empresa Analista do Ano pela terceira vez consecutiva, as Soluções Líderes em Tecnologia da IDC fornecem orientação especializada apoiada por nossos serviços de pesquisa e consultoria líderes do setor, programas robustos de liderança e desenvolvimento e os melhores benchmarking e fornecimento de dados de inteligência da categoria. dos consultores mais experientes do setor. Contate-nos hoje para saber mais.
Daniel Saroff é vice-presidente do grupo de consultoria e pesquisa da IDC, onde é profissional sênior na prática de consultoria ao usuário final. Esta prática fornece suporte a conselhos, líderes empresariais e executivos de tecnologia em seus esforços para arquitetar, avaliar e otimizar a tecnologia da informação de suas organizações. A prática de consultoria ao usuário final da IDC utiliza a extensa biblioteca internacional de dados de TI da IDC, sua robusta base de pesquisa e soluções de consultoria personalizadas para fornecer valor comercial exclusivo por meio de aceleração de TI, gerenciamento de desempenho, otimização de custos e recursos de benchmarking contextualizados.