As preocupações com a privacidade dos dados em relação à IA generativa aumentaram, descobriu um novo relatório da Deloitte. Enquanto no ano passado apenas 22% dos profissionais o classificaram entre as suas três principais preocupações, este ano o número subiu para 72%.
As próximas maiores preocupações éticas da GenAI foram a transparência e a proveniência dos dados, com 47% e 40% dos profissionais classificando-as entre as três primeiras neste ano. Enquanto isso, apenas 16% expressaram preocupação com a demissão de empregos.
Os funcionários estão cada vez mais curiosos sobre como funciona a tecnologia de IA, especialmente no que diz respeito aos dados sensíveis. Um estudo de setembro da HackerOne descobriu que quase metade dos profissionais de segurança acredita que a IA é arriscada, com muitos vendo os dados de treinamento vazados como uma ameaça.
Da mesma forma, 78% dos líderes empresariais classificaram “seguro e protegido” como um dos seus três principais princípios éticos de tecnologia, marcando um aumento de 37% em relação a 2023, demonstrando ainda mais como a questão da segurança é uma prioridade.
Os resultados da pesquisa vêm do relatório “Estado de Ética e Confiança na Tecnologia” de 2024 da Deloitte, que entrevistou mais de 1.800 profissionais técnicos e de negócios em todo o mundo sobre os princípios éticos que aplicam às tecnologias, especificamente GenAI.
Incidentes de segurança de IA de alto perfil provavelmente estão atraindo mais atenção
Pouco mais de metade dos entrevistados nos relatórios deste ano e do ano passado afirmaram que as tecnologias cognitivas como a IA e a GenAI representam os maiores riscos éticos em comparação com outras tecnologias emergentes, como a realidade virtual, a computação quântica, os veículos autónomos e a robótica.
Este novo foco pode estar relacionado a uma maior conscientização sobre a importância da segurança de dados devido a incidentes bem divulgados, como quando um bug no ChatGPT da OpenAI expôs dados pessoais de cerca de 1,2% dos assinantes do ChatGPT Plus, incluindo nomes, e-mails e dados parciais. detalhes de pagamento.
A confiança no chatbot também foi certamente abalada pela notícia de que hackers violaram um fórum online usado por funcionários da OpenAI e roubaram informações confidenciais sobre os sistemas de IA da empresa.
VER: Política de Ética em Inteligência Artificial
“A ampla disponibilidade e adoção da GenAI podem ter aumentado a familiaridade e a confiança dos entrevistados na tecnologia, aumentando o otimismo sobre o seu potencial para o bem”, disse Beena Ammanath, Global Deloitte AI Institute e líder de Trustworthy AI, num comunicado de imprensa.
“Os contínuos sentimentos de cautela em torno dos seus riscos aparentes sublinham a necessidade de quadros éticos específicos e evoluídos que permitam um impacto positivo.”
A legislação sobre IA está impactando o modo como as organizações operam em todo o mundo
Naturalmente, mais funcionários estão a utilizar a GenAI no trabalho do que no ano passado, com a percentagem de profissionais a reportar que a utilizam internamente a aumentar 20% nos relatórios anuais da Deloitte.
Enormes 94% disseram que suas empresas incutiram isso de alguma forma nos processos. No entanto, a maioria indicou que ainda está em fase piloto ou que o uso é limitado, com apenas 12% afirmando que está em uso generalizado. Isso está de acordo com uma pesquisa recente do Gartner que descobriu que a maioria dos projetos GenAI não passa do estágio de prova de conceito.
VEJA: IBM: Embora a adoção corporativa de inteligência artificial aumente, as barreiras limitam seu uso
Independentemente da sua difusão, os decisores querem garantir que a utilização da IA não lhes causa problemas, especialmente quando se trata de legislação. O motivo mais bem avaliado para a implementação de políticas e diretrizes tecnológicas éticas foi a conformidade, citada por 34% dos entrevistados, enquanto as penalidades regulatórias estavam entre as três principais preocupações relatadas caso tais padrões não fossem seguidos.
A Lei de IA da UE entrou em vigor em 1º de agosto e impõe requisitos rigorosos aos sistemas de IA de alto risco para garantir segurança, transparência e uso ético. O não cumprimento pode resultar em multas que variam de 35 milhões de euros (38 milhões de dólares) ou 7% do volume de negócios global a 7,5 milhões de euros (8,1 milhões de dólares) ou 1,5% do volume de negócios.
Mais de uma centena de empresas, incluindo Amazon, Google, Microsoft e OpenAI, já assinaram o Pacto de IA da UE e voluntariaram-se para começar a implementar os requisitos da lei antes dos prazos legais. Isto demonstra o seu compromisso com a implantação responsável da IA ao público e ajuda-os a evitar desafios jurídicos futuros.
Da mesma forma, em Outubro de 2023, os EUA divulgaram uma Ordem Executiva sobre IA que apresenta orientações abrangentes sobre a manutenção da segurança, dos direitos civis e da privacidade nas agências governamentais, ao mesmo tempo que promovem a inovação e a concorrência da IA em todo o país. Embora não seja uma lei, muitas empresas que operam nos EUA podem fazer mudanças nas políticas em resposta para garantir a conformidade com a evolução da supervisão federal e com as expectativas públicas em relação à segurança da IA.
VER: Países do G7 estabelecem código de conduta voluntário de IA
A Lei da IA da UE teve influência na Europa, com 34% dos inquiridos europeus a dizerem que as suas organizações fizeram alterações na utilização da IA durante o ano passado em resposta. No entanto, o impacto é mais generalizado, uma vez que 26% dos inquiridos do Sul da Ásia e 16% dos inquiridos da América do Norte e do Sul também fizeram alterações devido à edição da Lei.
Além disso, 20% dos entrevistados residentes nos EUA afirmaram ter feito alterações nas suas organizações em resposta à ordem executiva. Um quarto dos entrevistados do Sul da Ásia, 21% na América do Sul e 12% na Europa disseram o mesmo.
“Tecnologias cognitivas como a IA são reconhecidas como tendo o maior potencial para beneficiar a sociedade e o maior risco de uso indevido”, escreveram os autores do relatório.
“A adoção acelerada da GenAI pode estar ultrapassando a capacidade das organizações de governar a tecnologia. As empresas devem priorizar tanto a implementação de padrões éticos para GenAI quanto a seleção significativa de casos de uso aos quais as ferramentas GenAI são aplicadas.”