Pular para o conteúdo

A IA estava em toda parte nas eleições de 2024, mas os deepfakes eram apenas parte do cenário

Tempo de leitura: 5 minutos

Foi o maior ano eleitoral da história da humanidade: 2024 é um ano de “superciclo” em que 3,7 mil milhões de eleitores elegíveis em 72 países tiveram a oportunidade de ir às urnas. Estas são também as primeiras eleições de IA, onde muitos temiam que os deepfakes e a desinformação gerada pela inteligência artificial sobrecarregassem os processos democráticos. À medida que 2024 chega ao fim, é instrutivo fazer um balanço do desempenho da democracia.

Num inquérito da Pew aos americanos realizado no início deste outono, quase oito vezes mais inquiridos esperavam que a IA fosse usada principalmente para fins maus nas eleições de 2024 do que aqueles que pensavam que ela seria usada principalmente para o bem. Existem preocupações e riscos reais na utilização da IA ​​na política eleitoral, mas definitivamente não tem sido de todo mau.

A temida “morte da verdade” não se materializou – pelo menos não devido à IA. E os candidatos estão a adoptar a IA em muitos locais onde esta pode ser construtiva, se utilizada de forma responsável. Mas como tudo isto acontece no âmbito de uma campanha e, em grande parte, em segredo, o público muitas vezes não vê todos os detalhes.

Conectando-se com os eleitores

Um dos usos mais impressionantes e benéficos da IA ​​é a tradução de idiomas, e as campanhas começaram a utilizá-la amplamente. Os governos locais no Japão e na Califórnia e políticos proeminentes, incluindo o primeiro-ministro da Índia, Narenda Modi, e o presidente da Câmara de Nova Iorque, Eric Adams, usaram a IA para traduzir reuniões e discursos para os seus diversos constituintes.

Mesmo quando os próprios políticos não falam através da IA, os seus eleitores podem utilizá-la para os ouvir. O Google lançou serviços de tradução gratuitos para mais 110 idiomas neste verão, disponíveis para bilhões de pessoas em tempo real através de seus smartphones.

Outros candidatos usaram os recursos de conversação da IA ​​para se conectar com os eleitores. Os políticos norte-americanos Asa Hutchinson, Dean Phillips e Francis Suarez implantaram chatbots deles mesmos em suas campanhas primárias presidenciais. O candidato marginal Jason Palmer venceu Joe Biden nas primárias da Samoa Americana, pelo menos em parte graças ao uso de e-mails, textos, áudio e vídeo gerados por IA. O ex-primeiro-ministro do Paquistão, Imran Khan, usou um clone de IA de sua voz para fazer discursos na prisão.

Talvez a utilização mais eficaz desta tecnologia tenha sido no Japão, onde um candidato obscuro e independente ao governo de Tóquio, Takahiro Anno, utilizou um avatar de IA para responder a 8.600 perguntas dos eleitores e conseguiu ficar em quinto lugar entre um campo altamente competitivo de 56 candidatos.

‘AI Steve’ foi uma personalidade de IA que concorreu às eleições de 2024 no Reino Unido.

Porcas e parafusos

As IAs também têm sido usadas na arrecadação de fundos políticos. Empresas como Quiller e Tech for Campaigns comercializam IAs para ajudar a redigir e-mails de arrecadação de fundos. Outros sistemas de IA ajudam os candidatos a atingir doadores específicos com mensagens personalizadas. É notoriamente difícil medir o impacto deste tipo de ferramentas, e os consultores políticos são cautelosos sobre o que realmente funciona, mas há claramente interesse em continuar a utilizar estas tecnologias na angariação de fundos para campanhas.

As pesquisas têm sido altamente matemáticas há décadas e os pesquisadores estão constantemente incorporando novas tecnologias em seus processos. As técnicas vão desde a utilização da IA ​​para extrair o sentimento dos eleitores das plataformas de redes sociais – algo conhecido como “escuta social” – até à criação de eleitores sintéticos que podem responder a dezenas de milhares de perguntas. Resta saber se estas aplicações de IA resultarão em sondagens mais precisas e em insights estratégicos para as campanhas, mas há investigação promissora motivada pelo desafio cada vez maior de alcançar seres humanos reais com inquéritos.

Do lado da organização política, os assistentes de IA estão a ser utilizados para fins tão diversos como ajudar a elaborar mensagens e estratégias políticas, gerar anúncios, redigir discursos e ajudar a coordenar esforços de angariação de votos e obtenção de votos. Na Argentina, em 2023, os dois principais candidatos presidenciais usaram IA para desenvolver cartazes de campanha, vídeos e outros materiais.

Em 2024, capacidades semelhantes foram quase certamente utilizadas numa variedade de eleições em todo o mundo. Nos EUA, por exemplo, um político da Geórgia utilizou IA para produzir publicações em blogs, imagens de campanha e podcasts. Até mesmo pacotes de software de produtividade padrão, como os da Adobe, Microsoft e Google, agora integram recursos de IA que são inevitáveis ​​– e talvez muito úteis para campanhas. Outros sistemas de IA ajudam a aconselhar os candidatos que procuram concorrer a cargos mais elevados.

Falsificações e falsificações

E houve desinformação e propaganda criadas pela IA, embora não tenham sido tão catastróficas como se temia. Dias antes das eleições na Eslováquia em 2023, um áudio falso discutindo a manipulação eleitoral se tornou viral. Esse tipo de coisa aconteceu muitas vezes em 2024, mas não está claro se alguma delas teve algum efeito real.

Na eleição presidencial dos EUA, houve muita imprensa depois que uma chamada automática de uma voz falsa de Joe Biden disse aos eleitores de New Hampshire para não votarem nas primárias democratas, mas isso não pareceu fazer muita diferença naquela votação. Da mesma forma, as imagens geradas por IA de áreas de desastre de furacões não pareceram ter muito efeito, nem uma série de endossos de celebridades falsificados por IA ou imagens e vídeos virais falsos que deturpam as ações dos candidatos e aparentemente concebidos para se aproveitar das suas fraquezas políticas.

Os serviços de inteligência russos pretendiam usar a IA para influenciar os eleitores dos EUA, mas não está claro se tiveram muito sucesso.

A IA também desempenhou um papel na proteção do ecossistema de informação. A OpenAI usou seus próprios modelos de IA para interromper uma operação de influência estrangeira iraniana que visava semear a divisão antes das eleições presidenciais dos EUA. Embora hoje qualquer pessoa possa usar ferramentas de IA para gerar áudio, imagens e textos falsos e convincentes, e essa capacidade veio para ficar, as plataformas tecnológicas também usam IA para moderar automaticamente conteúdos como discurso de ódio e extremismo. Este é um caso de uso positivo, tornando a moderação de conteúdo mais eficiente e evitando que os humanos tenham que analisar as piores ofensas, mas há espaço para que se torne mais eficaz, mais transparente e mais equitativo.

Existe potencial para que os modelos de IA sejam muito mais escaláveis ​​e adaptáveis ​​a mais línguas e países do que organizações de moderadores humanos. Mas as implementações até agora em plataformas como a Meta demonstram que é necessário muito mais trabalho para tornar estes sistemas justos e eficazes.

Uma coisa que não importou muito em 2024 foram as proibições dos desenvolvedores corporativos de IA de usar suas ferramentas para fins políticos. Apesar da ênfase da líder de mercado OpenAI na proibição de usos políticos e no uso de IA para rejeitar automaticamente um quarto de milhão de solicitações para gerar imagens de candidatos políticos, a aplicação da empresa tem sido ineficaz e o uso real é generalizado.

O gênio está solto

Todas estas tendências – boas e más – provavelmente continuarão. À medida que a IA se torna mais poderosa e capaz, é provável que se infiltre em todos os aspectos da política. Isto acontecerá quer o desempenho da IA ​​seja sobre-humano ou abaixo do ideal, quer cometa erros ou não, e quer o equilíbrio da sua utilização seja positivo ou negativo. Basta que um partido, uma campanha, um grupo externo ou mesmo um indivíduo vejam uma vantagem na automação.A conversa

Bruce Schneier, professor adjunto em políticas públicas, Escola Kennedy de Harvard e Nathan Sanders, afiliado do Berkman Klein Center for Internet & Society, Universidade de Harvard

Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.