Em seu discurso de abertura na Conferência Fusion Secure Open Source Software (SOSS) em Atlanta, o renomado especialista em segurança Bruce Schneier discutiu as promessas e ameaças da inteligência artificial (IA) para a segurança cibernética e a sociedade.
Schneier começou dizendo: “IA é uma palavra complicada. Quando penso em como as tecnologias substituem as pessoas, penso nelas como melhorias em uma ou mais das quatro dimensões: velocidade, escala, escopo e sofisticação. As IAs não são melhores em treinamento do que os humanos. Eles são apenas mais rápidos.” O que fica interessante é quando essa velocidade muda fundamentalmente as coisas.
Além disso: o modelo de IA mais recente da Anthropic pode usar um computador como você – com erros e tudo
Por exemplo, ele disse: “A negociação de alta frequência (HFT) não é apenas uma negociação mais rápida. É um tipo diferente de animal. É por isso que estamos preocupados com a IA, as mídias sociais e a democracia. O escopo e a escala dos agentes de IA são tão grandes que mudam a natureza das mídias sociais.” Por exemplo, os bots políticos de IA já estão a afectar as eleições nos EUA.
Outra preocupação levantada por Schneier é que as IAs cometem erros que não são como os cometidos pelas pessoas. “A IA cometerá erros mais sistemáticos”, alertou. “As IAs neste momento não têm a base de bom senso que os humanos têm.” Esta falta de bom senso pode levar a erros generalizados quando a IA é aplicada a processos críticos de tomada de decisão.
Além disso: a IA generativa não precisa ser um consumidor de energia, afinal
Isso não quer dizer que as IAs não possam ser úteis – elas podem ser. Schneier deu um exemplo: “A IA pode monitorar redes e fazer código-fonte e varredura de vulnerabilidades. Todas essas são áreas onde os humanos podem fazer isso, mas somos muito lentos para quando as coisas acontecem em tempo real. Mesmo que a IA pudesse fazer um trabalho medíocre revisar todo o código-fonte seria fenomenal e haveria muito trabalho em todas essas áreas.”
Especificamente, ele continuou: “Acho que veremos a IA fazendo o primeiro nível de triagem com questões de segurança. Vejo-os como assistentes forenses ajudando na análise de dados. Estamos obtendo muitos dados sobre os atores de ameaças e suas ações , e precisamos de alguém para examinar isso.”
Além disso: a melhor IA para codificação (e o que não usar)
Schneier sugeriu que a IA pode ajudar a preencher esta lacuna. Embora as IAs não possam substituir os especialistas humanos (pelo menos ainda não), elas podem ajudar: “As IAs podem se tornar nossos asseclas. Eles estão bem. Eles não são tão inteligentes. Mas podem tornar os humanos mais eficientes terceirizando alguns dos trabalho de burro.”
Quando se trata do uso de IA na segurança, Schneier disse: “Será uma corrida armamentista, mas inicialmente acho que os defensores serão melhores. Já estamos sendo atacados na velocidade do computador. A capacidade de defender na velocidade do computador será muito válido.”
Infelizmente, os sistemas de IA ainda têm um longo caminho a percorrer antes de poderem ajudar-nos de forma independente. Schneier disse que parte do problema é que “sabemos como os lacaios humanos cometem erros e temos milhares de anos de história lidando com erros humanos. Mas a IA comete diferentes tipos de erros e nossas intuições vão falhar, e precisamos para descobrir novas maneiras de auditar e revisar para garantir que os erros do tipo IA não prejudiquem nosso trabalho.”
Schneier disse que a má notícia é que somos péssimos em reconhecer erros de IA. No entanto, “vamos melhorar nisso, entendendo as limitações da IA e como nos proteger delas. Teremos uma análise muito melhor do que a IA é boa e quais decisões ela toma, e também veremos se ' estamos ajudando os humanos em vez de substituí-los. Procuraremos aumentar em vez de substituir as pessoas.
Além disso: a definição de IA de código aberto finalmente obtém seu primeiro candidato a lançamento – e um compromisso
Neste momento, “os incentivos económicos são para substituir os humanos por estas alternativas mais baratas”, mas muitas vezes essa não será a resposta certa. “Eventualmente, as empresas reconhecerão isso, mas muitas vezes, no momento, colocarão a IA no comando de tarefas que realmente não estão preparadas para realizar”.
Schneier também abordou a concentração do poder de desenvolvimento da IA nas mãos de algumas grandes corporações tecnológicas. Ele defendeu a criação de modelos de “IA pública” que sejam totalmente transparentes e desenvolvidos com benefício social e não com fins lucrativos. “Precisamos de modelos de IA que não sejam corporativos”, disse Schneier. “Minha esperança é que a era de queimar enormes pilhas de dinheiro para criar um modelo básico seja temporária.”
Olhando para o futuro, Schneier expressou um optimismo cauteloso sobre o potencial da IA para melhorar os processos democráticos e o envolvimento dos cidadãos com o governo. Ele destacou várias iniciativas sem fins lucrativos que trabalham para alavancar a IA para um melhor acesso e participação legislativa.
Além disso: as tendências tecnológicas do Gartner para 2025 mostram como sua empresa precisa se adaptar – e rapidamente
“Podemos construir um sistema para ajudar as pessoas a envolverem os seus legisladores e comentarem projetos de lei que lhes interessam?” Schneier perguntou. “A IA está desempenhando um papel nisso, tanto na tradução de idiomas, o que é uma grande vitória para a IA no resumo de projetos de lei, quanto no resumo dos comentários para que o sistema chegue ao legislador”.
À medida que a IA evolui rapidamente, Schneier disse que haverá uma necessidade crescente de um design de sistema e de quadros regulamentares criteriosos para mitigar os riscos e, ao mesmo tempo, aproveitar os benefícios da tecnologia. Não podemos confiar nas empresas para fazer isso. Os seus interesses não são os interesses do povo. À medida que a IA se integra em aspectos críticos da segurança e da sociedade, devemos abordar estas questões o mais cedo possível.