Mulheres na IA: Dra. Rebecca Portnoff está protegendo as crianças de deepfakes prejudiciais

Como parte da série Women in AI do TechCrunch, que busca dar às mulheres acadêmicas e outras pessoas focadas em IA seu merecido – e devido – tempo de destaque, o TechCrunch entrevistou a Dra. Rebecca Portnoff, que é vice-presidente de ciência de dados da a organização sem fins lucrativos Thorn, que desenvolve tecnologia para proteger crianças do abuso sexual.

Ela frequentou a Universidade de Princeton antes de receber seu doutorado em ciência da computação pela Universidade da Califórnia, Berkeley. Ela vem subindo na Thorn, onde trabalha desde 2016. Ela começou como pesquisadora voluntária e agora, oito anos depois, lidera uma equipe que é provavelmente uma das únicas no mundo dedicada à construção de máquinas. aprendizagem e inteligência artificial para parar, prevenir e defender as crianças do abuso sexual.

“Durante meu último ano em Princeton, enquanto eu pensava no que fazer após a formatura, minha irmã recomendou que eu lesse 'Half the Sky', de Nicholas Kristof e Sheryl WuDunn, que me apresentou ao tema do abuso sexual infantil”, disse ela ao TechCrunch , dizendo que o livro a inspirou a estudar como fazer a diferença neste espaço. Ela escreveu sua tese de doutorado focando especialmente no uso de aprendizado de máquina e IA neste espaço.

A missão de proteger as crianças

Na Thorn, a equipe de Portnoff ajuda a identificar vítimas, impedir a revitimização e prevenir a propagação viral de material de abuso sexual. Ela liderou a iniciativa conjunta Safety by Design da Thorn e All Tech Is Human no ano passado, que se esforça para evitar que as pessoas usem IA generativa para prejudicar sexualmente crianças.

“Foi um avanço tremendo, definir de forma colaborativa princípios e mitigações para evitar que modelos generativos produzam material de abuso, tornar esse material detectado de forma mais confiável e impedir a distribuição dos modelos, serviços e aplicativos que são usados ​​para produzir esse material de abuso, então alinhando os líderes da indústria para se comprometerem com esses padrões”, lembrou ela. Ela disse que conheceu muitas pessoas dedicadas à causa, “mas também tenho mais cabelos grisalhos do que no início de tudo”.

Usar a IA para criar imagens sexuais não consensuais tornou-se uma grande discussão, especialmente à medida que as gerações de pornografia com IA se tornam mais sofisticadas, como o TechCrunch relatou anteriormente. Atualmente, não existe nenhuma lei federal abrangente que proteja ou impeça imagens sexuais generativas de IA criadas de outras pessoas sem o seu consentimento, embora estados individuais, como Flórida, Louisiana e Novo México, tenham aprovado sua própria legislação para visar especificamente o abuso infantil de IA.

Na verdade, ela disse que esta é uma das questões mais urgentes que a IA enfrenta à medida que ela evolui. “Um em cada 10 menores relata que sabia de casos em que seus colegas geraram imagens nuas de outras crianças”, disse ela.

“Não temos que viver nesta realidade e é inaceitável que já tenhamos permitido que chegasse a este ponto.” Ela disse que há mitigações, no entanto, que podem ser implementadas para prevenir e reduzir esse uso indevido. Thorn, por exemplo, defende que as empresas tecnológicas adoptem os seus princípios e mitigações de segurança desde a concepção, e partilhem publicamente como estão a prevenir o uso indevido das suas tecnologias e produtos generativos de IA na promoção do abuso sexual infantil, colaborando com organizações profissionais como a Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) e o Instituto Nacional de Padrões e Tecnologia (NIST) para apoiar o estabelecimento de padrões para empresas que possam ser usados ​​para auditar o progresso, bem como envolver os formuladores de políticas para informá-los sobre a importância disso.

“Será necessária uma legislação baseada no impacto para envolver todas as empresas e partes interessadas”, disse ela.

Trabalhando como mulher em IA

À medida que subia na hierarquia na construção de IA, Portnoff lembra-se de pessoas que ignoraram o seu conselho, pedindo em vez disso para falar com alguém que tivesse formação técnica. “Minha resposta? 'Não se preocupe, você está conversando com alguém com formação técnica'”, disse ela.

Ela disse que algumas coisas a ajudaram a trabalhar em um campo tão dominado pelos homens: estar preparada, agir com confiança e assumir boas intenções. Estar preparada a ajuda a entrar nas salas com mais confiança, enquanto a confiança lhe permite enfrentar os desafios com curiosidade e ousadia, “procurando primeiro compreender e depois ser compreendida”, continuou ela.

“Assumir boas intenções me ajuda a enfrentar os desafios com gentileza, em vez de defensiva”, disse ela. “Se essa boa intenção realmente não existir, ela acabará aparecendo.”

Seu conselho para as mulheres que buscam ingressar na IA é sempre acreditar em sua capacidade e significado. Ela disse que é fácil cair na armadilha de deixar que as suposições que as pessoas têm sobre você definam seu potencial, mas que a voz de todos será necessária nesta atual revolução da IA.

“À medida que o BC/IA se torna mais integrado nos nossos sistemas humanos, todos nós precisamos de trabalhar juntos para garantir que isso é feito de uma forma que construa o nosso florescimento coletivo e priorize os mais vulneráveis ​​entre nós.”

Construindo IA ética

Portnoff disse que há muitas facetas na IA responsável, incluindo a necessidade de transparência, justiça, confiabilidade e segurança. “Mas todos eles têm uma coisa em comum”, ela continuou. “A construção responsável de ML/IA requer o envolvimento com mais partes interessadas do que apenas seus colegas tecnólogos.”

Isso significa escuta e colaboração mais ativas. “Se você está seguindo um roteiro para construir uma IA responsável e descobre que não conversou com ninguém fora de sua organização ou de sua equipe de engenharia durante o processo, provavelmente você está indo na direção errada.”

E, à medida que os investidores continuam a despejar milhares de milhões de dólares em startups de IA, Portnoff sugeriu que os investidores podem começar a olhar para a responsabilidade já na fase de due diligence, olhando para o compromisso de uma empresa com a ética antes de fazer um investimento, e depois exigindo que certos padrões sejam conheci. Isto pode “prevenir danos e permitir um crescimento positivo”.

“Há muito trabalho que precisa ser feito”, disse ela, falando de maneira geral. “E você pode ser o único a fazer isso acontecer.”

Rolar para cima
Pular para o conteúdo