Ria Cheruvu esteve à frente da curva durante a maior parte de sua vida. Depois de se formar no ensino médio no Arizona com apenas 11 anos, a estudante considerada prodígio se tornou uma das pessoas mais jovens a se formar em Harvard. Seu histórico universitário é uma maravilha para muitos.
Após um período estudando neurobiologia e durante a conclusão de seu primeiro curso de ciência da computação, Cheruvu foi contratada para a equipe de ética da Intel – antes do boom da IA que logo atingiria os mercados de massa, e anos antes de a frase se tornar uma expressão familiar. Na época de sua contratação, Cheruvu tinha apenas 14 anos. Nos anos desde que ingressou na gigante da tecnologia e se formou na Ivy League, ela se tornou uma referência no desenvolvimento responsável de IA, reforçando seu currículo com múltiplas patentes de IA, um mestrado em ciência de dados pela sua alma mater após um estágio em neurociência na Yale e vários créditos de ensino para cursos digitais sobre ética em IA. Ela também está fazendo doutorado, porque… por que não?
Hoje, como um dos arquitetos e “evangelistas” de IA da Intel – sim, essa é a palavra real – o jovem de 20 anos está na vanguarda de um dos tópicos mais quentes do mundo: como podemos avançar com esta tecnologia e como podemos ser feito de uma forma que garanta que pessoas reais permaneçam em sua essência?
Sua presença é algo raro em um setor agora esmagado por investidores de capital, interesses comerciais e autoproclamados “disruptores” tecnológicos. Mas a sua idade é mais um benefício do que um obstáculo, uma vez que o futuro da IA será em breve colocado nas mãos da próxima geração de tecnólogos e utilizadores – os seus pares – e muitos deles já estão a abraçar a integração complexa da IA generativa em suas vidas diárias.
Cheruvu conversou com Mashable sobre sua carreira agora estabelecida no domínio de “AI for Good”, uma das poucas vozes jovens com assento à mesa enquanto o mundo enfrenta mudanças aceleradas.
Como a gamificação desencadeou a era da IA na tecnologia
Mashable: Suas realizações abrangem uma gama de campos científicos: ciência da computação, ciência de dados, neurociência. Por que você voltou sua atenção para a IA e para a Intel, especificamente?
Cheruvu: Depois de me formar em ciência da computação, eu estava procurando o próximo passo. Foi um ponto de viragem: entro na neurociência ou entro em algo que seja puramente relacionado à informática e à ciência de dados? Tive um breve interesse em IA.
Meus pais são engenheiros de software por formação e possuem mestrado em aplicações e tecnologia de computador. Na época, meu pai trabalhava na Intel Corporation. Na verdade, eu tinha participado de várias viagens de campo no ensino médio ao campus local. Candidatei-me e entrevistei três equipes diferentes em áreas diferentes. Um era matemática pura e IA, o outro era um pouco do lado da neurociência e o último era aprendizado profundo e hardware. Eventualmente, escolhi o terceiro time e fui aceito. A partir daí, evoluiu para uma jornada de seis anos de diferentes funções na Intel.
O setor teve tanta rotatividade, principalmente nos últimos anos, o que o manteve lá?
Já desempenhei tantas funções diferentes em áreas diferentes. Alguns deles têm sido puramente comerciais ou de tecnologia, outros são puramente de pesquisa e alguns fazem a ponte entre os dois. Fui líder de equipe e agora sou evangelista, orador e arquiteto. Estou voltando mais para funções de arquiteto técnico. Muitos pulos pelo mapa. Mas minha rede e a comunidade permaneceram fiéis, o que me incentiva a continuar trabalhando na Intel e também na indústria de IA.
Acho muito raro ouvir falar de uma pessoa tão jovem como você sendo tão integrada no desenvolvimento ético da IA, não apenas no seu uso. Por que isso e não um aspecto diferente?
Tenho observado a IA ética há cerca de dois ou três anos, profissionalmente e pessoalmente. Do ponto de vista técnico, há muitas coisas a serem feitas: ferramentas técnicas, análises, métricas, garantia de qualidade, todas essas coisas divertidas. Do ponto de vista social, uma quantidade incrível de trabalho precisa ser feita em relação à privacidade, ao consentimento, ao preconceito e à discriminação algorítmica. Tem sido um turbilhão aprender sobre todos esses tópicos e depois tentar entender quais são práticos e quais parecem ser muito falados, e fazer reavaliações honestas.
Há uma necessidade crescente de vozes mais jovens e de oportunidades para que as gerações mais jovens possam avançar e começar a contribuir para estas tecnologias.
Minha mãe fez seu doutorado em metafísica e filosofia, então temos conversas muito profundas sobre IA e humanidade. Qual é exatamente a nossa ideia de consciência? Até onde a IA pode ir em termos de imitar os humanos? Qual é a nossa estrutura para ajudarmos uns aos outros?
E essas reflexões foram frutíferas? Então, como é realmente “AI for Good”? No momento, a frase “centrado no ser humano” está muito em voga, mas o que isso significa para o futuro?
As pessoas expostas à tecnologia e à tecnologia digital estão sendo expostas à IA em um ritmo cada vez mais rápido. A razão pela qual gravito em torno de estruturas “centradas no ser humano” é focar no fato de que a infraestrutura, a tecnologia, deve ser capaz de capacitar os usuários.
Velocidade da luz mashável
De acordo com os regulamentos e com as comunidades que construímos em torno deles, você deve ter o direito de controlar os dados que gera. Do lado técnico, deveríamos capacitar os desenvolvedores e criadores para que possam testar preconceitos e remover dados dos modelos. Não estamos treinando modelos de dados com dados para os quais não temos consentimento. Quando você é uma pessoa que trabalha com IA, presume-se que você esteja defendendo o desenvolvimento da IA. Mas há muitas áreas, pessoalmente, onde sinto que mais desenvolvimento de IA não faz sentido. Talvez seja algo que precise ser mais agilizado ou nas mãos de criadores e artistas.
Quando vemos muitas dessas tecnologias, como robôs e veículos autônomos, começando a surgir, como elas estão potencializando as experiências do usuário? Como estamos construindo confiança nesses relacionamentos?
Há alguns pesquisadores importantes que estão o especialistas no assunto nesta área. estou pensando em Fei Fei Li e Yejin Choi. Tem sido muito interessante ver como suas pesquisas e as pesquisas que saem de seus laboratórios e equipes foram conectadas a avanços ou saltos maiores na IA. Tenho usado essa pesquisa como um marcador para desmistificar o que está por vir (na indústria de IA).
Seu título é “evangelista”, que é um termo interessante para usar no desenvolvimento científico, mas essencialmente você é um comunicador público. Como você desempenha essa função em meio ao ataque violento da cobertura de IA?
Há muita pressão, há muito hype, colocado sobre determinados temas. É preciso muita vontade e determinação para superar isso e dizer o que é importante para mim, para minha comunidade, para a indústria, neste momento. Para focar no que realmente está motivando o prático impacto Quero comunicar e compartilhar com as pessoas coisas sobre as quais posso inspirá-las a serem otimistas. Também quero ser honesto sobre riscos e desafios. Em vez de bajular a verdade, seja direto. Como evangelista, alguém que é apaixonado por falar em público tanto quanto por programar, como é esse equilíbrio?
Houve um surgimento, ou um boom, de especialistas e evangelistas em IA neste espaço. Para não dizer nada direto sobre credenciais nem nada, mas todo mundo tem uma opinião sobre IA. Pessoalmente, tenho ouvido perspectivas que estão no setor há mais tempo. Essa sabedoria que está sendo transmitida é algo que gosto de explorar, ao contrário, talvez, de algumas das pessoas mais novas que estão formando algumas suposições rápidas.
Como você imagina que seus colegas se envolvam nessas conversas?
Penso que há uma necessidade crescente de vozes mais jovens e de oportunidades para que as gerações mais jovens possam avançar e começar a contribuir para estas tecnologias. Através do uso delas, (as tecnologias estão) sendo dominadas muito rapidamente.
E é importante trazer uma nova perspectiva para (design de IA). Não apenas consumindo a tecnologia, mas contribuindo para o seu desenvolvimento, podendo moldá-la de formas diferenciadas. Em vez de vê-lo como uma espécie de “disruptor” ou uma “bolha” que precisa ser explorada e levada ao limite, podemos trazê-lo de volta às aplicações onde pode ser mais útil.
Existem muitas oportunidades para contribuir. Poucas delas são tão reconhecidas como outras aplicações, em termos de prioridade, cobertura nos meios de comunicação social ou interesse público, mas conduzem definitivamente a um impacto muito mais significativo. Sempre há projetos maiores e temas maiores — como grandes modelos de linguagem — mas os aplicativos menores também fazem a diferença.
Desculpem usar um cliché, mas parece que a IA é mais uma “herança global” que iremos transmitir às gerações mais jovens, tal como fizemos com a nossa actual crise climática.
Eu estava lendo recentemente essa citação sobre ser capaz de deixar o mundo para trás um pouco melhor do que você o encontrou inicialmente. Num contexto geracional, precisamos de continuar a ter conversas sobre isto, especialmente com os algoritmos de IA que estão perto de nós, sejam as redes sociais ou as aplicações que escrevem conteúdos para si. Você está sendo exposto a eles diariamente.
Na minha opinião, muitas pessoas sentem-se desconfortáveis com a pressão generalizada para utilizar a IA nas nossas vidas quotidianas, quando não compreendemos completamente o que está em jogo. Eles querem que as coisas desacelerem.
Sinto que as pessoas que trabalham com IA e aprendizado de máquina sabem disso muito bem, mas, por algum motivo, isso não prolifera fora dessa bolha. As pessoas que trabalham com IA sabem que devem ser muito, muito cautelosas ao ver uma ferramenta. Cauteloso no sentido de “não vou adotá-lo ou não vou usá-lo, a menos que ache que seja útil”. Mas quando se trata de (partes interessadas em IA) externamente, acho que é apenas uma espécie de exagero. Ironicamente, não é isso que você vê no círculo interno. Isso simplesmente é empurrado para nós.
“O tempo acabou” para regulamentar a IA, diz conselheiro da ONU
O que as atuais partes interessadas ou desenvolvedores devem à próxima geração de tecnólogos e usuários, incluindo você?
A interrupção do trabalho humano é um tema realmente importante, e estou pensando nos talentos e nas pessoas que desejam entrar no espaço da IA. Quando falamos sobre IA e essas tecnologias, é sempre: inovação rápida, rápida, avanço. Esses tipos de palavras e outras terminologias continuam sendo adicionados a uma pilha que torna ainda mais intimidante para as pessoas serem capazes de compreender e compreender verdadeiramente (IA). A própria “IA” é uma dessas palavras. O campo começou com “aprendizado profundo” e “aprendizado de máquina” e tem sido uma transição gradual. Vi meu cargo mudar de engenheiro de aprendizado profundo para arquiteto de IA. Eu também faço parte disso. Acho que pode haver uma oportunidade de tomar a IA como uma palavra da moda e decompô-la – e ainda podemos manter a palavra, o sentimento geral em torno dela.
Mas há um limite de responsabilidade que um usuário pode assumir. Os fornecedores, os promotores e os criadores de infra-estruturas também precisam de ser capazes de assumir essa responsabilidade. É claro que os regulamentos vêm ajudar a proteger os direitos dos indivíduos envolvidos até certo ponto.
Muitas pessoas podem não ter tempo para sentar e ler o compêndio completo do que precisam saber. Estou valorizando o conteúdo e as pessoas que dedicam um tempo para dividi-lo e dizer: “Você conseguiu. Isso é algo fácil. É assim que você contribui”. Não precisa ser um assunto assustador. É algo sobre o qual você pode expressar suas preocupações.
Tive muitas conversas nos últimos anos com pessoas brilhantes sobre IA inclusiva, democratização da IA e alfabetização em IA. Existem muitas maneiras diferentes de permitir esse empoderamento. Por exemplo, tem havido muitos esforços realmente grandes em programas de preparação digital dos quais tenho a honra de ter participado, frequentando faculdades comunitárias ou criando currículos de IA gratuitamente. Cerca de cinco milhões de pessoas que foram treinadas como parte dos programas de preparação digital da Intel. Precisamos de mais acessibilidade, mais tutoriais, mais conteúdo, mais interação individual, dizendo: “Sabe, isso é mais fácil do que você pensa. Você pode ser um profissional nesta área. Não é difícil começar. “