Foi uma grande surpresa quando Adam Selipsky deixou o cargo de CEO da unidade de computação em nuvem AWS da Amazon. O que talvez tenha sido igualmente surpreendente foi que Matt Garman o sucedeu. Garman ingressou na Amazon como estagiário em 2005 e tornou-se funcionário em tempo integral em 2006, trabalhando nos primeiros produtos da AWS. Poucas pessoas conhecem o negócio melhor do que Garman, cujo último cargo antes de se tornar CEO foi como vice-presidente sênior de vendas, marketing e serviços globais da AWS.
Garman me disse em uma entrevista na semana passada que ainda não fez grandes mudanças na organização. “Nem muita coisa mudou na organização. O negócio está indo muito bem, então não há necessidade de fazer uma grande mudança em nada em que estamos focados”, disse ele. No entanto, ele apontou algumas áreas onde acha que a empresa precisa se concentrar e onde vê oportunidades para a AWS.
Reenfatizar startups e inovação rápida
Uma delas, surpreendentemente, são as startups. “Acho que à medida que evoluímos como organização. … No início da vida da AWS, nos concentramos muito em como realmente atraímos desenvolvedores e startups, e obtivemos muita força inicial nisso”, explicou ele. “E então começámos a analisar como apelamos às grandes empresas, como apelamos aos governos, como apelamos aos setores regulamentados em todo o mundo? E acho que uma das coisas que acabei de enfatizar novamente – não é realmente uma mudança – mas apenas enfatizo que não podemos perder o foco nas startups e nos desenvolvedores. Temos que fazer todas essas coisas.”
A outra área na qual ele deseja que a equipe se concentre é acompanhar o turbilhão de mudanças no setor no momento.
“Tenho realmente enfatizado com a equipe o quão importante é para nós continuarmos a não descansar na liderança que temos em relação ao conjunto de serviços e capacidades e recursos e funções que temos hoje – e continuar a inclinar-nos para frente e construir esse roteiro de inovação real”, disse ele. “Acho que o motivo pelo qual os clientes usam a AWS hoje é porque temos o melhor e mais amplo conjunto de serviços. A razão pela qual as pessoas confiam em nós hoje é porque continuamos a ter, de longe, a melhor segurança e desempenho operacional do setor, e nós as ajudamos a inovar e a avançar mais rapidamente. E temos que continuar avançando nesse roteiro de coisas a fazer. Não é realmente uma mudança, por si só, mas é o que provavelmente mais enfatizei: quão importante é para nós mantermos esse nível de inovação e a velocidade com que estamos entregando.”
Quando perguntei se ele achava que talvez a empresa não tivesse inovado com rapidez suficiente no passado, ele argumentou que não. “Acho que o ritmo da inovação só vai acelerar e, portanto, é apenas uma ênfase que temos de acelerar também o nosso ritmo de inovação. Não é que estejamos perdendo o controle; é apenas a ênfase em quanto precisamos continuar acelerando com o ritmo da tecnologia que está por aí.”
IA generativa na AWS
Com o advento da IA generativa e a rapidez com que as tecnologias estão mudando agora, a AWS também precisa estar “na vanguarda de cada uma delas”, disse ele.
Pouco depois do lançamento do ChatGPT, muitos especialistas questionaram se a AWS demorou muito para lançar ferramentas generativas de IA e deixou uma abertura para seus concorrentes como Google Cloud e Microsoft Azure. Mas Garman acha que isso foi mais percepção do que realidade. Ele observou que a AWS há muito oferecia serviços de aprendizado de máquina bem-sucedidos, como o SageMaker, mesmo antes de a IA generativa se tornar uma palavra da moda. Ele também observou que a empresa adotou uma abordagem mais deliberada em relação à IA generativa do que talvez alguns de seus concorrentes.
“Estávamos analisando a IA generativa antes de ela se tornar algo amplamente aceito, mas direi que quando o ChatGPT foi lançado, houve uma espécie de descoberta de uma nova área, de maneiras pelas quais essa tecnologia poderia ser aplicada. E acho que todo mundo ficou animado e energizado com isso, certo? … Acho que um monte de gente – nossos concorrentes – correu para colocar os chatbots no topo de tudo e mostrar que estavam na liderança da IA generativa”, disse ele.
Em vez disso, disse Garman, a equipe da AWS queria dar um passo atrás e ver como seus clientes, sejam startups ou empresas, poderiam integrar melhor essa tecnologia em seus aplicativos e usar seus próprios dados diferenciados para fazer isso. “Eles vão querer uma plataforma na qual possam realmente ter flexibilidade para construir e realmente pensar nela como uma plataforma de construção, em vez de um aplicativo que eles vão adaptar. E então dedicamos um tempo para construir essa plataforma”, disse ele.
Para a AWS, essa plataforma é a Bedrock, onde oferece acesso a uma ampla variedade de modelos abertos e proprietários. Simplesmente fazer isso – e permitir que os usuários encadeassem diferentes modelos – foi um pouco controverso na época, disse ele. “Mas para nós, pensávamos que era provavelmente para lá que o mundo iria, e agora é uma conclusão precipitada que é para lá que o mundo vai”, disse ele. Ele disse que acha que todos vão querer modelos customizados e trazer seus próprios dados para eles.
Bedrock, disse Garman, está “crescendo como uma erva daninha agora”.
Um problema em torno da IA generativa que ele ainda quer resolver é o preço. “Muito disso está dobrando nosso silício personalizado e algumas outras mudanças de modelo, a fim de tornar a inferência de que você incorporará (algo) em seus aplicativos muito mais acessível.”
A próxima geração de chips Trainium personalizados da AWS, que a empresa estreou em sua conferência re:Invent no final de 2023, será lançada no final deste ano, disse Garman. “Estou muito entusiasmado por podermos realmente inverter essa curva de custos e começar a entregar valor real aos clientes.”
Uma área em que a AWS nem sequer tentou competir com alguns dos outros gigantes da tecnologia é na construção de seus próprios grandes modelos de linguagem. Quando perguntei a Garman sobre isso, ele observou que ainda é algo em que a empresa está “muito focada”. Ele acha que é importante para a AWS ter modelos próprios, ao mesmo tempo que continua a se apoiar em modelos de terceiros. Mas ele também quer garantir que os próprios modelos da AWS possam agregar valor e diferenciação exclusivos, seja por meio do uso de seus próprios dados ou “por meio de outras áreas onde vemos oportunidades”.
Entre essas áreas de oportunidade estão os custos, mas também os agentes, sobre os quais todos na indústria parecem estar otimistas neste momento. “Ter modelos confiáveis, com um nível muito alto de correção, chamar outras APIs e fazer coisas, é uma área onde acho que há alguma inovação que pode ser feita”, disse Garman. Os agentes, diz ele, abrirão muito mais utilidade à IA generativa, automatizando processos em nome de seus usuários.
Q, um chatbot com tecnologia de IA
Em sua última conferência re:Invent, a AWS também lançou Q, seu assistente generativo baseado em IA. No momento, existem essencialmente dois tipos disso: Q Developer e Q Business.
Q Developer integra-se com muitos dos ambientes de desenvolvimento mais populares e, entre outras coisas, oferece autocompletar código e ferramentas para modernizar aplicativos Java legados.
“Nós realmente pensamos no Q Developer como um sentido mais amplo de realmente ajudar em todo o ciclo de vida do desenvolvedor”, disse Garman. “Acho que muitas das primeiras ferramentas para desenvolvedores estavam super focadas na codificação, e pensamos mais sobre como podemos ajudar em tudo que é doloroso e trabalhoso para os desenvolvedores?”
Na Amazon, as equipes usaram o Q Developer para atualizar 30.000 aplicativos Java, economizando US$ 260 milhões e 4.500 anos de desenvolvedor no processo, disse Garman.
Q Business usa tecnologias semelhantes nos bastidores, mas seu foco está na agregação de dados internos da empresa de uma ampla variedade de fontes e em torná-los pesquisáveis por meio de um serviço de perguntas e respostas semelhante ao ChatGPT. A empresa está “vendo alguma tração real lá”, disse Garman.
Encerrando serviços
Embora Garman tenha notado que pouco mudou sob sua liderança, uma coisa que aconteceu recentemente na AWS é que a empresa anunciou planos para encerrar alguns de seus serviços. Isso não é algo que a AWS tradicionalmente faz com tanta frequência, mas neste verão anunciou planos para fechar serviços como seu IDE Cloud9 baseado na web, seu concorrente CodeCommit GitHub, CloudSearch e outros.
“É uma espécie de limpeza, onde olhamos para um monte desses serviços, onde, francamente, lançamos um serviço melhor para o qual as pessoas deveriam migrar, ou lançamos um que simplesmente não fizemos. acertar”, explicou ele. “E, a propósito, há alguns deles que simplesmente não acertamos e a tração deles era bem leve. Nós olhamos para ele e dissemos: 'Quer saber? Na verdade, o ecossistema de parceiros tem uma solução melhor e vamos nos apoiar nisso”. Você não pode investir em tudo. Você não pode construir tudo. Não gostamos de fazer isso. Levamos isso a sério se as empresas apostarem seus negócios em nós, apoiando coisas no longo prazo. E por isso temos muito cuidado com isso.”
AWS e o ecossistema de código aberto
Um relacionamento que há muito tem sido difícil para a AWS — ou pelo menos considerado difícil — é com o ecossistema de código aberto. Isso está mudando e, há apenas algumas semanas, a AWS trouxe seu código OpenSearch para a Linux Foundation e para a recém-formada OpenSearch Foundation.
“Acho que nossa visão é bastante direta”, disse Garman quando perguntei como ele pensa sobre o futuro do relacionamento entre a AWS e o código aberto. “Adoramos o código aberto. Nós nos inclinamos para o código aberto. Acho que tentamos tirar proveito da comunidade de código aberto e ser um grande contribuidor para a comunidade de código aberto. Acho que esse é o objetivo do código aberto – beneficiar a comunidade – e é isso que levamos a sério.”
Ele observou que a AWS fez investimentos importantes em código aberto e abriu muitos de seus próprios projetos.
“A maior parte do atrito vem de empresas que originalmente iniciaram projetos de código aberto e depois decidiram não abri-los, o que eu acho que é seu direito fazer. Mas você sabe, esse não é realmente o espírito do código aberto. E sempre que vemos pessoas fazendo isso, tomemos o Elastic como exemplo, e o OpenSearch (fork do ElasticSearch da AWS) tem se tornado bastante popular. … Se houver um projeto Linux (Foundation) ou um projeto Apache ou qualquer coisa em que possamos nos apoiar, queremos nos apoiar; nós contribuímos para eles. Acho que evoluímos e aprendemos como organização como ser um bom administrador naquela comunidade e espero que isso tenha sido notado por outros.”