A fabricante de chips Nvidia obteve receita de US$ 30 bilhões no último trimestre fiscal, impulsionada em grande parte pela demanda insaciável da indústria de IA por GPUs. As GPUs são essenciais para treinar e executar modelos de IA; eles contêm milhares de núcleos que trabalham em paralelo para executar rapidamente as equações de álgebra linear que sustentam os modelos.
O apetite por IA continua alto e as GPUs da Nvidia se tornaram o chip preferido entre jogadores de IA de todos os tamanhos. Mas a TensorWave, uma empresa fundada no final do ano passado, está indo contra a corrente ao lançar uma nuvem que só oferece acesso ao hardware da rival da Nvidia, AMD, para cargas de trabalho de IA.
“Reconhecemos um monopólio prejudicial à saúde – que estava privando os usuários finais de acesso à computação e sufocando a inovação no espaço de IA”, disse Darrick Horton, CEO da TensorWave e um de seus cofundadores, ao TechCrunch. “Motivados pelo nosso desejo de democratizar a IA, decidimos fornecer uma alternativa viável e restaurar a concorrência e a escolha.”
Caminhos sinuosos
Pickleball inicialmente reuniu Horton com os outros dois cofundadores da TensorWave, Jeff Tatarchuk e Piotr Tomasik – ou pelo menos foi o que fez a bola rolar (desculpe o trocadilho).
Certo dia, depois de uma partida, Tomasik e Tatarchuk – amigos íntimos e parceiros de duplas de pickleball de longa data – convidaram Horton, um ex-colega de Tatarchuk, para se juntar a eles em seu bar favorito em Las Vegas.
“À medida que a conversa avançava, discutimos o controle monopolista da capacidade computacional da GPU, o que estava levando a restrições de fornecimento”, disse Horton. “Essa constatação levou à formação do TensorWave.”
Os três parceiros não se conheciam apenas por causa do pickleball.
Tatarchuk cofundou o fornecedor de nuvem VMAccel com Horton antes de vender outra startup, a desenvolvedora de CRM Lets Rolo, para a empresa de identidade digital LifeKey. Horton, que é bacharel em engenharia mecânica e física, já trabalhou na divisão de P&D Skunk Works da Lockheed Martin e foi cofundador da VaultMiner Technologies, uma empresa de mineração de criptografia e controladora corporativa da VMAccel.
Quanto a Tomasik, ele co-lançou Lets Rolo ao lado de Tatarchuk. (Tomasik também é cofundador do site de marketing influenciador Influential, que a empresa francesa de relações públicas Publicis adquiriu por US$ 500 milhões em julho.)
Então, o que fez três empreendedores com pouco conhecimento do cenário hiperescalador pensarem que poderiam competir com os titãs da indústria de IA? Tenacidade, basicamente.
“Acreditávamos que poderíamos resolver o problema de fornecimento de GPU”, disse Horton.
Vegas, Inc.
A TensorWave está sediada em Las Vegas, uma escolha incomum de cidade para uma startup de infraestrutura em nuvem. Mas Horton disse que a equipe gostou das probabilidades.
“Achávamos que Vegas tinha potencial para se tornar um ecossistema próspero de tecnologia e startups”, disse ele.
Essa previsão não está totalmente errada. De acordo com dados do Dealroom.co, Las Vegas abriga pouco mais de 600 startups que empregam mais de 11.000 pessoas, que atraíram mais de US$ 4 bilhões em investimentos em 2022.
Os custos e despesas gerais de energia também são mais baixos em Las Vegas do que em muitas das principais cidades dos EUA. E tanto Tomasik quanto Tatarchuk têm laços estreitos com a comunidade de capital de risco da cidade.
Tomasik foi anteriormente GP do fundo inicial 1864 Fund, com sede em Las Vegas, e agora trabalha com as aceleradoras sem fins lucrativos StartUp Vegas e Vegas Tech Ventures. (Estranhamente, o site da Vegas Tech Ventures lançou um 404 para as páginas que listam seus parceiros e empresas do portfólio; um porta-voz disse que foi um erro técnico e seria corrigido.) Tatarchuk é um investidor anjo da Fruition Lab, uma incubadora de Vegas que prefere incomumente começou como uma organização religiosa cristã.
Essas conexões – junto com as de Horton – ajudaram a inicializar o TensorWave para se tornar uma das primeiras nuvens a comercializar com instâncias AMD Instinct MI300X para cargas de trabalho de IA. Fornecendo configurações com armazenamento dedicado e interconexões de alta velocidade mediante solicitação, o TensorWave aluga capacidade de GPU por hora e exige um contrato mínimo de seis meses.
“No espaço da nuvem como um todo, estamos em boa companhia”, disse Horton. “Nós nos vemos como complementares, oferecendo computação adicional específica para IA a um preço/desempenho competitivo.”
AMD avançado
Há um mercado em expansão para startups que criam nuvens de baixo custo, sob demanda e alimentadas por GPU para IA.
CoreWeave, o provedor de infraestrutura de GPU que começou como uma operação de mineração de criptografia, levantou recentemente US$ 1,1 bilhão em novos fundos (e US$ 7,5 bilhões em dívidas) e assinou um acordo de capacidade multibilionário com a Microsoft. A Lambda Labs garantiu no início de abril um veículo de financiamento para fins especiais de até US$ 500 milhões e está buscando US$ 800 milhões adicionais. A organização sem fins lucrativos Voltage Park, apoiada pelo cripto bilionário Jed McCaleb, anunciou em outubro passado que está investindo US$ 500 milhões em data centers apoiados por GPU. E a Together AI, um host de GPU em nuvem que também conduz pesquisas generativas de IA, arrecadou em março US$ 106 milhões em uma rodada liderada pela Salesforce.
Então, como o TensorWave espera competir?
Primeiro, no preço. Horton observa que o MI300X é significativamente mais barato do que a GPU mais popular da Nvidia para cargas de trabalho de IA atualmente, o H100, e que isso permite que o TensorWave repasse as economias aos clientes. Ele não revelou o preço exato das instâncias do TensorWave. Mas para vencer os planos mais competitivos do H100, teria que custar cerca de US$ 2,50 por hora – um feito desafiador, mas não inconcebível.
“Os preços variam de aproximadamente US$ 1 a US$ 10 por hora, dependendo dos requisitos personalizados da carga de trabalho e das configurações de GPU escolhidas”, disse Horton. “Quanto ao custo por instância incorrido pelo TensorWave, não podemos compartilhar esses detalhes devido a acordos de confidencialidade.”
Em segundo lugar, no desempenho. Horton aponta benchmarks que mostram o MI300X superando o H100 quando se trata de executar (mas não treinar) modelos de IA, especificamente modelos de geração de texto como o Llama 2 da Meta. (Outras avaliações sugerem que a vantagem pode depender da carga de trabalho.)
Parece haver alguma credibilidade nas afirmações de Horton, dado o interesse dos impulsionadores e agitadores da indústria de tecnologia no MI300X. A Meta disse em dezembro que usará chips MI300X para casos de uso como executar seu assistente Meta AI, enquanto a OpenAI, fabricante do ChatGPT, planeja oferecer suporte ao MI300X em suas ferramentas de desenvolvedor.
A competição
Outros que apostam nos chips de IA da AMD vão desde startups como Lamini e Nscale até provedores de nuvem maiores e mais consolidados, como Azure e Oracle. (Google Cloud e AWS continuam não convencidos da competitividade da AMD.)
Trabalhando a favor de todos esses fornecedores agora está a contínua escassez de GPUs da Nvidia e o atraso do próximo chip Blackwell da Nvidia. Mas a escassez poderá diminuir em breve com um aumento na fabricação de componentes críticos de chips, em particular memória. E isso poderia permitir à Nvidia aumentar as remessas do H200, o sucessor do H100, que apresenta desempenho dramaticamente melhorado.
Outro dilema existencial para as nuvens iniciantes que apostam no hardware AMD é colmatar os fossos competitivos que a Nvidia construiu em torno dos chips de IA. O software de desenvolvimento da Nvidia é percebido como mais maduro e mais fácil de usar do que o da AMD – e é amplamente implantado. A própria CEO da AMD, Lisa Su, admitiu que “dá trabalho” adotar a AMD.
No horizonte distante, competir em preços pode se tornar um desafio no futuro, à medida que os hiperscaladores aumentam seus investimentos em hardware personalizado para executar e treinar modelos. O Google oferece suas TPUs; A Microsoft revelou recentemente dois chips personalizados, Azure Maia e Azure Cobalt; e a AWS tem Trainium, Inferentia e Graviton.
“À medida que os desenvolvedores buscam alternativas que possam lidar efetivamente com suas cargas de trabalho de IA, especialmente com o aumento das demandas de memória e desempenho, juntamente com problemas contínuos de produção que causam atrasos, a AMD manterá a superioridade por ainda mais tempo, desempenhando um papel fundamental na democratização da computação na era da IA. ”, disse Horton.
Demanda antecipada
A TensorWave começou a integrar clientes no final desta primavera, em versão prévia. Mas já está gerando US$ 3 milhões em receitas recorrentes anuais, diz Horton. Ele espera que esse número chegue a US$ 25 milhões até o final do ano – um salto de 8 vezes – assim que o TensorWave aumentar a capacidade para 20.000 MI300Xs.
Supondo US$ 15.000 por GPU, 20.000 MI300Xs equivaleriam a um investimento de US$ 300 milhões – mas Horton afirma que a taxa de consumo do TensorWave está “bem dentro dos níveis sustentáveis”. A TensorWave disse anteriormente ao The Register que usaria suas GPUs como garantia para uma grande rodada de financiamento de dívida, uma abordagem empregada por outras operadoras de data center, incluindo CoreWeave; Horton diz que esse ainda é o plano.
“Isso reflete nossa forte saúde financeira”, continuou ele. “Estamos estrategicamente posicionados para enfrentar possíveis ventos contrários, entregando valor onde ele é mais necessário.”
Perguntei a Horton quantos clientes o TensorWave tem hoje. Ele se recusou a responder devido à “confidencialidade”, mas destacou as parcerias anunciadas publicamente da TensorWave com o provedor de backbone de rede Edgecore Networks e MK1, uma startup de inferência de IA fundada por ex-engenheiros da Neuralink.
“Estamos expandindo rapidamente nossa capacidade, com vários nós disponíveis, e aumentando continuamente a capacidade para atender às crescentes demandas de nosso pipeline”, disse Horton, acrescentando que a TensorWave planeja trazer as GPUs MI325X de próxima geração da AMD, que estão programadas para ser lançado no quarto trimestre de 2024, online já em novembro/dezembro.
Os investidores parecem satisfeitos com a trajetória de crescimento da TensorWave até agora. O vice-presidente da Nexus revelou na quarta-feira que liderou uma rodada de US$ 43 milhões na empresa, que também contou com a participação de Maverick Capital, StartupNV, Translink Capital e AMD Ventures.
A parcela – a primeira da TensorWave – avalia a startup em US$ 100 milhões pós-dinheiro.
“A AMD Ventures compartilha a visão da TensorWave de transformar a infraestrutura de computação de IA”, disse o vice-presidente sênior da AMD Ventures, Matthew Hein, em um comunicado. “A implantação do AMD Instinct MI300X e a capacidade de oferecer instâncias públicas para clientes e desenvolvedores de IA os posicionam como um dos primeiros concorrentes no espaço de IA, e estamos entusiasmados em apoiar seu crescimento por meio desta última rodada de financiamento.”