Sam Altman: Openai está do ‘lado errado da história’ sobre o código aberto

Para encerrar um dia de lançamentos de produtos, pesquisadores, engenheiros e executivos do OpenAI, incluindo o CEO da Openai, Sam Altman, respondeu a perguntas em uma ampla AMA do Reddit na sexta-feira.

Openai A empresa se encontra em uma posição precária. Está lutando contra a percepção de que é um campo de cedimento na corrida de IA para empresas chinesas como a Deepseek, que o Openai alega ter roubado seu IP. O fabricante de ChatGPT tem tentado melhorar seu relacionamento com Washington e, simultaneamente, buscar um ambicioso projeto de data center, enquanto supostamente estabeleceu as bases para uma das maiores rodadas de financiamento da história.

Altman admitiu que o Deepseek diminuiu a liderança do Openai na IA, e ele também disse que acredita que o Openai está “do lado errado da história” quando se trata de fonte aberta de suas tecnologias. Enquanto o OpenAI possui modelos de código aberto no passado, a empresa geralmente favorece uma abordagem proprietária de desenvolvimento de código fechado.

“(Pessoalmente, acho que precisamos) descobrir uma estratégia de código aberto diferente”, disse Altman. “Nem todo mundo no Openai compartilha essa visão, e também não é a nossa maior prioridade atual (…) produziremos melhores modelos (daqui para frente), mas manteremos menos liderança do que nos anos anteriores”.

Em uma resposta de acompanhamento, Kevin Weil, diretor de produtos da Openai, disse que o OpenAI está considerando mais modelos mais antigos que não são mais de última geração. “Definitivamente pensaremos em fazer mais disso”, disse ele, sem entrar em mais detalhes.

Além de solicitar o OpenAI a reconsiderar sua filosofia de lançamento, Altman disse que a Deepseek levou a empresa a potencialmente revelar mais sobre como seus chamados modelos de raciocínio, como o modelo O3-mini lançado hoje, mostram seu “processo de pensamento”. Atualmente, os modelos da OpenAI ocultam seu raciocínio, uma estratégia destinada a impedir que os concorrentes eliminem dados de treinamento para seus próprios modelos. Por outro lado, o modelo de raciocínio de Deepseek, R1, mostra sua cadeia completa de pensamento.

“Estamos trabalhando para mostrar um monte mais do que mostramos hoje – (mostrando o processo de pensamento do modelo) será muito em breve”, acrescentou Weil. “TBD em tudo – mostrando toda a cadeia de pensamento leva à destilação competitiva, mas também sabemos que as pessoas (pelo menos usuários de energia) querem, então encontraremos o caminho certo para equilibrá -lo.”

Altman e Weil tentaram dissipar os rumores de que o ChatGPT, a plataforma Chatbot, através da qual o OpenAI lança muitos de seus modelos, aumentaria o preço no futuro. Altman disse que gostaria de tornar o Chatgpt “mais barato” com o tempo, se viável.

Altman disse anteriormente que o OpenAI estava perdendo dinheiro com seu cargo de plano de chatgpt, Chatgpt Pro, que custa US $ 200 por mês.

Em um tópico um tanto relacionado, Weil disse que o OpenAI continua a ver evidências de que um poder de computação leva a modelos “melhores” e mais performantes. Isso é em grande parte o que está exigindo projetos como o Stargate, o projeto de data center, anunciado recentemente do Openai, disse Weil. Servir uma base crescente de usuários está alimentando a demanda de computação no OpenAI, ele continuou.

Questionado sobre o auto-aperfeiçoamento recursivo que pode ser ativado por esses modelos poderosos, Altman disse que acha que uma “decolagem rápida” é mais plausível do que ele acreditava uma vez. O auto-aperfeiçoamento recursivo é um processo em que um sistema de IA pode melhorar sua própria inteligência e capacidades sem a contribuição humana.

Claro, vale a pena notar que Altman é notório por prostituir demais. Não faz muito tempo, ele reduziu o Openai’s Bar para a AGI.

Um usuário do Reddit perguntou se os modelos do OpenAI, auto-improvante ou não, seriam usados ​​para desenvolver armas destrutivas-especificamente armas nucleares. Nesta semana, o Openai anunciou uma parceria com o governo dos EUA para dar seus modelos aos Laboratórios Nacionais dos EUA em parte para a pesquisa de defesa nuclear.

Weil disse que confiava no governo.

“Eu conheci esses cientistas e eles são especialistas da IA, além dos pesquisadores de classe mundial”, disse ele. “Eles entendem o poder e os limites dos modelos, e eu não acho que haja alguma chance de eles apenas YOLO algum modelo de saída em um cálculo nuclear. Eles são inteligentes e baseados em evidências e fazem muitas experimentações e dados funcionam para validar todo o seu trabalho. ”

A equipe do Openai recebeu várias perguntas de natureza mais técnica, como quando o próximo modelo de raciocínio do Openai, O3, será lançado (“mais de algumas semanas, menos de alguns meses”, disse Altman); Quando o próximo modelo “não raciocínio” da empresa, o GPT-5, pode pousar (“ainda não tem um cronograma”, disse Altman); E quando o OpenAI pode revelar um sucessor para o Dall-E 3, o modelo de geração de imagens da empresa. Dall-E 3, que foi lançado há cerca de dois anos, ficou muito tempo no dente. A tecnologia de geração de imagens melhorou aos trancos e barrancos desde a estréia do Dall-E 3, e o modelo não é mais competitivo em vários testes de referência.

“Sim! Estamos trabalhando nisso ”, disse Weil sobre um acompanhamento Dall-E 3. “E eu acho que valerá a pena esperar.”

Rolar para cima