Samsung e Google estão trabalhando em um headset VR de realidade mista semelhante ao Apple Vision Pro rodando Android XR e Google Gemini. Já sabíamos disso e até conseguimos uma demonstração no ano passado. Mas a Samsung também revelou um pouco mais em seu evento de inverno Samsung Unpacked, focado em telefones, especificamente, uma parceria comum do ecossistema de IA Google-Samsung que poderia ser a peça que faltava para unir tudo isso. Essa experiência com IA estará em um headset VR/AR de última geração este ano, mas espera-se que também funcione no Galáxia S25 telefone e óculos que serão conectados a eles.
De certa forma, já tive uma prévia do que o futuro reserva no final do ano passado.
Essa história faz parte Evento Samsung a coleção de notícias, dicas e conselhos da CNET sobre os produtos mais populares da Samsung.
Uma IA visual que funciona em tempo real
A Samsung abordou brevemente os próximos fones de ouvido e óculos VR/AR em seu último evento Unpacked, mas já sabíamos sobre eles. Ainda assim, a demonstração da Samsung de IA em tempo real que pode ver coisas no seu telefone ou através de câmeras é exatamente a tendência que esperavam chegar em 2025.
O Projeto Moohan (que significa “Infinito” em coreano) é um headset VR com câmeras passthrough que misturam o virtual e o real, assim como o Vision Pro ou Missão 3 do Meta. O design parece muito com o descontinuado do Meta Missão Profissional mas com especificações muito melhores. O fone de ouvido possui rastreamento de mãos e olhos, executa aplicativos Android por meio de um sistema operacional Android XR que será totalmente revelado ainda este ano e usa Google Gemini AI como uma camada de assistência. do Google Projeto Astra tecnologia, que permite assistência em tempo real em óculos, telefones e fones de ouvido, está estreando na série de telefones Galaxy S25 da Samsung. Mas eu já vi isso em ação no meu rosto.
Minhas demonstrações do ano passado me permitiram usar o Gemini para me ajudar enquanto eu olhava ao redor de uma sala, assistia a vídeos no YouTube ou fazia basicamente qualquer outra coisa. O Live AI precisava ser iniciado nesse modo ao vivo para usá-lo, após o qual ele poderia ver e ouvir o que eu estava vendo ou ouvindo. Também havia modos de pausa para interromper temporariamente a assistência ao vivo.
A Samsung exibiu o que parecem ser funções semelhantes de IA em tempo real nos telefones Galaxy S25, e mais foi prometido. Espero que funcione enquanto assiste a vídeos no YouTube, assim como fez minha demonstração do Android XR. E de acordo com os executivos da Samsung e do Google que trabalham no Android XR, ele poderia até ser usado para ajuda ao vivo durante os jogos.
Melhor duração da bateria e processamento…para óculos?
Samsung e Google também confirmaram que estão trabalhando em óculos inteligentes, também usando Gemini AI, para competir com Ray-Bans da Meta e uma onda de outros óculos emergentes. Os óculos AR também estão aparentemente em desenvolvimento.
Embora o Projeto Moohan seja um fone de ouvido VR independente com bateria e processadores próprios, assim como o Vision Pro da Apple, os óculos inteligentes menores nos quais o Google e a Samsung estão trabalhando – e quaisquer óculos posteriores – dependerão de conexões e assistência de processamento de telefones. para trabalhar. É assim que óculos inteligentes como os Ray-Bans da Meta já funcionam.
Mas, talvez, com mais recursos signifique a necessidade de um processamento telefônico mais intensivo. A IA ao vivo pode começar a se tornar um recurso cada vez mais usado, contando com os telefones para trabalhar continuamente para auxiliar esses óculos. O melhor processamento, gráficos e, o mais importante, maior vida útil da bateria e resfriamento me pareceram maneiras de tornar esses telefones melhores computadores de bolso para eventuais óculos.
Um conjunto de dados pessoais que esses gadgets de IA precisarão
A Samsung também anunciou um mecanismo de dados pessoais de aparência obscura, do qual o Google e a IA da Samsung aproveitarão, agrupando os dados pessoais em um lugar onde a IA poderia desenvolver conclusões e conexões mais ricas para todas as coisas que fazem parte da sua vida.
Como isso acontece ou é garantido, ou onde estão seus limites, era extremamente obscuro. Mas parece um repositório de dados pessoais que a IA da Samsung e do Google pode treinar e trabalhar com produtos estendidos conectados, incluindo relógios, anéis e óculos.
Os wearables de IA habilitados para câmera são tão bons quanto os dados que podem auxiliá-los, e é por isso que muitos desses dispositivos agora parecem desajeitados e estranhos de usar, incluindo os Ray-Bans da Meta em seus modos de IA. Normalmente, esses dispositivos de IA atingem barreiras quando se trata de saber coisas que seus aplicativos existentes já sabem melhor. Google e Samsung estão claramente tentando consertar isso.
Vou querer confiar esse processo ao Google e à Samsung ou a qualquer outra pessoa? Como esses telefones e os futuros óculos tornarão a relação entre a IA e nossos dados mais clara e gerenciável? Parece que estamos vendo um sapato cair aqui, com outros chegando quando a conferência de desenvolvedores I/O do Google provavelmente discutirá o Android XR e os avanços do Gemini com muito mais profundidade.
A Samsung está fazendo do Project Moohan seu primeiro fone de ouvido, seguindo com óculos no futuro. Espere que o Google entre em mais detalhes junto com a Samsung na conferência Google I/O focada em desenvolvedores por volta de maio ou junho e possivelmente o resumo completo no verão no próximo evento Unpacked esperado da Samsung. Até então, poderemos saber muito mais sobre por que essa nova onda aparentemente enfadonha de telefones Galaxy S25 pode estar construindo uma infraestrutura que funcionará com detalhes mais claros até o final do ano… ou mesmo depois disso.