Após meses de especulação, a Apple Intelligence assumiu o centro das atenções na WWDC 2024 em junho. A plataforma foi anunciada na sequência de uma torrente de notícias generativas sobre IA de empresas como Google e Open AI, causando preocupação de que o famoso gigante da tecnologia de boca fechada tenha perdido o barco na última moda tecnológica.
Ao contrário de tal especulação, no entanto, a Apple tinha uma equipe trabalhando no que provou ser uma abordagem muito Apple para a inteligência artificial. Ainda houve um toque especial em meio às demonstrações – a Apple sempre adora fazer um show – mas o Apple Intelligence é, em última análise, uma abordagem muito pragmática da categoria.
Apple Intelligence (sim, IA, para abreviar) não é um recurso independente. Em vez disso, trata-se de integração com ofertas existentes. Embora seja um exercício de branding num sentido muito real, a tecnologia orientada pelo modelo de linguagem grande (LLM) irá operar nos bastidores. Para o consumidor, a tecnologia se apresentará principalmente na forma de novos recursos para aplicativos existentes.
Aprendemos mais durante o evento iPhone 16 da Apple, realizado em 9 de setembro. Durante o evento, a Apple elogiou uma série de recursos alimentados por IA que chegarão a seus dispositivos, desde tradução no Apple Watch Series 10, pesquisa visual em iPhones e um uma série de ajustes nos recursos do Siri. A primeira onda do Apple Intelligence chegará no final de outubro, como parte do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Uma segunda onda de recursos está disponível como parte dos betas para desenvolvedores do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2.
Os recursos foram lançados primeiro em inglês dos EUA. Desde então, a Apple adicionou localizações para australiano, canadense, neozelandês, sul-africano e inglês do Reino Unido.
O suporte para chinês, inglês (Índia), inglês (Cingapura), francês, alemão, italiano, japonês, coreano, português, espanhol e vietnamita chegará em 2025. Notavelmente, os usuários na China e na UE podem não ter acesso a Recursos do Apple Intelligence, devido a obstáculos regulatórios.
O que é inteligência da Apple?
Os executivos de marketing de Cupertino chamaram a Apple Intelligence de “IA para o resto de nós”. A plataforma foi projetada para aproveitar as coisas que a IA generativa já faz bem, como geração de texto e imagem, para melhorar os recursos existentes. Como outras plataformas, incluindo ChatGPT e Google Gemini, a Apple Intelligence foi treinada em grandes modelos de informação. Esses sistemas utilizam aprendizado profundo para formar conexões, sejam elas texto, imagens, vídeo ou música.
A oferta de texto, desenvolvida pela LLM, apresenta-se como Ferramentas de Escrita. O recurso está disponível em vários aplicativos da Apple, incluindo Mail, Mensagens, Pages e Notificações. Ele pode ser usado para fornecer resumos de textos longos, revisar e até escrever mensagens para você, usando avisos de conteúdo e tom.
A geração de imagens também foi integrada, de maneira semelhante – embora de forma um pouco menos perfeita. Os usuários podem solicitar que o Apple Intelligence gere emojis personalizados (Genmojis) no estilo da Apple. Enquanto isso, o Image Playground é um aplicativo independente de geração de imagens que utiliza prompts para criar conteúdo visual que pode ser usado em Mensagens, Keynote ou compartilhado via mídia social.
A Apple Intelligence também marca uma tão esperada reforma da Siri. O assistente inteligente chegou cedo ao jogo, mas tem sido negligenciado nos últimos anos. A Siri está integrada muito mais profundamente nos sistemas operacionais da Apple; por exemplo, em vez do ícone familiar, os usuários verão uma luz brilhante ao redor da tela do iPhone quando ele estiver fazendo seu trabalho.
Mais importante ainda, o novo Siri funciona em vários aplicativos. Isso significa, por exemplo, que você pode pedir ao Siri para editar uma foto e depois inseri-la diretamente em uma mensagem de texto. É uma experiência sem atrito que faltava anteriormente ao assistente. O reconhecimento na tela significa que o Siri usa o contexto do conteúdo com o qual você está atualmente envolvido para fornecer uma resposta apropriada.
Quem recebe o Apple Intelligence e quando?
A primeira onda de Apple Intelligence chega em outubro por meio de atualizações do iOS 18.1, iPadOS 18. e macOS Sequoia 15.1. Isso inclui ferramentas de escrita integradas, limpeza de imagens, resumos de artigos e entrada de digitação para a experiência Siri redesenhada.
Muitos recursos restantes serão adicionados no próximo lançamento de outubro, como parte do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Uma segunda onda de recursos está disponível como parte do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2. Essa lista inclui Genmoji, Image Playground, Visual Intelligence, Image Wand e integração ChatGPT.
A oferta será de uso gratuito, desde que você tenha uma das seguintes peças de hardware:
- Todos os modelos do iPhone 16
- iPhone 15 Pro Máx. (A17 Pro)
- iPhone 15 Pro (A17 Pro)
- iPad Pro (M1 e posterior)
- iPad Air (M1 e posterior)
- iPad mini (A17 ou posterior)
- MacBook Air (M1 e posterior)
- MacBook Pro (M1 e posterior)
- iMac (M1 e posterior)
- Mac mini (M1 e posterior)
- Mac Studio (M1 Max e posterior)
- Mac Pro (M2 Ultra)
Notavelmente, apenas as versões Pro do iPhone 15 estão tendo acesso, devido a deficiências no chipset do modelo padrão. Presumivelmente, porém, toda a linha do iPhone 16 será capaz de rodar o Apple Intelligence quando chegar.
Computação em nuvem privada
A Apple adotou uma abordagem de treinamento personalizada e de modelo pequeno. Em vez de confiar no tipo de abordagem de pia de cozinha que alimenta plataformas como GPT e Gemini, a empresa compilou conjuntos de dados internamente para tarefas específicas, como, por exemplo, redigir um e-mail. O maior benefício dessa abordagem é que muitas dessas tarefas consomem muito menos recursos e podem ser executadas no dispositivo.
Isso não se aplica a tudo, entretanto. Consultas mais complexas utilizarão a nova oferta Private Cloud Compute. A empresa agora opera servidores remotos rodando em Apple Silicon, que afirma permitir oferecer o mesmo nível de privacidade que seus dispositivos de consumo. Se uma ação está sendo executada localmente ou por meio da nuvem, será invisível para o usuário, a menos que seu dispositivo esteja offline, momento em que consultas remotas gerarão um erro.
Apple Intelligence com aplicativos de terceiros
Muito foi falado sobre a parceria pendente da Apple com a OpenAI antes da WWDC. No final das contas, porém, descobriu-se que o acordo tinha menos a ver com potencializar a Apple Intelligence e mais com oferecer uma plataforma alternativa para aquelas coisas para as quais não foi realmente construída. É um reconhecimento tácito de que construir um sistema de modelo pequeno tem suas limitações.
A Inteligência da Apple é gratuita. O mesmo ocorre com o acesso ao ChatGPT. No entanto, aqueles com contas pagas neste último terão acesso a recursos premium que os usuários gratuitos não têm, incluindo consultas ilimitadas.
A integração ChatGPT, que estreia no iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, tem duas funções principais: complementar a base de conhecimento do Siri e adicionar às opções existentes de ferramentas de escrita.
Com o serviço habilitado, certas perguntas farão com que o novo Siri peça ao usuário que aprove o acesso ao ChatGPT. Receitas e planejamento de viagens são exemplos de dúvidas que podem trazer à tona a opção. Os usuários também podem solicitar diretamente ao Siri para “perguntar ao ChatGPT”.
Compose é o outro recurso principal do ChatGPT disponível através do Apple Intelligence. Os usuários podem acessá-lo em qualquer aplicativo que suporte o novo recurso Ferramentas de escrita. O Compose adiciona a capacidade de escrever conteúdo com base em um prompt. Isso se une às ferramentas de escrita existentes, como Estilo e Resumo.
Sabemos com certeza que a Apple planeja fazer parceria com serviços adicionais de IA generativa. A empresa praticamente disse que o Google Gemini é o próximo da lista.