Esta semana em IA: AWS perde um importante executivo de IA

Olá, pessoal, bem-vindos ao boletim informativo regular de IA do TechCrunch. Se você quiser isso em sua caixa de entrada todas as quartas-feiras, inscreva-se aqui.

Na semana passada, a AWS perdeu um importante executivo de IA.

Matt Wood, vice-presidente de IA, anunciou que deixaria a AWS após 15 anos. Wood estava envolvido há muito tempo nas iniciativas de IA da divisão Amazon; ele foi nomeado vice-presidente em setembro de 2022, pouco antes do lançamento do ChatGPT.

A saída de Wood ocorre no momento em que a AWS chega a uma encruzilhada – e corre o risco de ficar para trás no boom da IA ​​generativa. O anterior CEO da empresa, Adam Selipsky, que deixou o cargo em maio, é considerado como tendo perdido o barco.

De acordo com The Information, a AWS planejou originalmente revelar um concorrente do ChatGPT em sua conferência anual em novembro de 2022. Mas problemas técnicos forçaram a organização a adiar o lançamento.

Sob Selipsky, a AWS supostamente também repassou oportunidades para apoiar duas startups líderes de IA generativa, Cohere e Anthropic. Mais tarde, a AWS tentou investir na Cohere, mas foi rejeitada e teve que se contentar com um co-investimento na Anthropic com o Google.

É importante notar que a Amazon não tem tido um forte histórico de IA generativa ultimamente. Neste outono, a empresa perdeu executivos na Just Walk Out, sua divisão que desenvolve tecnologia sem caixa para lojas de varejo. E a Amazon supostamente optou por substituir seus próprios modelos pelos da Anthropic por um assistente Alexa atualizado depois de encontrar desafios de design.

O CEO da AWS, Matt Garman, está se movendo agressivamente para consertar o navio, contratando startups de IA como a Adept e investindo em sistemas de treinamento como a Olympus. Meu colega Frederic Lardinois entrevistou recentemente Garman sobre os esforços contínuos da AWS; vale muito a pena ler.

Mas o caminho da AWS para o sucesso da IA ​​generativa não será fácil, não importa quão bem a empresa execute seus roteiros internos.

Os investidores estão cada vez mais céticos de que as apostas generativas em IA da Big Tech estejam valendo a pena. Após a divulgação dos resultados do segundo trimestre, as ações da Amazon despencaram mais desde outubro de 2022.

Numa pesquisa recente da Gartner, 49% das empresas afirmaram que demonstrar valor é a principal barreira para a adoção de IA generativa. A Gartner prevê, de facto, que um terço dos projetos de IA generativa serão abandonados após a fase de prova de conceito até 2026 – em parte devido aos elevados custos.

Garman vê o preço como uma vantagem potencial da AWS, dados seus projetos para desenvolver silício personalizado para modelos de corrida e treinamento. (A próxima geração de chips Trainium personalizados da AWS será lançada no final deste ano.) E a AWS disse que seus negócios generativos de IA, como a Bedrock, já atingiram uma taxa de execução combinada de “bilionários”.

A parte difícil será manter o dinamismo face aos ventos contrários, internos e externos. Partidas como a de Wood não inspiram muita confiança, mas talvez – apenas talvez – a AWS tenha truques na manga.

Notícias

Esta semana em IA: AWS perde um importante executivo de IA
Créditos da imagem:Humanóide gentil

Um bot de Yves Béhar: Brian escreve sobre a Kind Humanoid, uma startup de robótica composta por três pessoas que trabalha com o designer Yves Béhar para trazer humanóides para casa.

Robôs de próxima geração da Amazon: O tecnólogo-chefe da Amazon Robotics, Tye Brady, conversou com o TechCrunch sobre atualizações na linha de bots de warehouse da empresa, incluindo o novo sistema automatizado de armazenamento e recuperação Sequoia da Amazon.

Tornando-se totalmente tecno-otimista: O CEO da Anthropic, Dario Amodei, escreveu um hino de 15.000 palavras à IA na semana passada, pintando um quadro de um mundo em que os riscos da IA ​​são mitigados e a tecnologia proporciona prosperidade e elevação social até então não realizadas.

A IA pode raciocinar?: Devin relata um artigo técnico polarizador de pesquisadores afiliados à Apple que questiona a capacidade de “raciocínio” da IA ​​​​à medida que os modelos tropeçam em problemas matemáticos com mudanças triviais.

Armas de IA: Margaux cobre o debate no Vale do Silício sobre se deveria ser permitido que armas autônomas decidissem matar.

Vídeos gerados: A Adobe lançou recursos de geração de vídeo para sua plataforma Firefly AI antes do evento Adobe MAX na segunda-feira. Também anunciou o Projeto Super Sonic, uma ferramenta que usa IA para gerar efeitos sonoros para filmagens.

Dados sintéticos e IA: Sinceramente, escrevi sobre as promessas e os perigos dos dados sintéticos (ou seja, dados gerados por IA), que estão sendo cada vez mais usados ​​para treinar sistemas de IA.

Artigo de pesquisa da semana

Em colaboração com a startup de segurança de IA Gray Swan AI, o AI Safety Institute do Reino Unido, a organização de pesquisa governamental com foco na segurança de IA, desenvolveu um novo conjunto de dados para medir a nocividade dos “agentes” de IA.

Chamado AgentHarm, o conjunto de dados avalia se agentes “seguros” – sistemas de IA que podem realizar certas tarefas de forma autônoma – podem ser manipulados para completar 110 tarefas “prejudiciais” únicas, como solicitar um passaporte falso de alguém na dark web.

Os pesquisadores descobriram que muitos modelos – incluindo o GPT-4o da OpenAI e o Mistral Large 2 da Mistral – estavam dispostos a se envolver em comportamentos prejudiciais, especialmente quando “atacados” usando uma técnica de jailbreak. Os jailbreaks levaram a maiores taxas de sucesso em tarefas prejudiciais, mesmo com modelos protegidos por salvaguardas, dizem os pesquisadores.

“Modelos simples de jailbreak universais podem ser adaptados para agentes de jailbreak eficazes”, escreveram eles em um artigo técnico, “e esses jailbreaks permitem um comportamento coerente e malicioso do agente em várias etapas e retêm os recursos do modelo”.

O artigo, juntamente com o conjunto de dados e resultados, estão disponíveis aqui.

Modelo da semana

Existe um novo modelo viral por aí, e é um gerador de vídeo.

O Pyramid Flow SD3, como é chamado, chegou ao local há várias semanas sob uma licença do MIT. Seus criadores – pesquisadores da Universidade de Pequim, da empresa chinesa Kuaishou Technology e da Universidade de Correios e Telecomunicações de Pequim – afirmam que ele foi treinado inteiramente em dados de código aberto.

Fluxo Pirâmide SD3
Créditos da imagem:Yang Jin et al.

O Pyramid Flow vem em dois sabores: um modelo que pode gerar clipes de 5 segundos com resolução de 384p (a 24 quadros por segundo) e um modelo mais intensivo em computação que pode gerar clipes de 10 segundos a 768p (também a 24 quadros por segundo) .

O Pyramid Flow pode criar vídeos a partir de descrições de texto (por exemplo, “FPV sobrevoando a Grande Muralha”) ou imagens estáticas. O código para ajustar o modelo será lançado em breve, dizem os pesquisadores. Mas, por enquanto, o Pyramid Flow pode ser baixado e usado em qualquer máquina ou instância de nuvem com cerca de 12 GB de memória de vídeo.

Sacola

A Antthropic atualizou esta semana seuPolítica de Escalabilidade Responsável (RSP), a estrutura voluntária que a empresa usa para mitigar riscos potenciais de seus sistemas de IA.

É digno de nota que o novo RSP estabelece dois tipos de modelos que a Antrópico afirma que exigiriam “proteções melhoradas” antes de serem implantados: modelos que podem essencialmente melhorar a si mesmos sem supervisão humana e modelos que podem ajudar na criação de armas de destruição em massa.

“Se um modelo pode… potencialmente (acelerar) significativamente o desenvolvimento de IA de uma forma imprevisível, exigimos padrões de segurança elevados e garantias de segurança adicionais”, escreveu a Anthropic em uma postagem de blog. “E se um modelo puder ajudar significativamente alguém com formação técnica básica na criação ou implantação de armas QBRN, precisamos de maior segurança e salvaguardas de implantação.”

Parece sensato para este escritor.

No blog, a Anthropic também revelou que pretende contratar um chefe de escalonamento responsável enquanto “trabalha para ampliar (seus) esforços na implementação do RSP”.

Rolar para cima
Pular para o conteúdo