Amazon is betting on agents to win the AI race

O campo da inteligência artificial (IA) testemunha uma mudança significativa, com o foco se deslocando dos chatbots para os agentes de IA. Estes sistemas são projetados para executar tarefas complexas e confiáveis no mundo real. A Amazon está fazendo uma aposta estratégica nesse domínio, investindo pesadamente em pesquisa e desenvolvimento de agentes. A liderança desse esforço está a cargo de David Luan, chefe do laboratório de pesquisa de Inteligência Artificial Geral (AGI) da Amazon em São Francisco.

Apesar do entusiasmo em torno dos agentes, a confiabilidade ainda é um desafio. A indústria de IA trabalha intensamente para superar essa limitação, e a abordagem da Amazon, sob a direção de Luan, busca redefinir o treinamento e a aplicação desses sistemas para garantir performance e precisão.

A Trajetória de David Luan na Vanguarda da IA

David Luan possui uma vasta experiência no setor de inteligência artificial, tendo contribuído para alguns dos avanços mais notáveis da última década. Sua carreira na IA abrange aproximadamente 15 anos, um período considerado extenso dada a rápida evolução do campo.

Entre 2017 e meados de 2020, Luan liderou as equipes de pesquisa e engenharia na OpenAI. Durante sua gestão, ele desempenhou um papel fundamental no desenvolvimento de modelos de linguagem transformadores como GPT-2 e GPT-3, além de sistemas de geração de imagem como CLIP e DALL-E. Esse período na OpenAI foi marcado por um ambiente de pesquisa colaborativo e inovador, antes da pressão comercial que caracteriza o cenário atual da IA.

Após sua passagem pela OpenAI, David Luan liderou os esforços de Modelos de Linguagem Grandes (LLMs) no Google, onde a equipe treinou o modelo PaLM, considerado um modelo robusto para a época. Posteriormente, Luan cofundou a Adept, uma startup pioneira focada em agentes de IA. A Adept é reconhecida por ter inventado o conceito de agente de uso de computador, desenvolvendo os primeiros agentes prontos para produção.

No verão passado, Luan deixou a Adept para se juntar à Amazon, trazendo consigo grande parte de sua equipe técnica. Sua decisão de migrar de uma startup para uma grande empresa de tecnologia foi motivada pela percepção de que a corrida da IA exigiria recursos e escala que apenas grandes corporações poderiam oferecer. Essa transição é um exemplo do que se tornou conhecido como “aquisição reversa de talentos”, onde equipes-chave de startups são incorporadas por gigantes da tecnologia.

A Convergência dos Modelos de Linguagem e a Hipótese Platônica

A recente liberação do GPT-5 pela OpenAI reflete um alto nível de maturidade na indústria de IA. Laboratórios de ponta demonstraram a capacidade de produzir modelos consistentemente melhores. David Luan enfatiza que o objetivo de um laboratório de modelos de fronteira não é apenas treinar modelos individuais, mas construir uma “fábrica” que gere repetidamente sistemas de IA aprimorados.

Luan observa que os modelos de fronteira atuais estão convergindo em suas capacidades. Ele atribui essa tendência à “hipótese da representação platônica”, proposta por Phillip Isola, um ex-colega da OpenAI. Essa hipótese sugere que, assim como na alegoria da caverna de Platão, existe uma única realidade, e os LLMs, ao serem treinados com volumes crescentes de dados, convergem para uma representação compartilhada dessa realidade. Isso implica que todos os LLMs, eventualmente, tenderão a um modelo similar do mundo.

Essa convergência levanta questões sobre a relevância dos benchmarks tradicionais, que se tornam menos distintivos à medida que os modelos atingem capacidades semelhantes. A competição se assemelha às “guerras de megapixels” da era das câmeras digitais, onde números mais altos nem sempre se traduziam em melhor qualidade de uso. A verdadeira inovação, segundo Luan, reside em explorar aplicações além do chat e da codificação, que são os casos de uso mais conhecidos e bem-sucedidos até o momento.

Apesar da sofisticação técnica, a interação humana com esses modelos também evolui. Observa-se que usuários desenvolvem laços emocionais com certas versões de modelos, como visto com o modelo 4o da OpenAI. Essa antropomorfização, embora não surpreendente para Luan, que já havia notado fenômenos similares em projetos anteriores como o LaMDA do Google, destaca uma dimensão social na adoção da IA.

Definindo AGI: Um Companheiro Universal para o Trabalho do Conhecimento

A definição de Inteligência Artificial Geral (AGI) tem evoluído. Enquanto a OpenAI, em 2018, definia AGI como um sistema capaz de superar humanos em tarefas economicamente valiosas, David Luan propõe uma visão mais focada na colaboração e no empoderamento humano. Para ele, a AGI não se trata de substituir humanos, mas de construir um “companheiro universal” para cada trabalhador do conhecimento.

A meta principal da AGI, na perspectiva de Luan, é capacitar os humanos, oferecendo um nível significativo de alavancagem em seu tempo. Isso seria alcançado por meio de sistemas de IA capazes de delegar uma grande parte da execução de tarefas diárias. A definição mais concreta e prática de AGI para Luan é um modelo que pode ajudar um humano a realizar qualquer tarefa que deseje em um computador.

Essa abordagem contrasta com a visão de AGI como um sistema que pode se auto-aprimorar indefinidamente. Embora a auto-melhoria seja cientificamente interessante, Luan argumenta que a utilidade para os humanos é o fator mais relevante. A capacidade de uma IA de gerenciar tarefas digitais complexas é vista como o marco mais importante para a AGI, dada a centralidade do mundo digital na vida moderna.

Para a Amazon, a AGI, conforme definida por Luan, é estratégica. A empresa entende que os agentes se tornarão os “blocos atômicos” da computação. Em um futuro onde a IA escreve código e toma decisões, ser proficiente na resolução do problema dos agentes é crucial. Isso se alinha com as forças existentes da Amazon em infraestrutura de nuvem e capacidade de construir sistemas em larga escala, prometendo desbloquear um vasto valor econômico.

Superando a Confiabilidade: O Treinamento de Agentes na Amazon

A principal barreira para a adoção generalizada de agentes de IA é a sua confiabilidade. Muitos usuários que tentaram interagir com agentes relatam experiências insatisfatórias, onde os sistemas falham ou demoram mais do que o esperado. David Luan explica que a limitação inerente dos Modelos de Linguagem Grandes (LLMs) atuais reside na forma como são treinados.

Os LLMs aprendem principalmente por “previsão do próximo token”, ou seja, preveem a próxima palavra em uma sequência de texto. Esse processo, conhecido como clonagem comportamental ou aprendizado por imitação, ensina o modelo a replicar padrões sem compreender a causa e efeito subjacente. Isso é eficaz para tarefas de chat ou escrita criativa, onde uma certa aleatoriedade ou “alucinação” pode ser tolerável. No entanto, para um agente que precisa tomar decisões e executar ações no mundo real (como interagir com uma conta bancária ou operar um equipamento científico), a falta de compreensão causal é um problema crítico.

A abordagem da Amazon para superar essa limitação envolve o auto-treinamento em larga escala, utilizando o conceito de “self-play” (auto-jogo) e aprendizado por reforço (RL). Inspirado no sucesso do DeepMind ao treinar a IA AlphaGo para jogar Go, o laboratório de Luan na Amazon cria vastos conjuntos de “ginásios” de RL.

Esses “ginásios” são ambientes simulados que replicam cenários de trabalho do conhecimento. Exemplos incluem simulações de sistemas de CRM (Customer Relationship Management), softwares de planejamento de recursos empresariais (ERP), programas de design assistido por computador (CAD) ou sistemas de prontuários médicos eletrônicos. Nesses ambientes, o modelo propõe um objetivo, tenta resolvê-lo e recebe feedback direto sobre o sucesso ou fracasso de suas ações. Por exemplo, um agente pode aprender se realizou uma depreciação contábil corretamente ou se reservou um voo com sucesso.

Esse processo de tentativa e erro permite que o agente aprenda as verdadeiras consequências de suas ações, em vez de apenas imitar comportamentos humanos. Luan compara isso a treinar um jogador de tênis: não se deve passar 99% do tempo assistindo a vídeos de tênis e apenas 1% jogando. O equilíbrio entre observação e prática é crucial. A Amazon está escalando essa receita de treinamento, que é vista como uma das peças-chave que faltam para alcançar a AGI.

Aplicações e Estratégia de Mercado dos Agentes Amazon

A Amazon visa que o resultado de seus esforços em agentes seja um modelo e um sistema com confiabilidade de 99% ou mais para uma ampla gama de tarefas de trabalho do conhecimento realizadas em computadores. Esse sistema será disponibilizado como um serviço na AWS, servindo como base para inúmeras aplicações futuras.

Um exemplo de aplicação já em produção é o Alexa Plus. Este serviço utiliza a tecnologia de agentes da Amazon para realizar tarefas como encontrar um encanador, navegando em sites de serviços como o Thumbtack. Embora as primeiras reações ao Alexa Plus indiquem um avanço significativo, a equipe reconhece a necessidade de maior robustez e confiabilidade.

A Amazon utiliza suas vastas operações internas como um “ginásio” em escala real para o treinamento de agentes. Com equipes internas que cobrem praticamente todos os domínios de trabalho do conhecimento de uma empresa Fortune 500 (desde operações de cadeia de suprimentos e varejo até serviços de saúde como One Medical e desenvolvimento na AWS), a Amazon tem acesso a uma riqueza de dados privados e ambientes controlados. Essa vantagem de dados de primeira parte (1P) é crucial, pois os dados públicos da internet são insuficientes para treinar agentes eficazes.

Em março, a Amazon lançou o Nova Act, uma prévia de pesquisa que permite a construção de agentes capazes de usar navegadores de forma confiável. Desde o seu lançamento, o Nova Act tem sido adotado por diversas empresas e desenvolvedores, alcançando mais de 95% de confiabilidade em fluxos de trabalho complexos, um avanço significativo em comparação com a média de 60% observada em outros produtos de agentes no mercado. Exemplos de uso incluem registro de médicos e enfermeiros, automação de reservas de viagens e fluxos de trabalho de controle de qualidade com dezenas de etapas.

O foco extremo na confiabilidade é um pilar da estratégia da Amazon. Luan prevê que a próxima grande aceleração na IA virá dos agentes, e a receita de treinamento baseada em auto-treinamento em “ginásios” é o caminho para alcançar um “momento GPT para agentes de RL” em menos de um ano. Essa abordagem permite que a Amazon “salte” à frente, em vez de tentar alcançar os concorrentes nas receitas de treinamento mais antigas, que se tornam um “fardo” para os incumbentes.

O Mercado de Talentos e a Dinâmica da Indústria de IA

A corrida pela liderança em IA é impulsionada por investimentos massivos em poder computacional e talento. David Luan explica que a demanda por inteligência é muito maior do que a oferta, justificando os investimentos bilionários em clusters de computação e a atração dos melhores talentos. Os gastos de capital (CapEx) dos maiores provedores de nuvem ultrapassam os 340 bilhões de dólares anuais, um valor que era impensável há poucos anos.

A decisão de Luan de deixar a Adept e se juntar à Amazon com sua equipe técnica reflete essa realidade. Ele previu a crescente consolidação e os custos exorbitantes de desenvolvimento de modelos de fronteira. Para continuar na vanguarda da inteligência artificial, era essencial ter acesso a recursos computacionais em escala de bilhões de dólares, algo que uma startup, mesmo bem financiada, não conseguiria sustentar a longo prazo.

A escassez de talento experiente em IA é um fator crítico. Luan estima que o número de pessoas capazes de treinar modelos de fronteira de forma holística, com grandes volumes de computação, é inferior a 150 em todo o mundo. Há um grupo adicional de cerca de 500 pessoas que são contribuidores extremamente valiosos. Embora esse número seja pequeno em comparação com outras áreas da tecnologia, Luan observa que é possível para talentos juniores alcançarem a fronteira rapidamente, através de foco, trabalho árduo e colaboração com especialistas.

A natureza do treinamento de modelos de fundação é única: cada decisão interfere com as outras, pois o resultado final é um único “saco de pesos” (o modelo). Isso cria uma “deseconomia de escala”, onde ter muitas pessoas em um projeto pode ser ineficiente. Luan compara isso a equipes esportivas, onde a qualidade de poucos talentos de elite é preferível a um grande número de pessoas de nível médio. Assim, embora o campo da IA se expanda, o grupo de elite que lidera o desenvolvimento de modelos de fronteira pode permanecer relativamente pequeno, embora o número de contribuidores significativos aumente.

Perspectivas Futuras e Conselhos para a Carreira em IA

David Luan mantém uma visão otimista sobre o futuro da IA, acreditando que os agentes representam a próxima “curva S” de progresso, prometendo uma aceleração significativa. Ele enfatiza que, quando uma curva de progresso (como o pré-treinamento de LLMs) desacelera, outra surge, e os agentes são essa próxima fronteira.

Para aqueles que buscam uma carreira em IA, Luan oferece conselhos estratégicos. Primeiramente, ele sugere buscar equipes pequenas com acesso a grandes recursos computacionais. Nesses ambientes, há mais oportunidades para que ideias de pesquisa individuais sejam implementadas e testadas, em contraste com grandes organizações onde a hierarquia e o número de pessoas podem limitar a autonomia.

Em segundo lugar, Luan destaca a importância da co-concepção entre o produto, a interface do usuário e o modelo. Ele acredita que essa será a “jogada mais importante” nos próximos anos. O futuro da IA não se limita a chatbots ou assistentes de codificação, que foram as primeiras formas de produto a encontrar um ajuste no mercado. Luan prevê que, em cinco anos, surgirão seis ou sete novas formas de produto cruciais que hoje não são óbvias, mas que se tornarão evidentes em retrospectiva.

A aposta assimétrica, segundo Luan, é dedicar tempo para identificar e desenvolver essas novas formas de produto e interação. A capacidade de inovar na interface e na aplicação da IA, além da mera melhoria dos modelos subjacentes, será um diferencial fundamental na próxima fase da evolução da inteligência artificial.

Fonte: https://www.theverge.com/decoder-podcast-with-nilay-patel/761830/amazon-david-luan-agi-lab-adept-ai-interview

Para seguir a cobertura, veja também betting.

Deixe um comentário