Google says it dropped the energy cost of AI queries by 33x in one year

A Google anunciou uma redução de 33 vezes no custo energético das consultas de inteligência artificial (IA) ao longo do último ano. Este dado surge num contexto de crescente preocupação com o consumo de energia dos centros de dados, impulsionado pela expansão da IA em larga escala.

O consumo de eletricidade nos Estados Unidos registou um aumento de quase 4% este ano, em comparação com o mesmo período do ano anterior. Este crescimento contrasta com décadas de uso relativamente estável e é amplamente associado à rápida proliferação de centros de dados. Muitos destes centros são construídos especificamente para suportar o aumento exponencial da utilização de IA.

A expansão da infraestrutura de IA e o consequente aumento da procura energética levantam questões sobre o impacto ambiental. Parte desta procura crescente tem sido suprida pelo aumento do uso de carvão na geração de energia. Em maio, a participação do carvão na geração de eletricidade nos EUA aumentou cerca de 20% em relação ao ano anterior, o que intensifica as discussões sobre a sustentabilidade da IA.

A avaliação precisa do impacto energético da IA apresenta desafios significativos. Para investigadores externos, como académicos, é difícil determinar com exatidão as necessidades energéticas de modelos de IA em cenários de uso real. A falta de acesso a detalhes operacionais, como a frequência de utilização do hardware e a proporção de consultas de IA processadas, impede extrapolações precisas a partir de testes de modelos individuais.

Empresas como a Google, que operam vastos centros de dados e serviços de IA em escala global, possuem acesso a um volume considerável de dados de uso real. Esta posição permite uma compreensão mais aprofundada do consumo de energia associado às suas operações de IA.

A Google divulgou um novo estudo que aborda o impacto ambiental da IA. Este estudo indica que as estimativas de energia são um “alvo em movimento”, dada a rápida evolução tecnológica. O principal achado é a redução de 33 vezes na energia consumida por uma consulta de pesquisa de IA no último ano.

Esta melhoria na eficiência energética reflete avanços em diversas áreas. A otimização de hardware, como o desenvolvimento de Unidades de Processamento Tensorial (TPUs) personalizadas para cargas de trabalho de IA, desempenha um papel crucial. Estas unidades são projetadas para executar operações de IA de forma mais eficiente do que processadores de uso geral, resultando em menor consumo de energia por computação.

Além do hardware, as otimizações de software e algoritmos contribuem para a redução do consumo. Modelos de IA mais eficientes, técnicas de compressão de modelos e algoritmos que requerem menos ciclos de processamento para alcançar resultados semelhantes são fatores importantes. A engenharia de software para IA visa maximizar a produção computacional por watt de energia.

A arquitetura e o design dos centros de dados também são fundamentais. Melhorias nos sistemas de refrigeração, na distribuição de energia e na gestão térmica contribuem para a eficiência global. A utilização de inteligência artificial para gerir os próprios centros de dados, otimizando o uso de energia em tempo real, é outra estratégia empregada para reduzir o consumo.

A redução de 33 vezes no custo energético por consulta de IA demonstra um progresso significativo na busca por uma IA mais sustentável. Este avanço indica que, apesar do crescimento da demanda por IA, é possível mitigar o aumento do consumo de energia através de inovação e otimização contínuas.

A capacidade de grandes operadores de IA, como a Google, de alcançar tais eficiências é um indicativo do potencial para a indústria em geral. À medida que a IA se torna mais integrada em diversas aplicações e serviços, a necessidade de processamento computacional continua a crescer. A otimização do consumo de energia por operação de IA torna-se, portanto, um pilar central para a expansão sustentável da tecnologia.

A transparência nos dados de consumo energético, como a apresentada pela Google, é valiosa para a compreensão do impacto real da IA. Permite que a indústria e os investigadores avaliem o progresso e identifiquem áreas para futuras melhorias. A natureza “em movimento” das estimativas de energia da IA sublinha a importância da inovação contínua em hardware, software e infraestrutura.

O desenvolvimento de modelos de IA cada vez mais complexos, como os grandes modelos de linguagem, exige recursos computacionais substanciais. A eficiência energética torna-se um fator crítico não apenas para a sustentabilidade ambiental, mas também para a viabilidade económica da operação de IA em escala. A busca por algoritmos mais eficientes e hardware especializado continuará a ser uma prioridade.

Além das otimizações diretas no consumo por consulta, muitas empresas de tecnologia, incluindo a Google, estão a investir em energias renováveis para alimentar os seus centros de dados. Embora esta iniciativa seja distinta da redução de 33 vezes na eficiência por consulta, ambas as abordagens contribuem para a meta de uma infraestrutura de IA mais verde.

A trajetória de desenvolvimento da IA sugere que a demanda por capacidade de processamento continuará a aumentar. A capacidade de reduzir o consumo de energia por unidade de trabalho computacional é, portanto, um fator determinante para gerir o impacto ambiental global da tecnologia. As inovações em eficiência energética são essenciais para equilibrar o avanço da IA com as metas de sustentabilidade.

Os dados divulgados pela Google fornecem uma perspetiva sobre os esforços em curso para tornar a IA mais eficiente em termos energéticos. A redução de 33 vezes no custo energético das consultas de IA em um ano demonstra que melhorias significativas são alcançáveis através de pesquisa e desenvolvimento focados na otimização de recursos.

Este progresso é relevante para o debate mais amplo sobre o impacto ambiental da tecnologia digital. À medida que a digitalização avança e a IA se torna uma parte integrante da economia global, a gestão do consumo de energia dos centros de dados e das operações de IA será um desafio contínuo e uma área de inovação prioritária.

Fonte: https://arstechnica.com/ai/2025/08/google-says-it-dropped-the-energy-cost-of-ai-queries-by-33x-in-one-year/

Para seguir a cobertura, veja também dropped.

Deixe um comentário