Google says a typical AI text prompt only uses 5 drops of water — experts say that’s misleading

A discussão sobre o impacto ambiental da inteligência artificial (IA) tem ganhado destaque. Recentemente, o Google divulgou um estudo que aborda o consumo de recursos de seu assistente de IA, o Gemini. A empresa estimou que cada interação de texto com o Gemini utiliza uma quantidade mínima de água e energia. No entanto, especialistas na área expressaram que essas alegações podem ser consideradas incompletas.

De acordo com as estimativas do Google, uma solicitação de texto mediana ao Gemini consome aproximadamente cinco gotas de água, o equivalente a 0,26 mililitros. Em termos de energia elétrica, o uso seria de cerca de 0,24 watt-hora (Wh), comparável a menos de nove segundos de televisão. Essa quantidade de energia resultaria na emissão de aproximadamente 0,03 gramas de dióxido de carbono.

Esses números apresentados pelo Google são inferiores aos de pesquisas anteriores que investigaram o consumo intensivo de água e energia por data centers. A discrepância nas estimativas tem sido um ponto central no debate sobre a pegada ambiental da IA em larga escala.

O Contexto do Consumo de Recursos na IA

O desenvolvimento e a operação de modelos de inteligência artificial, especialmente os modelos de linguagem grandes (LLMs) como o Gemini, dependem de uma infraestrutura computacional robusta. Essa infraestrutura é composta por vastos data centers, que abrigam milhares de servidores, sistemas de armazenamento e equipamentos de rede.

A operação contínua desses data centers demanda quantidades significativas de eletricidade. Essa energia é utilizada não apenas para alimentar os servidores que processam os dados e executam os algoritmos de IA, mas também para os sistemas de resfriamento necessários para manter a temperatura ideal dos equipamentos. O calor gerado pelos componentes eletrônicos é substancial, e o resfriamento é crucial para evitar falhas e garantir a eficiência operacional.

Além do consumo de energia, a água é um recurso vital para o funcionamento de muitos data centers. Sistemas de resfriamento evaporativo, por exemplo, utilizam grandes volumes de água para dissipar o calor. A água é evaporada para remover o calor do ar ou dos líquidos de resfriamento, o que resulta em um consumo considerável desse recurso.

A pegada de carbono associada à IA deriva principalmente da geração de eletricidade. Se a energia consumida pelos data centers provém de fontes baseadas em combustíveis fósseis, as emissões de gases de efeito estufa aumentam. Mesmo com o uso crescente de energias renováveis, a demanda energética da IA continua a ser um desafio ambiental.

As Alegações do Google e a Perspectiva dos Especialistas

O estudo do Google focou no impacto ambiental de uma única “solicitação de texto mediana” ao Gemini. Essa métrica, embora específica, não abrange o ciclo de vida completo de um modelo de IA ou a operação total de um data center.

Especialistas em sustentabilidade e computação apontam que a metodologia do Google pode não capturar o impacto ambiental total da IA. Uma das principais críticas reside no escopo da medição. O estudo parece concentrar-se na fase de inferência (o uso do modelo treinado para gerar respostas), mas não inclui o consumo de recursos durante a fase de treinamento dos modelos de IA.

O treinamento de modelos de IA, especialmente os LLMs, é um processo extremamente intensivo em termos de computação e, consequentemente, de energia e água. Esse processo pode levar semanas ou meses, utilizando milhares de unidades de processamento gráfico (GPUs) em paralelo. O impacto ambiental do treinamento de um modelo pode ser ordens de magnitude maior do que o de uma única solicitação de inferência.

Outro ponto levantado pelos especialistas é a exclusão do que é conhecido como “energia incorporada” ou “água incorporada”. Isso se refere aos recursos consumidos na fabricação do hardware (servidores, chips, sistemas de resfriamento) que compõem os data centers. A produção desses componentes envolve mineração de matérias-primas, processos de fabricação complexos e transporte, todos com suas próprias pegadas ambientais.

A métrica “por prompt” também é questionada devido à sua escala. Embora cinco gotas de água por prompt pareçam insignificantes individualmente, a IA é utilizada por milhões de usuários, gerando bilhões de prompts diariamente. O impacto agregado de todas essas interações pode ser substancial, transformando pequenas quantidades em volumes significativos de consumo de água e energia.

Pesquisadores da Universidade da Califórnia, Riverside, em colaboração com a Microsoft, publicaram um estudo anterior que estimou o consumo de água para o treinamento de modelos de IA. Esse estudo sugeriu que o treinamento de um modelo de linguagem grande nos Estados Unidos poderia consumir centenas de milhares de litros de água. As estimativas do Google para o Gemini são significativamente menores, o que levanta questões sobre as diferenças nas metodologias e no escopo das avaliações.

A localização geográfica dos data centers também é um fator relevante. Muitos data centers estão situados em regiões que já enfrentam estresse hídrico. O consumo de água por essas instalações pode agravar a escassez de água para as comunidades locais e ecossistemas. A simples quantidade de água consumida, sem considerar o contexto local, pode não fornecer uma imagem completa do impacto.

Operação de Data Centers e Consumo de Recursos

Os data centers são instalações projetadas para operar 24 horas por dia, 7 dias por semana, garantindo a disponibilidade de serviços digitais. Essa operação contínua exige um fornecimento ininterrupto de energia e sistemas de resfriamento eficientes.

Os servidores geram calor considerável. Para evitar o superaquecimento, que pode levar a falhas de hardware e interrupções de serviço, os data centers empregam diversas tecnologias de resfriamento. As mais comuns incluem sistemas de ar-condicionado de precisão, resfriamento líquido direto aos componentes e resfriamento evaporativo.

O resfriamento evaporativo, embora eficiente em termos energéticos em certas condições climáticas, é um dos maiores consumidores de água em um data center. Ele funciona passando o ar quente sobre painéis úmidos, onde a água evapora e absorve o calor do ar. A água evaporada precisa ser constantemente reposta.

Além do resfriamento, a infraestrutura de energia de um data center também contribui para o consumo. Isso inclui sistemas de distribuição de energia, transformadores e fontes de alimentação ininterrupta (UPS), que garantem a estabilidade e a continuidade do fornecimento de energia. Cada etapa da conversão e distribuição de energia pode resultar em perdas, que se manifestam como calor e, consequentemente, aumentam a necessidade de resfriamento.

A eficiência energética dos data centers é medida por métricas como o PUE (Power Usage Effectiveness), que compara a energia total consumida pelo data center com a energia efetivamente utilizada pelos equipamentos de TI. Um PUE mais próximo de 1 indica maior eficiência, mas mesmo os data centers mais eficientes ainda consomem volumes substanciais de energia e, em muitos casos, água.

Transparência e Relatórios na Indústria de Tecnologia

A indústria de tecnologia tem enfrentado crescente pressão para ser mais transparente sobre seu impacto ambiental. Organizações não governamentais, pesquisadores e até mesmo investidores têm solicitado relatórios mais detalhados e padronizados sobre o consumo de energia, água e as emissões de carbono associadas às operações de IA e data centers.

Atualmente, não existe uma metodologia universalmente aceita para medir e relatar o impacto ambiental de modelos de IA específicos. As empresas podem escolher diferentes escopos de medição, o que dificulta a comparação direta entre os relatórios de diferentes provedores de serviços de IA.

A falta de padronização pode levar a uma subestimação do impacto real. Por exemplo, ao focar apenas na inferência e ignorar o treinamento, ou ao não considerar o ciclo de vida completo do hardware, as empresas podem apresentar números que não refletem a totalidade de sua pegada ambiental.

A demanda por maior transparência visa permitir que reguladores, pesquisadores e o público compreendam melhor os custos ambientais da IA e incentivem a indústria a adotar práticas mais sustentáveis. A padronização das métricas de relatório é vista como um passo fundamental para alcançar esse objetivo.

Esforços de Mitigação e o Futuro da IA Sustentável

Apesar dos desafios, a indústria de tecnologia está explorando e implementando diversas estratégias para mitigar o impacto ambiental da IA. Uma das principais abordagens é o investimento em energias renováveis. Muitas empresas de tecnologia, incluindo o Google, têm metas ambiciosas para operar seus data centers com 100% de energia renovável.

A otimização da eficiência energética dos data centers é outra área de foco. Isso inclui o desenvolvimento de hardware mais eficiente, como chips especializados para IA que consomem menos energia por operação, e a implementação de sistemas de resfriamento mais avançados e eficientes em termos de água, como o resfriamento líquido direto ao chip.

Pesquisas estão em andamento para desenvolver algoritmos de IA que sejam inerentemente mais eficientes em termos de energia. Isso pode envolver a criação de modelos menores que exigem menos poder computacional para treinamento e inferência, ou o desenvolvimento de técnicas de compressão de modelos que reduzem sua pegada computacional sem comprometer significativamente o desempenho.

A gestão da água nos data centers também está sendo aprimorada. Isso inclui a busca por fontes de água alternativas, como água reciclada ou água pluvial, e a implementação de tecnologias que minimizem o consumo de água, como sistemas de resfriamento a ar em climas adequados ou o uso de resfriamento por líquido em circuito fechado.

A colaboração entre a indústria, a academia e os formuladores de políticas é considerada essencial para enfrentar os desafios ambientais da IA. O compartilhamento de dados, a pesquisa conjunta e o desenvolvimento de padrões podem acelerar a transição para uma IA mais sustentável.

Fonte: https://www.theverge.com/report/763080/google-ai-gemini-water-energy-emissions-study

Para seguir a cobertura, veja também misleading.

Deixe um comentário