A indústria de inteligência artificial (IA) intensifica esforços para diminuir a quantidade de eletricidade exigida por seus data centers, num momento em que a demanda por processamento cresce de forma acelerada. Segundo a Agência Internacional de Energia (AIE), essas instalações devem passar de 1,5% para cerca de 3% do consumo global de eletricidade até 2030.
Em meio a esse cenário, o ex-presidente norte-americano Donald Trump tem visita prevista à Pensilvânia nesta terça-feira (15) para anunciar um pacote estimado em US$ 70 bilhões — aproximadamente R$ 389 bilhões — destinado a projetos de IA e infraestrutura energética no estado. O anúncio ocorre enquanto consultorias apontam para uma corrida na construção de novos centros de dados e alertam para eventuais gargalos de capacidade elétrica nos próximos anos.
De acordo com a McKinsey, a expansão de data centers precisa caminhar ao lado de soluções que limitem o impacto na rede. Para Mosharaf Chowdhury, professor associado da Universidade de Michigan, existem dois caminhos complementares: ampliar a oferta de energia e, simultaneamente, reduzir o consumo necessário para cada unidade de processamento. Essa segunda estratégia envolve avanços em hardware, sistemas de resfriamento e algoritmos.
Nos últimos 20 anos, a energia gasta exclusivamente no resfriamento dos servidores caiu de patamares equivalentes à carga computacional para cerca de 10% desse valor, conforme análises da consultoria Arup. A mudança está ligada principalmente à adoção de resfriamento líquido, que leva água ou outros fluidos diretamente aos componentes internos, substituindo a ventilação tradicional. Todas as grandes empresas do setor já adotam ou planejam adotar a técnica, considerada decisiva para lidar com chips que dissipam calor em níveis inéditos.
A potência dos semicondutores usados em IA ilustra o desafio: a líder do segmento, Nvidia, elevou em mais de cem vezes o consumo energético de determinadas séries de servidores quando comparados a modelos de duas décadas atrás. Nesse contexto, o resfriamento por líquido consegue operar a temperaturas mais altas sem comprometer a integridade dos equipamentos, facilitando a troca de calor com o ar ambiente.
Entre as soluções recentes, a Amazon apresentou no início de julho o IRHX, sistema de resfriamento líquido que pode ser instalado em data centers já existentes, dispensando modificações estruturais profundas. A companhia afirma que o recurso destina-se a reduzir custos operacionais e a incrementar a eficiência na distribuição de refrigeração.
Além de melhorias físicas, sensores espalhados pelas salas de servidores permitem monitorar zonas de calor em escala muito pequena. Com base nesses dados, algoritmos de IA ajustam, em tempo real, a climatização e o fluxo de água, economizando recursos antes mesmo de surgir sobrecarga térmica. Segundo a McKinsey, essas ferramentas podem reduzir em até 20% o uso de energia e de água de uma instalação média.
No nível dos chips, pesquisas avançam para equilibrar desempenho e vida útil. Trabalho coordenado por Yi Ding, da Universidade Purdue, demonstra que é possível prolongar a utilização de GPUs dedicadas a IA sem queda perceptível de rendimento, o que posterga a troca de equipamentos e diminui o impacto ambiental da produção de novos semicondutores. Contudo, o próprio pesquisador reconhece a dificuldade de convencer fabricantes a aceitar margens de lucro menores ou consumidores a manter hardware antigo por mais tempo.
Algoritmos também vêm passando por ajustes. Em janeiro, a empresa chinesa DeepSeek divulgou o modelo R1, capaz de desempenho semelhante ao de sistemas líderes dos Estados Unidos, embora treinado em GPUs menos potentes. Os engenheiros obtiveram o resultado refinando a programação das placas gráficas e eliminando uma etapa de treinamento anteriormente considerada indispensável, o que diminuiu o gasto energético total do projeto.
Especialistas alertam, contudo, para o chamado paradoxo de Jevons. O princípio econômico, formulado no século XIX, afirma que melhorias de eficiência tendem a elevar a demanda pelo recurso à medida que o custo de utilizá-lo diminui. Para Yi Ding, mesmo com os avanços descritos, o consumo global de energia ligado à IA deve continuar em expansão, ainda que em ritmo potencialmente mais lento do que se veria na ausência dessas inovações.
A combinação de novas técnicas de resfriamento, chips mais eficientes e otimizações de software busca, portanto, equilibrar o crescimento inevitável da inteligência artificial com limites físicos e econômicos da infraestrutura elétrica mundial.