Nos Estados Unidos, o preço da conta de energia em locais próximos a data centers chegou a disparar até 267% em relação ao que custava há cinco anos, mostra análise da Bloomberg, e o Brasil pode seguir o mesmo caminho, alerta o diretor brasileiro de uma multinacional de refrigeração baseado na Carolina do Norte, Frank Silva.
A construção da infraestrutura para suportar os serviços de inteligência artificial elevou a parcela da geração elétrica dedicada a data centers de 1,9% em 2018 para 4,4% em 2023, mostra relatório do Berkeley Lab, que tem foco em análises sobre energia e impacto ambiental. O mesmo estudo projeta que, até 2028, essa parcela deve subir para algo entre 6,7% e 12%.
Até 2017, o consumo desses espaços era mais ou menos constante, na casa de 60 TWh, contra o patamar de 176 TWh em 2023. Como base de comparação, todo o consumo doméstico dos 202 milhões de brasileiros foi 177,5 TWh.
O que mudou foi a instalação das unidades de processamento gráfico (GPUs) da Nvidia nos servidores, cada máquina presente no data center. As entregas desse componente eletrônico, que processa muito mais dados ao preço de gastar mais energia e dissipar mais calor, começaram a subir também em 2017.
Um dos requisitos para fazer funcionar essas GPUs é ter sistemas de resfriamento líquido direto nos chips, feito por máquinas chamadas de CDU. Multinacionais, como a Carrier e a Vertiv, fazem os primeiros movimentos para vender essas máquinas no Brasil.
A Carrier vai apresentar sua tecnologia, compatível com as máquinas mais recentes da Nvidia, em evento do setor de data centers marcado para o início de novembro. Quando houver os primeiros pedidos, os sistemas de refrigeração de chips serão importados de fábricas da empresa nos EUA. “Se tiver demanda, podemos fabricar na unidade Midea Carrier de Canoas [na região metropolitana de Porto Alegre]”, disse João Paulo Oliveira, gerente de produtos da empresa no Brasil.
Não se trata de uma tecnologia nova, afirmou o engenheiro hidráulico José Macléu da Silva. Ele trabalhou na assistência técnica da IBM entre 1987 e 1992, quando os mainframes da gigante americana utilizavam os chamados chips TTL, que dissipavam muito calor, assim como os chips da Nvidia, e precisavam de resfriamento líquido para não fritar.
No final dos anos 1980, a IBM substituiu a tecnologia TTL por outra mais eficiente (MacOS), e as máquinas de resfriamento de chip caíram em desuso.
Caso se confirme, a chegada desses equipamentos ao país alteraria o escopo do impacto ambiental dessas fábricas, como ocorreu nos Estados Unidos.
A Associação das Empresas de Tecnologia da Informação e Comunicação (Brasscom) calcula que exista 843 megawatts (MW) de potência instalada em data centers no Brasil, que representam 1,7% do consumo total de energia elétrica no país. Até 2029, a entidade projeta que esses números cresçam, respectivamente, para 2.192 megawatts e 3,6%.
Os números não consideram o consumo dos data centers de grandes provedores de nuvem, como Google, Microsoft, Amazon e Huawei, que não divulgam informações sobre as suas operações.
Hoje, o maior data center do Brasil em operação, localizado em Vinhedo, tem 61 MW. No mercado, se especula sobre a construção de data centers com potência instalada de até 900 MW em um só campus, com a chegada das máquinas de IA.
Esses números colocariam essas unidades que se promete construir no Brasil entre as maiores do mundo. Na Noruega, o data center de Kolos, o que tem a maior potência instalada, segundo dados públicos, tem possibilidade de expansão para até 1.000 MW. Além da eletricidade gasta pelos próprios chips, as máquinas que mais consomem são justamente as responsáveis pela climatização do centro de processamento de dados.
Diante da crescente demanda por processamento de dados ligada a maior oferta de produtos de inteligência artificial, os construtores de data centers enfrentam uma escolha de Sofia: adaptar todo o sistema de refrigeração, incluindo torres de resfriamento líquido, para ganhar eficiência em eletricidade (PUE), ou manter o sistema de troca de calor com o ar e gastar bem menos água —o que é medido pelo coeficiente de eficiência em água (WUE).
As empresas se orientam por coeficientes como o PUE e o WUE, além da pegada de carbono, para definir seus projetos. Um data center de uma big tech nos Estados Unidos, por exemplo, pode preferir gastar mais água para compensar a pegada de carbono da eletricidade proveniente da queima de gás natural.
Era o que estava planejado para um data center que o Google queria construir no Chile, que projetava um consumo anual de água de 7 bilhões de litros. As cifras assustaram a vizinhança, que se mobilizou e levou o gigante da tecnologia a desistir do projeto.
No Brasil, isso não deve se repetir porque a Política Nacional de Data Centers, instituída por medida provisória do governo Lula, limita o gasto de água de data centers para conceder vantagens tributárias.
Desistir da água, por outro lado, faz aumentar o consumo de eletricidade, que responde a cerca de 15% do gasto do complexo de processamento de dados.
Enquanto um ar-condicionado com compressor a ar é capaz de resfriar até 600 toneladas de atmosfera, um equipamento de potência similar acoplado com torre de evaporação (em que há dissipação de água no ambiente) resfria até 4.000 toneladas. Uma solução intermediária, com torre de água em circuito fechado (sem evaporação), resfria até 2.000 toneladas, de acordo com a Carrier.
Em relatório entregue a autoridades em agosto, a Brasscom argumenta que outros setores gastam mais do que os data centers. A metalurgia, por exemplo, já representa 9% do consumo de eletricidade no Brasil.
Porém, a Agência Internacional de Energia mostra que os data centers tendem a se concentrar em regiões, onde há vantagens regulatórias, de conectividade e grande disponibilidade de mão de obra especializada. Esse comportamento pode levar a situação reportada pela Bloomberg, em que certas cidades americanas viram o preço da conta de eletricidade quase triplicar.
Como o sistema de distribuição e de cobrança de eletricidade no Brasil é diferente, é difícil estimar se esse padrão se repetiria no país. A Aneel (Agência Nacional de Energia Elétrica) e grupos interessados no mercado já discutem quem vai pagar pelos investimentos necessários na rede de distribuição para receber data centers no país e parte disso pode sobrar para os outros consumidores.
O repórter viajou a Porto Alegre a convite da Carrier