PUE 1.09 é marketing

PUE 1.09 é marketing: o que os relatórios de sustentabilidade dos datacenters escondem sobre água, resfriamento e custos reais

Por Gabriel Xavier Supervisor de Gestão e Arquitetura de Sistemas | Especialista em Governança de TI e Analytics

Você leu que o Google mantém um PUE de 1.09 nos seus datacenters globais e pensou: “Pronto, resolvido. A nuvem é eficiente.” Leia novamente o relatório de sustentabilidade deles, mas desta vez, procure pelos números de água. Vai encontrar 24 milhões de metros cúbicos por ano. Agora pergunte-se: qual métrica você estava realmente vendo?

Este é o campo de batalha onde a maioria dos profissionais de infraestrutura perde. O setor vendia uma narrativa limpa de eficiência energética enquanto redirecionava silenciosamente o problema para recursos hídricos locais. E enquanto isso acontecia, os custos operacionais de resfriamento, a variável que realmente importa quando você está gerenciando um datacenter em orçamentos apertados, continuavam crescendo de forma invisível nos relatórios executivos.

O PUE (Power Usage Effectiveness) é a métrica certa para a pergunta errada. Responde: “Quantas unidades de energia total gasto para cada unidade de IT?”, mas não responde a questões críticas que devem preocupar quem de fato opera infraestrutura: em um cenário de estresse (picos de carga de processamento de IA, por exemplo), quanto a sua operação de resfriamento custa realmente? Qual é o impacto hídrico local da sua instalação? E quando você coloca dois datacenters lado a lado, um com PUE 1.5 em um clima úmido vs. outro com PUE 1.2 em um clima desértico, qual deles é mais sustentável de verdade?

Neste artigo, exploramos como o PUE funciona quando colocado sob pressão real, como as organizações manipulam essas métricas nos relatórios de transparência, e como você deveria estar pensando em eficiência de datacenter se seu trabalho depende de decisões técnicas e orçamentárias concretas.

A Ilusão do PUE 1.09: como uma métrica bonita esconde restrições técnicas

Comecemos com um fato que o Google não sublinha nos seus slides de sustentabilidade: aquele PUE de 1.09 é uma média global ponderada. Isso significa que alguns datacenters deles operam com PUE próximo a 1.1, enquanto outros rodam a 1.5 ou superior. A métrica escolhida para comunicação pública foi a que impressionava.

Aqui está o problema técnico real: o PUE de 1.09 é alcançável quando você tem as condições ideais. Quais são essas condições?

  1. Localização em clima frio (Islândia, Finlândia, regiões montanhosas)
  2. Resfriamento livre (free cooling) com mínima necessidade de ar condicionado compressor
  3. Utilização de servidores com baixa densidade térmica (processadores menos intensivos em calor)
  4. Infraestrutura de resfriamento líquido sofisticada (mais cara de instalar, mas mais eficiente)
  5. Carga de trabalho previsível (sem picos abruptos que forcem overprovisioning de energia)

Agora observe a realidade operacional de um datacenter em São Paulo, Dallas ou Mumbai, onde a temperatura ambiente já está entre 25 e 35°C durante boa parte do ano. Seu PUE vai estar na faixa de 1.5 a 2.0. Não porque a engenharia é ruim, mas porque a física não permite fazer melhor quando a diferença entre a temperatura ambiente e a temperatura de operação do servidor (tipicamente 18-27°C) é pequena.

O que ninguém fala é que essa diferença de PUE entre 1.09 e 1.8 pode representar uma diferença de custo de resfriamento de 40 a 60% do custo total de operação. Se você está rodando um datacenter com 10 MW de consumo de TI (IT load), aquele PUE “ruim” significa que você está gastando 8 MW adicionais em resfriamento, distribuição de energia e outras funções auxiliares. Seu custo mensal de eletricidade sobe em milhares de dólares.

Um datacenter que anuncia PUE 1.2 em relatório anual, mas opera com resfriamento por torre evaporativa (economizador) em um clima de baixa umidade, pode estar ocultando custos sazonais brutais. Durante a estação seca, a torre evaporativa se torna ineficaz, e o sistema tem que ativar compressores de refrigeração centralizados. O PUE salta para 1.8 ou 2.0 em picos de verão. Os relatórios de sustentabilidade normalmente usam a média anual, não o pico operacional.

Leia também: O que ninguém te conta sobre auto-scaling quando o tráfego explode

Resfriamento: onde o PUE falha completamente

A infraestrutura de resfriamento em datacenters opera em duas camadas: eficiência energética (o que o PUE mede) e custo real de operação (o que ninguém mede publicamente).

O PUE não distingue entre estes cenários:

Cenário A: Datacenter com resfriamento por ar (CRACs), eficiência de distribuição de 80%, operando a PUE 1.8. Cenário B: Datacenter com resfriamento líquido direct-to-chip, eficiência de distribuição de 95%, operando a PUE 1.2.

Superficialmente, o Cenário B é 33% melhor. Mas os custos reais são inversamente proporcionais:

  • O Cenário A usa tecnologia madura, com peças de reposição em qualquer fornecedor industrial, curva de aprendizado dos técnicos já estabelecida.
  • O Cenário B requer selos especializados, interfaces de refrigerante proprietárias, pessoal técnico treinado especificamente. Quando um servidor falha com líquido de resfriamento em contato direto, a substituição demanda paragem e isolamento, afetando disponibilidade.

Mais crítico ainda: a margem de operação no Cenário B é menor. Se a bomba de resfriamento líquido opera a 90% da capacidade nominal, qualquer carga adicional (um pico não previsto no modelo de demanda) força shutdown preventivo. No Cenário A, você pode ainda rodar 2-3% acima da capacidade nominal por algumas horas sem risco imediato.

Datacenters que publicam PUE baixo frequentemente operam com margem de resfriamento apertada. Isso não aparece nos relatórios. O que aparece é quando há downtime, e aí a narrativa vira “falha crítica de infraestrutura”, não “o sistema estava operando em ponto de instabilidade térmica”.

Water Usage Effectiveness (WUE): a métrica que deveria estar no relatório de sustentabilidade, mas raramente está

Se o PUE é incompleto, o WUE é a métrica verdadeira do impacto ambiental de um datacenter. E é deliberadamente invisível.

WUE mede litros de água consumidos por kilowatt-hora (kWh) de processamento de TI. Uma instalação com WUE de 1.2 litros/kWh está usando 1,2 litro de água para cada unidade de energiadispendida pelos servidores.

Aqui está o contraste: Um datacenter no Arizona com PUE 1.15 (muito eficiente energeticamente) pode ter WUE de 3.5 litros/kWh porque utiliza torres evaporativas, que consomem água substancialmente. Num mesmo nível de consumo de TI, a pegada hídrica é enorme. Um datacenter na Islândia com PUE 1.09 e WUE de 0.2 litros/kWh usa principalmente resfriamento geotérmico e evaporativo natural (sem torres ativas).

Os números agregados são perturbadores:

  • Google: 24 bilhões de litros de água/ano (2024)
  • Meta: números semelhantes (95% do consumo de água da empresa vem de datacenters)
  • Microsoft: buscando ser “water positive” por 2030, mas consumiu 6,7 bilhões de litros em 2023

Agora considere o fator local: Google opera um datacenter em Lenoir, Carolina do Norte. A cidade é vulnerável a secas. O datacenter sozinho consumiu 25% da água local em 2021 (conforme documentado em litígios). PUE bonito no relatório global. Crise hídrica local ignorada.

Análise Cruzada: Um datacenter em clima tropical pode ter a seguinte escolha operacional:

  1. Resfriamento por água com ciclo aberto: PUE alto (1.7), WUE muito baixo (0.3 litros/kWh), mas usa água local continuamente.
  2. Resfriamento por ar com economizador: PUE médio (1.4), WUE zero (sem água adicional), mas operação ruidosa e menor eficiência térmica.
  3. Resfriamento com torre evaporativa: PUE baixo (1.2), WUE alto (2.5 litros/kWh), mas variável com umidade relativa do ar.

Cada escolha tem trade-offs invisíveis nos relatórios de transparência. A maioria dos datacenters em operação escolhe a opção que minimiza PUE reportável, não a que minimiza impacto ambiental real ou custo total de operação.

Tabela comparativa: três perfis reais de operação de datacenter

AspectoDatacenter Nórdico (Islândia)Datacenter Urbano (São Paulo)Datacenter Desértico (Arizona)
PUE Anual Reportado1.091.651.35
WUE Anual0.2 L/kWh1.8 L/kWh3.2 L/kWh
Tecnologia de ResfriamentoGeotérmico + Free CoolingTorre Evaporativa + CompressorTorre Evaporativa Seca + Compressor
Custo de Resfriamento por MW$15k-20k/mês$45k-65k/mês$50k-75k/mês
Temperatura Ambiente Média5-8°C22-25°C28-35°C
Margem Térmica Operacional18°C8°C5°C
Risco de Shutdown por TemperaturaBaixo (<1% ano)Médio (2-4% ano)Alto (5-10% ano)
Custo de Água por m³$1.50$8-12$15-25
Impacto Hídrico LocalNenhum (água retorna ao ciclo)Crítico em períodos de secaCrítico permanente
Mudança de PUE em Pico OperacionalMínima (1.09 → 1.11)Substancial (1.65 → 2.1)Substancial (1.35 → 1.95)

Interpretação Crítica: O datacenter nórdico pode permitir-se comunicar PUE 1.09 porque sua operação é fundamentalmente diferente. Seus custos e riscos também são diferentes, menores em resfriamento, mas maiores em latência de rede (distância dos usuários finais) e custos de transmissão de dados de longa distância. O datacenter urbano e o desértico operam sob estresse térmico permanente, refletido no custo real, não no número de PUE reportado.

A verdade oculta do marketing verde: como os relatórios de transparência manipulam a narrativa

Os relatórios de transparência publicados por Google, Microsoft e Meta seguem um padrão consistente:

  1. Destaque do PUE global (número bonito)
  2. Menção de energias renováveis (percentual anual, não por local)
  3. Silêncio completo sobre WUE ou menção superficial
  4. Exclusão de variabilidade sazonal (média anual mascara picos)
  5. Nenhuma correlação entre PUE e localização geográfica

Vejamos um exemplo específico: Google publica que 100% de sua energia de datacenter vem de renováveis (matching de compra de energia). Isso é tecnicamente verdadeiro, eles compraram certificados de energia renovável equivalentes ao que consumiram. Mas significa que um datacenter em Phoenix rodando a 1.95 PUE em agosto, consumindo 50 MW de compressores de ar condicionado, está sendo alimentado por painéis solares na Califórnia? Não. Está sendo alimentado pela rede local, que em Phoenix é 40% carvão durante o dia (quando os painéis estão produzindo, a demanda de resfriamento também está em pico).

A manipulação é sofisticada. Não é mentira técnica, é seleção estratégica da informação. Um analista de sustentabilidade comparando dois datacenters da mesma empresa pode notar:

  • Datacenter A (Finlândia): PUE 1.10, WUE 0.3, água retorna ao ciclo natural
  • Datacenter B (Texas): PUE 1.50, WUE 2.8, água consumida localmente sem retorno

A média global apresentada: PUE 1.30, WUE 1.55. Ambas as métricas ficam entre os dois, mascarando que Datacenter B está causando escassez hídrica real em seu município enquanto Datacenter A é verdadeiramente sustentável.

Agora, se você estiver em uma consultoria analisando se vai instalar seu datacenter em qual região, essa média global é pior que inútil, é enganosa.

Custos reais de operação: o que o PUE não diz (e deveria)

Um datacenter consome energia em componentes discretos:

Componente% do Consumo TotalControlável por PUE?Variação com Clima
Servidores e Computação50-55%Sim (eficiência de servidor)Nenhuma
Resfriamento (CRAC, CRAH, chiller)25-35%Sim (eficiência de resfriamento)Extrema
Distribuição de Energia (PDU, UPS)8-12%ParcialmenteBaixa
Iluminação, Segurança, Outros5-8%NãoBaixa

O PUE captura eficiência em toda a infraestrutura, mas você notou algo? A componente mais variável com clima (resfriamento) é também a menos controlável quando você já instalou a infraestrutura. Se você instalou um resfriador por ar compressor em um local que ficou 4°C mais quente do que previsto, seus custos de operação subiram permanentemente.

Exemplo: Uma empresa de cloud computing dimensionou um datacenter em 2020 com base em projeções climáticas para 2025. Esperava PUE de 1.4. O modelo de negócio era rentável nesse cenário. Porém, em 2025, a temperatura média subiu 2°C acima da projeção. O PUE agora roda a 1.65-1.75 durante 6 meses do ano.

Os custos adicionais de eletricidade: $800k-1.2M/ano em um datacenter de 15 MW. Isso reduz margem operacional de forma substancial. A empresa não pode mudar. Instalou chiller com vida útil de 15 anos. Está presa a um custo operacional que aumenta a cada ano.

Essa é a vulnerabilidade climática que relatórios de sustentabilidade não mencionam. PUE 1.4 é um ponto, não uma faixa. Mas a realidade operacional é uma faixa, e ela se move.

O teste do especialista: a metodologia de cálculo do PUE varia conforme a conveniência

Aqui está um detalhe que apenas profissionais que auditaram datacenters conhecem: não existe um padrão único de cálculo de PUE.

A fórmula básica é:

PUE = (Consumo Total de Energia do Datacenter) / (Consumo de Energia de TI)

Simples. Mas “consumo de TI” é onde a discussão começa.

Variação 1 – Datacenter Colocante (Colo): Muitas colocationistas medem apenas energia até o PDU (Power Distribution Unit). Tudo que vem depois, conversão de voltagem no rack, sistema de até-interrupção ininterrupta, pequenos resfriadores locais, não entra no cálculo de “energia de TI”. PUE reportado: 1.3. PUE real: 1.6.

Variação 2 – Fronteira do Escopo: Google calcula seu PUE com a fronteira em toda a propriedade, energia que entra no portão do datacenter. Alguns datacenters menores definem a fronteira apenas no prédio de computação, excluindo a subestação e transformadores externos. PUE é mais baixo porque está excluindo um nível de ineficiência que existe, mas não é contabilizada.

Variação 3 – Exclusão de Cargas Auxiliares: Alguns datacenters excluem de “energia de TI” equipamentos de teste, laboratório, e infraestrutura de rede não diretamente conectada a servidores. Outros incluem. Uma diferença de 3-5% no PUE.

Nenhuma dessas variações é errada. Mas nenhuma é transparente. E quando você compara “PUE 1.2 reportado por provedor A vs. PUE 1.5 reportado por provedor B”, você não está comparando eficiência, você está comparando metodologias de cálculo contábil.

Fornecedores competindo por contratos corporativos frequentemente adotam a metodologia de cálculo que resulta no menor PUE reportável. Não é fraude, é otimização contábil. Um auditor externo verificaria? Raramente. Os clientes pedem? Raramente. Então o incentivo existe para escolher a métrica mais favorável.

Restrições técnicas invisíveis: por que nem todos os datacenters podem ter PUE baixo

Um datacenter em clima desértico não pode alcançar PUE 1.1 sem resfriamento geotérmico (que requer investimento inicial gigantesco e não é viável em muitos locais) ou resfriamento líquido direct-to-chip (que requer redesenho total do datacenter).

As razões físicas:

  1. Diferença Térmica Disponível: Em um clima com temperatura média de 35°C, o maior drop de temperatura que você consegue com free cooling é 35°C (ambiente) – 20°C (server inlet) = 15°C. Qualquer diferença além disso requer compressor. Em um clima nórdico com 5°C de ambiente, você pode rodar 5°C – 20°C = -15°C (impossível fisicamente), então você ajusta para 20°C de inlet e aproveita toda a diferença disponível com free cooling.
  2. Eficiência de Condensador: Torres evaporativas (economizadores evaporativos) funcionam bem em climas de baixa umidade relativa. Em Miami com 80% de umidade, uma torre evaporativa é inútil, você está voltado para chillers de compressor, que consomem 20-30% mais energia.
  3. Overprovisioning Sazonal: Um datacenter dimensionado para carga máxima em verão está ocioso em inverno. A infraestrutura de resfriamento está superdimensionada a maior parte do ano. Em um clima com variação sazonal extrema (Montreal: -25°C em janeiro, 28°C em julho), você tem dois regimes operacionais totalmente diferentes. Seu PUE em janeiro pode ser 1.05 (super eficiente com free cooling), mas em julho é 1.8 (compressores rodando a plena capacidade). A média anual de 1.42 mascara a realidade operacional.

Um datacenter bem projetado não busca menor PUE. Busca menor custo operacional dado as restrições climáticas, e maior resiliência operacional. Às vezes, isso significa aceitar PUE mais alto em troca de margens térmicas maiores.

Timeline: como a narrativa do PUE evoluiu (e por que ainda é incompleta)

AnoDesenvolvimentoImplicação
2006PUE é definido por Green GridMétrica simples para comparação setorial
2010-2014Industria migra para PUE como KPICompetição por números baixos começa
2015Google publica PUE 1.12, torna-se benchmarkPressão competitiva por replicação
2016Microsoft começa a reportar WUEReconhecimento de que PUE é incompleto
2018-2020Crescimento de IA redefine demanda térmicaPUE baseado em workload anterior é inútil
2021Litígios sobre água em Lenoir (NC) revelam discrepância entre relatórios de PUE e impacto hídrico realPressão regulatória aumenta
2023-2024Proposta de métricas ampliadas (CUE, outros)Nenhuma ainda é padrão industria-wide
2025Google reclama eficiência de resfriamento por IA, mas consumo total de água aumenta 20% vs. 2023Paradoxo: PUE melhora, impacto ambiental piora

Interpretação: A evoluçãoda métrica reflete o que a indústria quis comunicar em cada período, não necessariamente o que foi mais verdadeiro.

Análise econômica: por que gestores escolhem PUE alto mas reportam PUE baixo

Suponha que você é o VP de Operações de Infraestrutura de um grande provedor de nuvem. Você tem dois sites onde pode instalar um novo datacenter: Iceland (inverno 2°C, verão 12°C) vs. Texas (inverno 8°C, verão 38°C).

Cenário A – Islândia:

  • Capex inicial: $180M (infraestrutura de resfriamento simples, fundação em rocha basáltica cara)
  • Opex anual: $8M (resfriamento quase zero, apenas manutenção)
  • PUE: 1.09
  • Problema: Latência para usuários na América do Sul e Ásia é alta (>100ms)
  • Risco climático: Mínimo

Cenário B – Texas:

  • Capex inicial: $140M (infraestrutura de resfriamento mais complexa)
  • Opex anual: $18M (resfriamento substancial durante 7 meses/ano)
  • PUE: 1.55
  • Vantagem: Latência para usuários nos EUA é excelente (<20ms)
  • Risco climático: Médio-alto (seca, temperatura extrema)

Decisão Econômica Real: Você escolhe Texas. O Capex é $40M mais baixo, e a vantagem de latência para o mercado americano (70% da demanda) recupera o Opex em contrato de clientes. Você reporta PUE 1.55? Não. Você foca em “100% energia renovável” e deixa o PUE como número secundário nas apresentações.

Agora, suponha que você é uma corporação multinacional com obrigação legal de relatório de sustentabilidade (SEC, EU Taxonomy, etc.). Você opera 50 datacenters globais como os acima. Qual número você reporta como PUE corporativo?

Opção 1: Média aritmética global: (1.09 × 5 datacenters da Islândia + 1.55 × 45 datacenters dos EUA) = 1.49 Opção 2: Média ponderada por consumo de energia: Se os datacenters dos EUA consomem mais (maior demanda local), você pode chegar a 1.45-1.52 Opção 3: Métrica cherry-picked: “PUE de nossos datacenters mais eficientes: 1.09”

Qual você escolhe se seu objetivo for maximizar aparência de sustentabilidade? Provavelmente Opção 2, apresentada como “1.47 PUE corporativo”, um número que soa melhor que 1.55, mas pior que 1.09, criando uma narrativa de “liderança em eficiência entre pares”.

A verdade econômica: você está operando infra com PUE 1.55 onde está a maioria dos usuários, porque faz sentido financeiro. Mas reporta um número médio que não reflete a realidade operacional de nenhum site específico.

Variabilidade operacional: o fator que relatórios anuais ocultam

Um datacenter não opera a um PUE constante. Ele opera em uma faixa.

Dinâmica Mensal Típica (Datacenter no Hemisfério Norte):

MêsTemperatura MédiaModo de ResfriamentoPUE Mensal
Janeiro-5°CFree Cooling 100%1.08
Fevereiro0°CFree Cooling + Compressor 30%1.12
Março5°CFree Cooling + Compressor 20%1.10
Abril12°CFree Cooling + Compressor 15%1.09
Maio18°CFree Cooling + Compressor 5%1.08
Junho22°CCompressor 20%1.15
Julho25°CCompressor 35%1.22
Agosto24°CCompressor 30%1.19
Setembro20°CFree Cooling + Compressor 10%1.10
Outubro13°CFree Cooling + Compressor 10%1.09
Novembro7°CFree Cooling 95%1.08
Dezembro2°CFree Cooling 98%1.08
Média Anual12°C1.11

O datacenter publica “PUE 1.11 em 2024.” O que na verdade significa? Que em 6 meses ele operou entre 1.08-1.10, e em 2 meses (julho-agosto) operou em 1.19-1.22. A variação de 11% entre pior e melhor mês é invisível na média.

Agora suponha que há um pico de demanda não previsto em julho (exemplo: evento global, campanha de marketing, lançamento de produto). Demanda de computação sobe 15%. Carga térmica aumenta. Compressores operam a 95% da capacidade nominal. PUE de julho sobe para 1.35.

Isso aparece no relatório anual? Não. Aparece como um blip na série temporal mensal. Mas se isso acontecer 3 vezes por verão durante 5 anos, você acabou de aceitar custos operacionais adicionais que não foram capturados na projeção inicial.

Quanto você deveria cobrar dos seus clientes por utilizarem seu datacenter durante os meses de pico operacional vs. meses de baixa demanda? Se você cobrar o mesmo (modelo padrão de nuvem), você está subsidiando picos com receita de períodos baixos, modelo insustentável em longo prazo se os picos crescerem. Se você cobrar mais em picos (modelo dinâmico), você está criando fricção comercial com clientes. Mas se você não cobrar diferença nenhuma e os picos crescerem como a indústria espera com IA, seus margens operacionais caem de 35% para 20% e isso nunca é explicado num relatório de “eficiência de datacenter”.

Restrições de água doce: o fator geo que torna PUE irrelevante em certas regiões

Água doce é um recurso finito. Alguns datacenters estão em regiões com abundância. Outros não.

Mapa Hídrico Global (Simplificado):

  • Escassez Crítica: Arizona, California, norte da Índia, Oriente Médio, sul da África
  • Escassez Moderada: Texas, Colorado, partes do Brasil (interior paulista), Califórnia
  • Abundância: Islândia, Noruega, Suíça, Canadá, partes da Austrália

Um datacenter em Phoenix com WUE de 2.5 litros/kWh operando a 15 MW de TI está usando 37.5 milhões de litros de água por ano. Para contexto, uma pessoa bebe 365 × 3 litros = 1,095 litros por ano. Esse datacenter consome o equivalente a água para 34.000 pessoas.

A população de Tempe, Arizona (onde operamúltiplos datacenters de tech) é 170.000. Estão todos os datacenters da região usando água de forma compartilhada com uma população que já enfrenta escassez.

Problema de Otimização Insolvível

Um provedor de cloud planeja instalar um mega-datacenter em Arizona. Opções:

  1. Resfriamento Evaporativo (WUE 3.0): PUE baixo (1.25), mas consomirá 50 milhões de litros/ano. Autoridades locais bloquearam 3 projetos similares já.
  2. Resfriamento por Ar (WUE 0.0): Sem uso de água, mas PUE sobe para 1.8. Custos de resfriamento aumentam $5M/ano. Lucro do projeto cai abaixo de threshold de investimento. Não vai ser feito.
  3. Resfriamento Líquido Closed-Loop: WUE 0.1 (água apenas para limpeza), PUE 1.1. Custo de capital aumenta em $40M. IRR (Internal Rate of Return) do projeto sai de 22% para 16%. Board rejeita.

Resultado: A empresa escolhe Opção 1, negocia com autoridades locais uma “compensação hídrica” (planta de dessalinização, rebate em outro projeto, etc.), publica “100% de água compensada” e reporta PUE 1.25.

Tecnicamente, relatório correto. Verdade hídrica local: ainda há um déficit.

Benchmark enganoso: por que Google é a exceção, não a regra

Google é frequentemente citado como benchmark de eficiência. PUE 1.09 é real. Mas é alcançável para Google por razões que não se replicam:

  1. Escala: Google possui ou controla ~1 milhão de servidores. Quando você projeta resfriamento para 1 milhão de máquinas, você consegue otimizações que empresas menores não conseguem (exemplo: compartilhamento de chiller entre múltiplos clusters).
  2. Capital Infinito para R&D: Google desenvolveu seus próprios chillers, sistemas de controle de temperatura com redes neurais, designs proprietários de rack. Uma empresa típica compra chillers de vendedores (York, Carrier, Trane), que otimizam para o mercado geral, não para seu caso específico.
  3. Localização Estratégica: Google instala datacenters em Finlândia, Islândia, Suécia, Irlanda, locais com resfriamento de clima naturalmente superior. Nem todas as empresas têm a capacidade financeira e operacional de instalar infraestrutura em locais remotos.
  4. Workload Favorável: Serviços Google (Search, Maps, Gmail) são menos sensíveis a latência de 50ms vs. serviços que requerem <10ms (traders de alta frequência, plataformas de jogos). Isso permite que Google site seus datacenters em localizações remotas mas eficientes termicamente.

Quando Azure (Microsoft) coloca um datacenter em cada região metropolitana (por requisito de localidade regulatória em muitos países europeus), o PUE desse datacenter em Dublin é 1.4-1.5 (não 1.09) porque Dublin em verão pode chegar a 18-20°C, mas você não pode contar com free cooling o tempo todo.

Conclusão: Comparar seu PUE com Google é comparar o desempenho de combustível de um caminhão de entrega urbano com um navio de carga. São veículos diferentes para demandas diferentes. O PUE de Google é impressionante, mas é um outlier baseado em capacidades únicas.

Dinâmica futura: IA, resfriamento líquido e o colapso do model de PUE

A chegada de chips de IA (GPUs de alto desempenho, TPUs) mudou completamente a dinâmica térmica de um datacenter.

Um servidor tradicional (CPU + RAM) dissipa 300-500W. Um servidor com 8 GPUs de última geração dissipa 2000-4000W. A densidade térmica aumentou 5-10x em um espaço similiar.

Consequências:

  1. Free cooling se torna inviável: Com 4000W dissipados em 2U (9 polegadas) de altura, você não consegue remover esse calor com ar a 25°C entrando no rack. Precisa de resfriamento líquido.
  2. PUE “tradicional” de 1.5 vira 2.5+ rapidamente: Você está precisando de chillers de potência gigantesca, bombas de resfriamento, e sistemas de contingência. A proporção de energia em “funções auxiliares” vs. “TI” estufa.
  3. Métricas antigas se tornam inúteis: Um datacenter projetado em 2020 tinha arquitetura de resfriamento por ar com PUE esperado de 1.4. Em 2025, quer colocar GPUs nele. Ou faz retrofit de resfriamento líquido (capex gigantesco), ou aceita PUE de 2.2 e custos operacionais explosivos.

Google já reconheceu isso. Publicou em 2024 que, apesar do PUE ter permanecido em 1.09, o consumo de água aumentou 20% em 2023-2024. Por quê? Cargas de IA demandam mais resfriamento. A métrica PUE não captura isso. O consumo total de energia em resfriamento, porém, aumentou.

Previsão (2026-2028):

A indústria vai abandonar PUE como métrica primária e migrar para “custo de resfriamento por unidade de computação” ou WUE. Por quê? Porque em um mundo de cargas térmicas altas, o que importa não é a razão entre consumo total e consumo de TI, é absolutamente quanto você está gastando para manter aquela computação operacional sem overheating.

Um datacenter com PUE 1.3 mas resfriamento a $2/kWh será mais valioso para investors que um com PUE 1.1 mas resfriamento a $5/kWh. PUE cria ilusão de eficiência. Custo real de operação não mente.

Lições para Arquitetos e Gestores de Infraestrutura

Se você está:

  1. Avaliando um novo datacenter: Não peça PUE. Peça PUE + WUE + custo operacional mensal de resfriamento + variabilidade sazonal esperada. O PUE sozinho diz muito pouco.
  2. Dimensionando infraestrutura para IA: Use não somente a carga de TI esperada (em Watts), mas a carga térmica máxima em picos de computação. Superdimensione resfriamento em 20%, não em 5%, porque margin térmica é a diferença entre operação estável e shutdown de emergência.
  3. Reportando sustentabilidade: Seja honesto sobre variabilidade. “PUE anual 1.4, com variação mensal de 1.1 (inverno) a 1.8 (verão)” é mais útil que “PUE 1.4” sozinho.
  4. Selecionando localização: Pesquise disponibilidade de água local, projeções climáticas de 10 anos (não apenas histórico), custos de eletricidade sazonais e possíveis regulações futuras de consumo hídrico. PUE é terciário nessa decisão.
  5. Negociando contratos com cloud providers: Insista em cláusulas de “eficiência energética garantida com limite de custo operacional mensal”. Evite ser exposto a reajustes de eletricidade acima de um threshold porque o datacenter ficou ineficiente por mudanças climáticas.

Conclusão: a métrica que você vê vs. a realidade

O PUE 1.09 do Google é verdadeiro e impressionante. Mas é verdade parcial de uma história muito maior. É como alguém dizer “meu carro tem eficiência de combustível de 30 km/l” sem mencionar que só roda em estrada plana, em clima frio, com velocidade constante de 80 km/h. Tecnicamente correto. Operacionalmente enganoso.

O que ninguém diz é que:

  • 2/3 dos datacenters globais operam com PUE entre 1.5 e 2.0, não 1.09.
  • Água é o novo CO2, será o fator limitante para expansão de datacenters em 5-10 anos.
  • Variabilidade sazonal e climática é tão importante quanto eficiência média.
  • Relatórios de “sustentabilidade” frequentemente reportam as métricas que ficam boas, não as que importam.

Se você está tomando decisões sobre infraestrutura, construindo datacenters, ou avaliando fornecedores, leia os relatórios. Mas depois, faça as perguntas que os relatórios evitam responder.