
27 abr Inteligência Artificial e seu alto consumo de energia elétrica; entenda
Para além das expectativas de revolução na sociedade e otimização de tarefas, há uma série de críticas envolvendo certos aspectos do campo da inteligência artificial (IA). Um deles é a relação entre IA e consumo energia — e, mais especificamente, o aumento dele.
Em especial no setor de elétrica, são muitos os temores e questionamentos sobre o impacto que a expansão acelerada desse mercado traz para cidades inteiras. Afinal, a demanda por eletricidade aumenta significativamente com a construção, expansão ou ampliação nas operações de data centers, algo que já realidade em várias partes do mundo.
Mas por que exatamente o consumo de energia da inteligência artificial virou uma preocupação global? A seguir, saiba um pouco mais sobre os impactos ambientais dessa indústria e o que pode ser feito para, no mais otimista dos cenários, evitar que o consumidor seja prejudicado por essa mudança no mercado.
Por que a inteligência artificial consome tanta energia?
A IA é uma consumidora tão intensa de energia porque os sistemas por trás dessa tecnologia demandam uma alta quantidade de eletricidade para operar, além de serem utilizados em estruturas de grande porte e funcionamento contínuo.
Um data center, local que exige alto consumo de eletricidade na operação. (Imagem: EvgeniyShkolenko/Getty Images)
Em diferentes etapas de criação e manutenção desses serviços digitais, é necessário manter uma infraestrutura robusta que funciona sem interrupções. Essas plataformas operam com base em data centers, um conjunto de servidores alimentados por uma grande quantidade de unidades gráficas de processamento (as chamadas GPUs ou placas de vídeo) e outros chips.
O hardware utilizado em data centers de IA é de ponta em termos de desempenho, mas isso acaba se refletindo também no alto consumo. Ainda entram na conta servidores focados apenas em armazenamento, fora a infraestrutura de rede e conexão desses locais.
Esses equipamentos realizam uma alta quantidade de operações matemáticas em paralelo e sem parar — sendo que toda essa capacidade de processamento exige um alto consumo de eletricidade. As tarefas exigentes incluem desde o treinamento de grandes modelos de linguagem (LLMs) até a execução de tarefas por IAs generativas, como o desenvolvimento de textos e imagens com base em prompts do usuário.
Como funciona o consumo de energia na IA
Quanto maior e mais complexo o modelo de IA, mais requisições simultâneas ele precisa atender. Consequentemente, há maior exigência de resposta rápida desse processamento e ele demanda mais energia para seguir em operação.
Já o usuário pode não sentir diretamente ou a curto prazo o impacto do uso da IA em sua conta de luz. Exceções incluem rodar um LLM localmente no computador, sem o auxílio da nuvem e dependendo somente do processamento do PC, ou se você estiver nas proximidades de um data center de IA que já reconfigurou o consumo local.
Data centers, processamento intensivo e uso de GPUs
Entre todas as operações em servidores de grande porte, há duas tarefas que se destacam no consumo de eletricidade. A primeira é a alimentação pela eletricidade da rede elétrica que vem de toda uma região e é consumida em grandes quantidades nos data centers.
É ela que gera a potência necessária para que os servidores carregados de GPUs e responsáveis por treinar a manter os sistemas de IA possam funcionar na performance mais elevada possível.
A segunda atividade é o resfriamento desses mesmos equipamentos, que atingem altas temperaturas justamente pelo funcionamento intenso e contínuo, exigindo mecanismos de controle de calor que também consomem eletricidade e outros recursos, como água.
O consumo de energia, portanto, é alto tanto na fase de treinamento prévio desses grandes modelos quanto no uso cotidiano das plataformas.
Quais são os impactos ambientais da IA?
Aumento no consumo de milhares de Megawatts/hora (MWh) de eletricidade, que pode prejudicar redes elétricas regionais por causa de picos ou sobrecargas de uso, causar problemas no fornecimento de energia e até exigir a construção de mais usinas ou estruturas geradoras;Maior quantidade de emissões de carbono, que são gerados justamente pelo uso intenso de eletricidade e as operações frequentes de interação entre os equipamentos ou da IA atendendo usuários humanos;Redução em reservas de água pelos gastos altos em resfriamento de sistemas, elevando o risco de escassez e conflitos especialmente em regiões que apresentam períodos de seca;Ocupação de grandes áreas de terra para a construção dos data centers — às vezes envolvendo terrenos antes preservados, que concentram vegetação local ou próximos de comunidades que podem;
Quanto de energia a IA consome atualmente?
Não há números totais a respeito do gasto global com IA em termos de eletricidade, mas estimativas de analistas do mercado trazem estimativas do atual panorama e ele aponta para um cenário de alto consumo.
Um relatório da União Internacional de Telecomunicações aponta que o consumo de eletricidade em data centers de IA aumentou 12% a cada ano de 2017 a 2023. Contando servidores em geral e em 2024, eles demandavam mais de 460 TWh para funcionar — aproximadamente 1,5% de toda a eletricidade consumida globalmente.
A Nvidia fornece GPUs e chips como o H200, especializados para alimentar sistemas de IA. (Imagem: Divulgação/Nvidia)
Para efeitos de comparação, é um consumo de eletricidade maior que o de toda a Arábia Saudita e pouco abaixo da França. E esse número deve aumentar para 945 TWh até o fim desta década, com Estados Unidos e China sendo os países com maior consumo médio no setor.
O próprio uso convencional desses serviços é também mais custoso. Segundo a Agência Internacional de Energia (IEA), um pedido ao ChatGPT requer “dez vezes mais eletricidade do que uma busca tradicional no Google“, já que o processamento que essa tarefa demanda é consideravelmente maior.
É possível reduzir o consumo energético da IA?
O cenário parece pessimista, mas há soluções em idealização, desenvolvimento ou implementação que, se combinadas, podem ajudar a cortar gastos energéticos de data centers de larga escala.
Uma dessas ações é técnica: viabilizar a construção de LLMs que sejam mais econômicos tanto na fase de treinamento quanto durante a operação, ou então utilizar GPUs e outros chips mais eficientes e que demandem menor eletricidade.
A IA chinesa DeepSeek, por exemplo, ficou famosa no começo de 2025 não apenas pela alta capacidade, mas também por considerada mais econômica do ponto de vista energético do que outros modelos parecidos.
Outra solução é adotar energias renováveis ou ao menos com danos reduzidos ao ambiente — caso da energia solar, eólica, hidrelética ou até nuclear, como algumas companhias já estão cogitando. O data center do TikTok no Ceará, por exemplo, tem um consumo energético de 300 megawatts (MW), mas garante que vai utilizar apenas energia renovável eólica e não terá impactos na rede elétrica local, além de resultar também em menos emissões.
Além disso, o projeto prevê a adoção de um sistema de resfriamento “baseado em circuito fechado de reuso de água”, com menor consumo ou perdas por evaporação. Já a Anthropic, da IA Claude, garantiu que vai ajudar parcialmente a pagar as contas de luz de pessoas afetadas pelos novos data centers que atendem a companhia.
O futuro da IA é o desafio energético
A relação entre Inteligência Artificial e o consumo de energia é bastante próxima e, ao mesmo tempo, arriscada. O presente e o futuro dessa tecnologia tão em alta dependem de acesso a muito mais energia, já que esse mercado está em expansão acelerada e já traz impactos significativos em vários setores da sociedade.
Porém, esse consumo também carrega uma série de riscos e cria um cenário desafiador para sistemas elétricos e metas climáticas globais, que atualmente traçam objetivos de transição energética que agora podem não ser mais cumpridos. Até mesmo acionistas já estão questionando grandes empresas sobre os possíveis impactos dessa alta no consumo.
Reduzir a adoção massiva da IA ou a construção de data centers ao redor do mundo seriam ações mais efetivas, mas de difícil implementação. Por isso, projetos de compensação energética, garantias de uso de fontes menos danosas ao ambiente e a priorização na criação de sistemas cada vez mais econômicos são soluções mais palpáveis para o cenário atual.
O que é a atual corrida pelos chips que pode decidir os vencedores na era da IA? Entenda melhor sobre esse debate nesta coluna!