
08 jul Sem conversinha: estudo sugere que pedir respostas curtas pode reduzir gasto de energia das IAs
Mudanças na interação com as ferramentas de inteligência artificial generativa, como solicitar respostas curtas, podem reduzir o consumo de energia dos bots em até 54%. É o que aponta um estudo recente feito pela University College London (UCL) em parceria com a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO).
De acordo com a entidade, uma plataforma como o ChatGPT gasta aproximadamente 310 GWh de eletricidade por ano para gerar textos — na conta, não entra a demanda energética relacionada às solicitações para imagens. Esse consumo equivale aos gastos anuais de 3 milhões de pessoas na Etiópia.
Leia também: IA generativa pode consumir até 33 vezes mais energia, diz estudoOs avanços da IA resultaram em um aumento considerável nos gastos de energia. (Imagem: Getty Images)
Como reduzir a demanda das IAs por eletricidade?
No experimento, pesquisadores da UCL usaram suas próprias máquinas para rodar modelos de IA de grande porte. Dessa forma, foi possível monitorar o gasto energético da tecnologia em cada máquina e plataforma.
Segundo os cientistas da computação envolvidos nos testes, o primeiro passo para reduzir o gasto de energia dos bots é optar por prompts mais curtos ao interagir com eles;Assim, a IA vai responder de forma mais suscinta às solicitações, levando a uma redução no gasto de energia superior a 50%;A UNESCO recomendou às desenvolvedoras que realizem campanhas de conscientização dos usuários, reforçando tal prática;O relatório também sugere que as empresas de IA passem a usar ferramentas com capacidade de comprimir os resultados fornecidos pelos chatbots;Esse tipo de recurso diminui o tempo de processamento e não compromete a qualidade dos resultados.
“A responsabilidade por uma IA energeticamente eficiente não deveria recair apenas sobre os usuários. Porém, se isso for adotado em escala, o pedido de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais”, explicou a especialista da UNESCO, Leona Verdadero.
Saiba mais: GPT-4 gasta até 3 garrafas de água a cada 100 palavras geradas, diz estudo
Cabe ressaltar que os cálculos feitos durante a pesquisa levam em consideração somente o momento em que acontece a interação entre o usuário e a plataforma. O treinamento dos modelos de linguagem consome outros milhares de GWh de energia.
Usar prompts mais curtos diminui a exigência de processamento das IAs. (Imagem: Getty Images)
Modelos menores gastam menos
Ainda de acordo com o estudo, os modelos de linguagem menores, para tarefas específicas, podem ser ainda mais eficazes na redução da demanda de energia. Dependendo do uso, eles igualam o desempenho de modelos de grande porte consumindo muito menos eletricidade.
Em certos casos, os modelos pequenos chegam a consumir 10% dos gastos gerados por plataformas como ChatGPT, Gemini e Claude, segundo Verdadero. No estudo, as versões menores mostraram performance semelhante à das grandes IAs em tarefas como resumos e tradução.
Além do gasto energético reduzido, eles surgem como alternativa para países que não possuem investimentos avançados em poder computacional e têm conectividade limitada. Apostando neles, nações na África e na América Latina podem desenvolver suas próprias ferramentas de IA acessíveis, conforme a autora principal da pesquisa.
Confira: Energia nuclear é solução? Entenda por que a IA consome tanta eletricidade
Com o consumo de eletricidade dobrando a cada 100 dias por causa da inteligência artificial, segundo dados da Agência Internacional de Energia (IEA), a UNESCO ressaltou a urgência de debater o tema globalmente.
Você costuma usar prompts maiores ao interagir com o ChatGPT e as demais IAs ou já segue as orientações do estudo, solicitando respostas curtas? Comente nas redes sociais do TecMundo.