Uma Forma Mais Rápida de Estimar o Consumo de Energia da IA
Pesquisadores do MIT e do MIT-IBM Watson AI Lab criam ferramenta inovadora para prever o consumo energético de cargas de trabalho de IA.

Introdução
Com o crescimento explosivo da inteligência artificial, estima-se que os data centers consumam até 12% da eletricidade total dos EUA até 2028, de acordo com o Lawrence Berkeley National Laboratory. Para tornar a IA mais sustentável, a eficiência energética dos data centers é um objetivo primordial dos cientistas.
Desenvolvimento de uma Ferramenta Inovadora
Para alcançar essa meta, pesquisadores do MIT e do MIT-IBM Watson AI Lab desenvolveram uma ferramenta de previsão rápida que informa aos operadores de data centers quanto poder será consumido ao executar uma carga de trabalho de IA específica em um determinado processador ou chip acelerador de IA.
Vantagens sobre Métodos Tradicionais
O método proposto pelos pesquisadores fornece estimativas confiáveis em poucos segundos, ao contrário das técnicas tradicionais de modelagem, que podem levar horas ou até dias para fornecer resultados. Além disso, a ferramenta pode ser aplicada a uma ampla variedade de configurações de hardware, incluindo designs emergentes que ainda não foram implantados.
Os operadores de data centers podem usar essas estimativas para alocar recursos limitados de forma eficaz entre vários modelos de IA e processadores, aumentando a eficiência energética. Este recurso também permitirá que desenvolvedores de algoritmos e provedores de modelos avaliem o consumo energético de um novo modelo antes de sua implementação.
Contribuição dos Pesquisadores
"O desafio da sustentabilidade da IA é uma questão urgente que temos que responder. Como nosso método de estimativa é rápido, conveniente e fornece um feedback direto, esperamos que ele encoraje desenvolvedores de algoritmos e operadores de data centers a pensar mais sobre a redução do consumo de energia", afirmou Kyungmi Lee, pós-doutoranda do MIT e autora principal do artigo sobre esta técnica.
Lee é acompanhada no artigo por Zhiye Song, estudante de pós-graduação em engenharia elétrica e ciência da computação; Eun Kyung Lee e Xin Zhang, gerentes de pesquisa da IBM Research e do MIT-IBM Watson AI Lab; Tamar Eilam, Fellow da IBM, cientista chefe de computação sustentável na IBM Research e membro do MIT-IBM Watson AI Lab; e o autor sênior Anantha P. Chandrakasan, reitor do MIT, professor Vannevar Bush de Engenharia Elétrica e Ciência da Computação, e membro do MIT-IBM Watson AI Lab. A pesquisa foi apresentada esta semana no IEEE International Symposium on Performance Analysis of Systems and Software.
Método de Estimação Rápido
Dentro de um data center, milhares de poderosos unidades de processamento gráfico (GPUs) realizam operações para treinar e implantar modelos de IA. O consumo de energia de uma GPU varia com base na sua configuração e na carga de trabalho que está processando.
Muitos métodos tradicionais para prever o consumo de energia envolvem a decomposição de uma carga de trabalho em etapas individuais e a emulação de como cada módulo dentro da GPU está sendo utilizado, passo a passo. Contudo, cargas de trabalho de IA, como treinamento de modelos e pré-processamento de dados, são extremamente grandes e podem levar horas ou dias para serem simuladas desta forma.
Identificação de Padrões
Os pesquisadores do MIT procuraram utilizar informações menos detalhadas que possam ser estimadas mais rapidamente. Eles descobriram que as cargas de trabalho de IA frequentemente apresentam muitos padrões repetíveis. Essas simetrias podem ser exploradas para gerar as informações necessárias para estimativas de consumo energético confiáveis, mas rápidas.
Os desenvolvedores de algoritmos comumente escrevem programas otimizados para executar da maneira mais eficiente em uma GPU. Esse tipo de otimização, que ressoa entre desenvolvedores de software, cria uma estrutura regular — exatamente o que os pesquisadores estão tentando aproveitar.
Desenvolvimento do EnergAIzer
A equipe desenvolveu um modelo de estimativa leve, chamado EnergAIzer, que captura o padrão de uso de energia de uma GPU a partir dessas otimizações. Apesar de sua rapidez, os pesquisadores notaram que a estimativa não considerava todos os custos energéticos.
Por exemplo, toda vez que uma GPU executa um programa, existe um custo fixo de energia necessário para sua configuração inicial. Além disso, cada vez que a GPU opera em um pedaço de dados, um custo adicional de energia deve ser considerado. Flutuações no hardware ou conflitos na movimentação de dados podem impedir que uma GPU utilize toda a largura de banda disponível, aumentando assim o consumo de energia.
Ajustes Finais e Resultados
Para incluir esses custos adicionais e variações, os pesquisadores reuniram medições reais de GPUs para gerar termos de correção que foram aplicados ao seu modelo de estimativa. Com isso, conseguiram uma estimativa rápida que também é muito precisa.
No fim, um usuário pode fornecer informações sobre sua carga de trabalho, como o modelo de IA que deseja executar e o número e o comprimento dos dados de entrada. O EnergAIzer é capaz de fornecer uma estimativa de consumo energético em questão de segundos.
Além disso, o usuário pode alterar a configuração da GPU ou ajustar a velocidade de operação para observar como tais escolhas de design impactam o consumo total de energia.
Métricas de Precisão
Quando os pesquisadores testaram o EnergAIzer usando informações de cargas de trabalho de IA reais de GPUs, a ferramenta conseguiu estimar o consumo de energia com um erro de aproximadamente 8%, equivalente a métodos tradicionais que podem levar horas para produzir resultados.
O novo método pode também prever o consumo de energia de GPUs futuras e configurações de dispositivos emergentes, desde que o hardware não mude drasticamente em um curto espaço de tempo.
Perspectivas Futuras
No futuro, os pesquisadores desejam testar o EnergAIzer nas mais recentes configurações de GPUs e escalar o modelo para que ele possa ser aplicado a múltiplas GPUs colaborando para executar uma carga de trabalho.
"Para realmente ter um impacto na sustentabilidade, precisamos de uma ferramenta que possa fornecer uma solução rápida de estimativa de energia em toda a estrutura, para projetistas de hardware, operadores de data centers e desenvolvedores de algoritmos, todos podendo se tornar mais conscientes do consumo de energia. Com essa ferramenta, estamos dando um passo nessa direção", conclui Lee.
Esta pesquisa foi financiada, em parte, pelo MIT-IBM Watson AI Lab.