Pegada de carbono associada aos sistemas de inteligência artificial têm o potencial de intensificar a crise climática.
A inteligência artificial (IA) tem se destacado nos últimos anos como setor em pleno desenvolvimento, sendo utilizada em áreas como saúde, educação e até mesmo em tarefas do cotidiano. No entanto, o uso intensivo dessa tecnologia tem gerado preocupações. Um artigo publicado pela revista Nature Climate Change em junho de 2022, revelou que a quantidade de energia elétrica necessária para o desenvolvimento de modelos IA é responsável por um aumento nas emissões de carbono do setor tecnológico, o que contribui para o aquecimento global.
Para que aprendam a realizar suas tarefas, os modelos IA precisam passar por um treinamento, que consiste no processamento de grandes quantidades de dados. Algoritmos como o do ChatGPT, desenvolvido pela OpenAI, são abastecidos com bancos de dados de textos da internet, para que analisem e saibam identificar e compreender a linguagem utilizada pelas pessoas.
Data centers das big techs são responsáveis por até 4% das emissões de CO2
Nas big techs, como a Microsoft e a Alphabet (Google), o processamento de dados acontece em data centers, instalações físicas responsáveis por hospedar servidores, dados e os equipamentos necessários para o funcionamento de serviços da área de TI. Dados da Agência Internacional de Energia (IEA, em inglês) indicam que os data centers consomem cerca de 200 terawatts-hora (TWh) de eletricidade. Isso equivale a aproximadamente 1% da demanda global de eletricidade. Com todo esse consumo energético, algumas estimativas indicam que a infraestrutura conjunta dessas centrais de computadores e das redes de transferência de dados é responsável por 2% a 4% das emissões globais de CO2 em todo o mundo, número próximo ao setor de aviação comercial.
De acordo com o Conselho Mundial de Eletrônica, 45% das emissões de gases de efeito estufa da indústria de tecnologia provêm do gasto intensivo de energia dos data centers.
Distribuições das emissões de gases do efeito estufa no setor de tecnologia
Fonte: Global Electronics Council, 2021
A expectativa é de que essas emissões aumentem nos próximos anos. Isso porque a demanda por IA e pelo treinamento de algoritmos tem crescido exponencialmente, principalmente com o sucesso e popularização de ferramentas como o ChatGPT e Dall-E.
Rizzieri Pedruzzi, professor adjunto do Departamento de Engenharia Sanitária e Ambiental (DESMA) da UERJ, explica que o uso de GPUs, placas gráficas com poder de processamento maior, apesar de promover mais rapidez e eficiência na fase de treinamento dos sistemas IA, demandam um consumo de energia muito maior do que outros processadores. O professor destaca também o custo energético relacionado à operação contínua de supercomputadores em grandes corporações. “Geralmente, esses computadores, uma vez ligados, não desligam, e quando começam a fazer o treinamento de redes de inteligência artificial, o consumo de energia aumenta ainda mais”.
Um estudo feito pela Universidade de Massachusetts, nos Estados Unidos, revelou que o treinamento de um modelo IA comum de grande porte pode emitir até 284 toneladas de CO2, o equivalente ao dobro de emissões de um carro durante toda sua vida útil, incluindo o processo de fabricação. Em modelos mais complexos, que trabalham com a aprendizagem profunda (deep learning), como algoritmos que fazem a curadoria de conteúdo em redes sociais, o poder de processamento necessário é maior e o consumo de energia também. Ou seja, conforme os modelos evoluem e são aperfeiçoados para atingirem maior precisão, a pegada de carbono tende a crescer.
A fase de treinamento, porém, é só o começo. De acordo com Anne Mollen, pesquisadora da ONG alemã AlgorithmWatch, 90% das despesas com a execução de inteligência artificial ocorrem na fase seguinte, quando os usuários consultam o sistema, o que pode acontecer milhões de vezes por dia. Uma simples pergunta ao ChatGPT, pode gerar um gasto energético 10 vezes maior do que o necessário na fase de treino, o que significa 500 toneladas de CO2, uma emissão comparável a dirigir um carro a gasolina por 1 milhão de quilômetros de distância.
Como reduzir as emissões de carbono?
Uma das principais preocupações sobre o assunto é que a maior parte da energia consumida pela IA é proveniente de fontes não renováveis. “A mudança da matriz energética é essencial para diminuir as emissões de carbono”, enfatiza o professor Rizzieri Pedruzzi. “Se a matriz energética for mais limpa, de energia renovável, temos uma pegada de carbono menor. Em uma região que queima combustível fóssil para gerar energia teremos uma pegada de carbono maior, emitindo mais gás carbônico na atmosfera”.
Ainda que as empresas mudem a matriz energética e utilizem fontes renováveis, Pedruzzi ressalta que, em algumas atividades, a emissão de carbono é inevitável. Como na cadeia de suprimentos, associadas à extração, produção e transporte de matérias-primas que compõem equipamentos presentes nos centros de desenvolvimento de redes de inteligência artificial. Ele explica que, as emissões de gases poluentes relacionados à exploração de recursos, e a cadeia de produção de uma placa gráfica, como as GPUs utilizadas no treinamento de inteligência artificial, é consideravelmente maior do que as oriundas do consumo de energia.
A partir disso, a alternativa seria a compensação. Muitas empresas e gestões governamentais vêm adotando a política net zero. De forma geral, significa que todo lançamento de gases poluentes na atmosfera deve ser compensado pela redução de uma quantidade equivalente de CO2. Entre algumas estratégias adotadas estão a captura de dióxido de carbono emitido por instalações industriais e sua posterior armazenagem em locais específicos para evitar a liberação na atmosfera, o reflorestamento e a regulamentação e políticas públicas que incentivam práticas sustentáveis e penalizam emissões excessivas. Grandes empresas de tecnologia, como a Apple, Amazon, Google e Meta já anunciaram planos para se tornarem neutras em carbono em suas operações até 2030.
Para tornar a IA mais ecológica, uma equipe de pesquisadores da Universidade de Stanford, Facebook AI Research e MCGill University desenvolveu um rastreador, que mede quanta eletricidade um projeto de aprendizado de máquina usará e quanto isso significa em emissões de carbono. Os pesquisadores implementaram no rastreador uma ferramenta que gera um site para comparar a eficiência energética de diferentes modelos. Assim, os desenvolvedores de IA podem medir o consumo e emissão de seus experimentos e escolher a opção mais eficiente e de menor impacto ambiental. O rastreador foi usado em 2020 no workshop SustaiNLP na conferência sobre Métodos Empíricos em Processamento de Linguagem Natural e está disponível online para pesquisadores.
Comments