A Lei de Koomey é a Lei do Novo Moore?

Avatar de Redação
18/12/2020 às 11:15 | Atualizado há 4 anos
Outros destaques

Laptops, celulares e tablets ficam mais baratos, mais elegantes e mais potentes a cada ano, enquanto a duração da bateria continua aumentando. Você já se perguntou por que isso acontece e se os dispositivos podem continuar melhorando para sempre?

A resposta à primeira pergunta é explicada por três leis descobertas pelos pesquisadores, conhecidas como Lei de Moore, escala de Dennard e Lei de Koomey. Continue lendo para entender o impacto dessas leis na computação e aonde elas podem nos levar no futuro.

O que é a Lei de Moore?

Se você é um leitor regular do MakeUseOf, provavelmente conhece a mítica Lei de Moore.

O CEO e cofundador da Intel, Gordon Moore, o apresentou pela primeira vez em 1965.

Ele previu que o número de transistores em um chip dobraria aproximadamente a cada dois anos e se tornaria entre 20% a 30% mais barato de ser produzido anualmente. O primeiro processador da Intel foi lançado em 1971 com 2.250 transistores e uma área de 12 mm2. As CPUs de hoje possuem centenas de milhões de transistores por milímetro quadrado.

Embora tenha começado como uma previsão, a indústria também adotou a Lei de Moore como um roteiro. Durante cinco décadas, a previsibilidade da lei permitiu às empresas formular estratégias de longo prazo, sabendo que, mesmo que seus projetos fossem impossíveis na fase de planejamento, a Lei de Moore entregaria a mercadoria no momento adequado.

Isso teve um efeito indireto em muitas áreas, desde os gráficos cada vez melhores dos jogos até o número cada vez maior de megapixels em câmeras digitais.

No entanto, a lei tem prazo de validade e a taxa de progresso está diminuindo. Embora os fabricantes de chips continuem a encontrar novas maneiras de contornar os limites dos chips de silício, o próprio Moore acredita que eles não funcionarão mais até o final desta década. Mas, não será a primeira lei da tecnologia a desaparecer.

O que aconteceu com o Dennard Scaling?

Em 1974, o pesquisador da IBM Robert Dennard observou que, conforme os transistores encolhem, seu uso de energia permanece proporcional à sua área.

O dimensionamento de Dennard, como ficou conhecido, significava que a área do transistor era reduzida em 50% a cada 18 meses, levando a um aumento na velocidade do clock de 40%, mas com o mesmo nível de consumo de energia.

Em outras palavras, o número de cálculos por watt aumentaria a uma taxa exponencial, mas confiável, e os transistores ficariam mais rápidos, baratos e consumiriam menos energia.

Na era do dimensionamento de Dennard, melhorar o desempenho costumava ser um processo previsível para os fabricantes de chips. Eles apenas adicionaram mais transistores às CPUs e aumentaram as frequências de clock.

Isso também era fácil para o consumidor entender: um processador rodando a 3,0 GHz era mais rápido do que um rodando a 2,0 GHz, e os processadores ficavam cada vez mais rápidos. Na verdade, o International Technology Roadmap for Semiconductors (ITRS), uma vez que as taxas de clock previstas atingiriam 12 GHz em 2013!

Ainda hoje, os melhores processadores do mercado têm uma frequência básica de apenas 4,1 GHz. O que aconteceu?

O fim da escala de Dennard

A velocidade do relógio ficou presa na lama por volta de 2004, quando as reduções no uso de energia pararam de acompanhar a taxa de encolhimento dos transistores.

Os transistores ficaram muito pequenos e a corrente elétrica começou a vazar, causando superaquecimento e altas temperaturas, levando a erros e danos ao equipamento. Essa é uma das razões pelas quais o chip do seu computador tem um dissipador de calor. Dennard Scaling atingiu limites ditados pelas leis da física.

Mais núcleos, mais problemas

Com clientes e setores inteiros acostumados com melhorias de velocidade contínuas, os fabricantes de chips precisavam de uma solução. Então, eles começaram a adicionar núcleos aos processadores como uma forma de continuar aumentando o desempenho.

No entanto, vários núcleos não são tão eficazes quanto simplesmente aumentar a velocidade do clock em unidades de núcleo único. A maioria dos softwares não aproveita o multiprocessamento. O cache de memória e o consumo de energia são gargalos adicionais.

A mudança para chips multicore também anunciou a chegada do silício escuro.

A Idade das Trevas do Silício

Logo ficou claro que, se muitos núcleos forem usados ​​simultaneamente, a corrente elétrica pode vazar, ressuscitando o problema de superaquecimento que matou o dimensionamento de Dennard em chips de núcleo único.

O resultado são processadores multicore que não podem usar todos os seus núcleos de uma vez. Quanto mais núcleos você adiciona, mais transistores do chip precisam ser desligados ou desacelerados, em um processo conhecido como “silício escuro”.

Portanto, embora a Lei de Moore continue a permitir que mais transistores caibam em um chip, o silício escuro está corroendo o espaço da CPU. Portanto, adicionar mais núcleos torna-se inútil, já que você não pode usar todos eles ao mesmo tempo.

Sustentar a Lei de Moore usando múltiplos núcleos parece ser um beco sem saída.

Como a lei de Moore poderia continuar

Uma solução é melhorar o multiprocessamento de software. Java, C ++ e outras linguagens projetadas para núcleos únicos darão lugar a outras como Go, que são melhores na execução simultânea.

Outra opção é aumentar o uso de FPGAs (field-programmable gate arrays), um tipo de processador personalizável que pode ser reconfigurado para tarefas específicas após a compra. Por exemplo, um FPGA pode ser otimizado por um cliente para lidar com vídeo enquanto ou pode ser especialmente adaptado para executar aplicativos de inteligência artificial.

Construir transistores com materiais diferentes, como o grafeno, é outra área que está sendo investigada para extrair mais vida da previsão de Moore. E, no futuro, a computação quântica pode mudar completamente o jogo.

O futuro pertence à lei de Koomey

Em 2011, o professor Jonathan Koomey mostrou que a eficiência de energia de pico de saída (a eficiência de um processador rodando em velocidade máxima) ecoou a trajetória de energia de processamento descrita pela Lei de Moore.

A Lei de Koomey observou que, das bestas de tubo de vácuo da década de 1940 aos laptops da década de 1990, os cálculos por joule de energia dobraram de forma confiável a cada 1,57 anos. Em outras palavras, a bateria usada por uma determinada tarefa diminuía pela metade a cada 19 meses, resultando na energia necessária para um cálculo específico caindo por um fator de 100 a cada década.

Embora a Lei de Moore e o dimensionamento de Dennard fossem extremamente importantes em um mundo de desktops e laptops, a maneira como usamos os processadores mudou tanto que a eficiência energética prometida pela Lei de Koomey é provavelmente mais relevante para você.

Sua vida de computação provavelmente está dividida entre muitos dispositivos: laptops, celulares, tablets e dispositivos diversos. Nesta era de proliferar a computação, a duração da bateria e o desempenho por watt estão se tornando mais importantes do que extrair mais GHz de nossos processadores de muitos núcleos.

Da mesma forma, com mais de nosso processamento terceirizado para enormes centros de dados de computação em nuvem, as implicações do custo de energia da Lei de Koomey são de grande interesse para os gigantes da tecnologia.

No entanto, desde 2000, a duplicação da eficiência energética em toda a indústria descrita pela Lei de Koomey diminuiu devido ao fim do dimensionamento de Dennard e à desaceleração da Lei de Moore. A Lei de Koomey agora oferece a cada 2,6 anos e, ao longo de uma década, a eficiência energética aumenta por um fator de apenas 16, em vez de 100.

Pode ser prematuro dizer que a Lei de Koomey já está seguindo a de Dennard e Moore rumo ao pôr do sol. Em 2020, a AMD relatou que a eficiência de energia de seu processador AMD Ryzen 7 4800H aumentou por um fator de 31,7 em comparação com suas CPUs de 2014, dando à Lei de Koomey um impulso substancial e oportuno.

Relacionado: O novo chip M1 da Apple é uma virada de jogo: tudo o que você precisa saber

Redefinindo a eficiência para estender a lei de Koomey

A eficiência de energia de saída de pico é apenas uma forma de avaliar a eficiência da computação e que agora pode estar desatualizada.

Essa métrica fazia mais sentido nas últimas décadas, quando os computadores eram recursos escassos e caros que tendiam a ser levados ao limite por usuários e aplicativos.

Agora, a maioria dos processadores funciona com desempenho máximo por apenas uma pequena parte de suas vidas, ao executar um videogame, por exemplo. Outras tarefas, como verificar mensagens ou navegar na web, requerem muito menos energia. Como tal, a eficiência energética média está se tornando o foco.

Koomey calculou essa “eficiência de uso típico” dividindo o número de operações realizadas por ano pelo total de energia usada e argumenta que deve substituir o padrão de “eficiência de uso de pico” usado em sua formulação original.

Embora a análise ainda deva ser publicada, entre 2008 e 2020, espera-se que a eficiência do uso típico tenha dobrado a cada 1,5 anos ou mais, retornando a Lei de Koomey à taxa ideal observada quando a Lei de Moore estava em seu auge.

Uma implicação da Lei de Koomey é que os dispositivos continuarão a reduzir de tamanho e se tornarão menos intensivos em energia. Processadores encolhidos – mas ainda de alta velocidade – podem em breve ficar com tão pouca energia que serão capazes de extrair sua energia diretamente do ambiente, como calor de fundo, luz, movimento e outras fontes.

Esses dispositivos de processamento onipresentes têm o potencial de inaugurar a verdadeira era da Internet das Coisas (IoT) e fazer seu smartphone parecer tão antiquado quanto os gigantes com tubos a vácuo da década de 1940.

No entanto, à medida que cientistas e engenheiros descobrem e implementam mais e mais novas técnicas para otimizar a “eficiência de uso típico”, essa parte do uso total de energia de um computador provavelmente cairá tanto que, em níveis de uso típico, apenas o pico de produção será significativo o suficiente para medir.

O uso de pico de produção se tornará o padrão para a análise de eficiência energética mais uma vez. Nesse cenário, a Lei de Koomey acabará encontrando as mesmas leis da física que estão desacelerando a Lei de Moore.

Essas leis da física, que incluem a segunda lei da termodinâmica, significam que a Lei de Koomey terminará por volta de 2048.

A computação quântica mudará tudo

A boa notícia é que, a essa altura, a computação quântica deve estar bem desenvolvida, com transistores baseados em átomos únicos comuns, e uma nova geração de pesquisadores terá que descobrir todo um outro conjunto de leis para prever o futuro da computação.


.

Se você gostou do artigo, nos acompanhe no Google Notícias, Facebook, Twitter e Telegram para ter acesso imediato a tudo.
Avatar de Redação
Os artigos assinados por nossa Redação, são artigos colaborativos entre redatores, colaboradores e/por nossa inteligência artificial (IA).
SUGESTÕES PARA VOCÊ