San Jose, CA – Faz tempo que questiono os fabricantes de placas gráficas (as GPUs) sobre o alto consumo elétrico de seus produtos. Hoje, as placas topo de linha consomem várias vezes mais energia que o restante do PC inteiro, requerendo fontes de alimentação de alta potência (e alto custo) especialmente nos desktops equipados com […]
San Jose, CA – Faz tempo que questiono os fabricantes de placas gráficas (as GPUs) sobre o alto consumo elétrico de seus produtos. Hoje, as placas topo de linha consomem várias vezes mais energia que o restante do PC inteiro, requerendo fontes de alimentação de alta potência (e alto custo) especialmente nos desktops equipados com Crossfire ou SLI. Em um mundo onde o consumo elétrico é um fator de preocupação e de decisão de compra, tais produtos para “gamers” são tão inadequados quanto os imensos caminhões com motores V8 que os americanos usam como automóveis.
Porém devo reconhecer que esse “alto consumo” precisa ser colocado em perspectiva, o que está errado, na minha opinião, é o uso dessas placas em computadores domésticos apenas para jogar, quando sabemos que a maioria dos jogos comerciais não requerem tais especificações tão extremas. As placas em si, ou melhor, as GPUs ou processadores gráficos tem um consumo relativamente pequeno frente ao seu poder computacional. Percebi isso ao ver vários palestrantes mencionarem o “baixo consumo” como uma das vantagens das soluções de processamento intensivo baseadas em GPUs. Vou dar um exemplo bem prático que assisti hoje, sobre os radiotelescópios que varrem o espaço em busca das mais diversas respostas:

O custo de construir, operar e manter um sistema de radiotelescópios tradicional é imenso, tanto é que são raras essas instalações em nosso planeta e geralmente operadas por grandes consórcios. Há um outro problema técnico, que é o trafego de imensas quantidades de dados crus para apenas um pequeno pedaço de céu a ser processado. Um novo modelo de radiotelescópios está sendo viável combinando as GPUs como unidades de pré processamento, ou seja, os sistemas baseados em múltiplas GPUs fica localizado junto aos telescópios, menores e mais baratos, e fazem o pré-processamento desses dados transmitindo informações mais úteis do que os dados crus extraídos diretamente dos radiotelescópios. Porém há um outro complicador, pois esses sensíveis radiotelescópios precisam ficar em regiões remotas, longe de interferências de radio e de transmissões de ondas diversas.
Evidentemente essas regiões remotas não têm população alguma, nem infra-estrutura elétrica, nem nada, portanto são necessários sistemas de suporte a vida (para os cientistas operadores) e geradores a diesel para alimentar o sistema inteiro, e esses geradores têm um limite de viabilidade na geração de energia por galão de diesel. O modelo que foi apresentado na conferencia se baseia em uma razão de 20 teraflops por 20 GWatts e o pré processamento dos dados reduz o tráfego de 160 Gb/s para apenas 8Gb/s. Lembrando que os radiotelescópios quando ativos recebem dados ininterruptamente que precisam ser tratados em real time, ou transmitidos para algum lugar. O fenômeno cósmico a ser observado não vai ficar parado, esperando o processamento dos dados terminar…

Os dados que foram apresentados comparando a “performance por watts” desses sistemas baseados em GPU contra um modelo tradicional baseado em CPU (supondo a mesma performance em teraflops) é de cair o queixo, não só o custo de aquisição e de espaço ocupado é ridiculamente menor quanto o custo de energia chega a ser 10 vezes menor. O legal desse evento que a apresentação não é feita pela NVIDIA, e sim pelo responsável do projeto (nesse caso, um professor de Harvard).