ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250

IDF Fall 2006 – High Performance Computing parte 2

Continuando o assunto da semana passada- parte 1 : O desafio do software Um aspecto do interessante desafio de construir essas máquinas HIGH PERFORMANCE é a complexidade ou sofisticação do elemento “software”. E apesar da Intel não ser uma empresa de software ela se destaca nesta área. Em IDFs anteriores eu havia tomado conhecimento dos […]

Publicado: 14/05/2026 às 13:00
Leitura
5 minutos
IDF Fall 2006  –  High Performance Computing parte 2
Construção civil — Foto: Reprodução

Continuando o assunto da semana passada-

parte 1 :

O desafio do software

Um aspecto do interessante desafio de construir essas máquinas HIGH PERFORMANCE é a complexidade ou sofisticação do elemento “software”. E apesar da Intel não ser uma empresa de software ela se destaca nesta área. Em IDFs anteriores eu havia tomado conhecimento dos diversos compiladores, ferramentas para otimização de códigos, analisadores de performance (profilers) etc. Neste IDF, visando otimização da arquitetura atual (DUAL e QUAD core) e a preparação do caminho para os supercomputadores do futuro, novas e sofisticadas ferramentas de software foram colocadas a disposição de desenvolvedores. São em essência analisadores de eficiência de software multi-thread bem como bibliotecas de software para serem usados com os compiladores da Intel (que são usados para desenvolver outros compiladores), que facilitam muito a criação de código com múltiplas execuções em paralelo. São eles :

– Intel Threading Building blocks

– Intel Thread Profiler

– Intel Thread Checker

Sem apoio teórico e ferramental, desenvolver código multi-core é difícil e demorado. Em uma demonstração um código otimizado usando estas bibliotecas e compiladores foi cerca de 80% mais eficiente que códigos otimizados “manualmente” pelo programador. A despeito das ferramentas fazerem uma boa parte do trabalho, a Intel vem dando suporte às Universidades na inclusão de disciplinas ligadas a “programação paralela” em seus currículos. Mais de 40 já adicionaram programação multi-core e a meta é que em 2007 sejam mais de 400 Universidades formando profissionais com este tipo de habilidade.

Ainda sobre o aspecto software, cabe discutir que tipos de aplicações podem tirar partido de um sistema computacional assim tão poderoso. Aplicações transacionais comerciais como ERPs ou sistemas de vendas online não são candidatos a este tipo de tecnologia. Não há consumo assim tão alto de recursos para este tipo de aplicativos. Por outro lado aplicativos de alta demanda de processamento em tempo real ou análise de quantidades incríveis de informação podem tirar partido desta tecnologia. Há exemplos de sistemas sofisticados para análises de engenharia, fluidodinâmica, geologia, metereologia, prospecção de dados(data mining) em bancos de dados gigantescos, reconhecimento facial, etc. Mas existem alguns mais prosaicos ou do dia a dia que são exemplos interessantes e mais próximos da realidade dos usuários :

– Gerenciamento de mídia pessoal : localização de arquivos de mídia (som ou vídeo) usando padrões de busca complexos. Por exemplo assobiar uma música e esta ser localizada em seu HD ou usando uma foto como referência localizar todos os vídeos com aquela pessoa.

– Entretenimento : controle de jogos por comando de voz, imersão em ambiente realístico 3D, realidade virtual

– Saúde : sistemas de monitoração de pessoas que requerem cuidados especiais e que ou moram sozinhas ou ficam muito tempo sós.

– Telepresença e Colaboração : reuniões de negócio, consultas médicas, ensino à distância (interatividade) , etc.

Uma aplicação interessante desta “Teratecnologia” é a capacidade de uso alternativos das dezenas (ou mais) de núcleos disponíveis. Obter “resiliência” e confiabilidade é uma delas. Em um chip multi-core alguns núcleos podem ser alocados como “reserva” de forma que ao longo do funcionamento auto-testes possam detectar eventuais problemas de funcionamento, isolar o núcleo errático, reconfigurar o sistema e com isso se adaptar a uma nova situação, garantindo o funcionamento sem falhas ou interrupções. Isso é muito crítico em um sistema que poderá ter dezenas de núcleos e não pode ter como característica a possibilidade de erro.

O protótipo desenvolvido consiste de um grande chip, feito na tecnologia de 45 nm, com 80 núcleos (8×10) medindo 13.75mm por 22mm. Sua eficiência energética é de 8 Gflops/watt (que indica seu consumo de 125 watts para 1 Teraflop). Este utiliza em tipo de memória “stacked 3D” que consiste de uma camada de silício “agregada” ao processador multicore, como se fosse um “waffer” (como o biscoito-em camadas). Esta singular forma construtiva visa otimizações tanto na comunicação dos vários núcleos com a memória como melhoria na dissipação térmica do conjunto.

[singlepic id=8379 w=320 h=240 float=]

Informações atualizadas sobre Teracomputer podem ser obtidas no site da Intel em sua área de pesquisa sobre Terascale .

Quando eu achava que já estava impressionado o suficiente, assisti a uma apresentação cujo tema era “Reaching Petascale”, ou seja, como chegar aos computadores que terão PETAFLOPs de capacidade de processamento!!! Só este assunto já renderia uma outra coluna inteira. Mas para não aborrecer mais vocês, nem tornar este texto ainda maior, finalizo esta coluna com a frase (e uma figura) que sintetiza uma realidade insofismável e que iremos comprovar.

Yesterday ´s supercomputing is Todays Personal Computing

O supercomputador de ontem é a computação pessoal de hoje

[singlepic id=8380 w=320 h=240 float=]

[singlepic id=8381 w=320 h=240 float=]

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas