--You received this message because you are subscribed to the Google Groups "HPC Brasil" group.
To unsubscribe from this group and stop receiving emails from it, send an email to hpc-br+un...@googlegroups.com.
For more options, visit https://groups.google.com/groups/opt_out.
Olá,meu nome é Max de Bayser. Sou mestre em informática pela PUC-Rio e trabalho na IBM Research Brasil. Me interesso em HPC pela perspectiva da engenharia da infraestrutura, principalmente de software: linguagens de programação, paradigmas de comunicação, bibliotecas, ferramentas de análise de desempenho etc.
--
You received this message because you are subscribed to the Google Groups "HPC Brasil" group.
To unsubscribe from this group and stop receiving emails from it, send an email to hpc-br+un...@googlegroups.com.
For more options, visit https://groups.google.com/groups/opt_out.
Guilherme Friol
Scherm® Brasil.
High Performance Solutions
Pabx: +55-11-3521-7314
Celular: +55-19-9329-9999
Fax: +55-11-3873-3018
http://www.scherm.com.br/blog
Siga-nos
![]()
![]()
*****************************************************************************
Teoria e Prática: Teoria é quando nada funciona e todos sabem porque. Prática é quando tudo funciona e ninguém sabe porque. Em HPC nos juntamos Teoria e Prática: Nada funciona e não sabemos o porque.
*****************************************************************************
Olá pessoal do HPC-BR,
Meu nome é Edouard Kutchukian. Sou formado em eletrônica na época em que se discutia as vantagens e desvantagens dos sistemas transistorizados sobre os circuitos valvulados. e a palavra “informática” ainda não tinha sido inventada.
Estou me relacionando com a tecnologia de computadores desde os tempos em que o meu pai chamava este tipo de animal de “cérebro eletrônico”. Desde cedo, me interessei por Processamento de Alto Desempenho e estou neste mercado antes mesmo do surgimento das primeiras estações de trabalho Sun e Apollo equipadas com processadores da Texas rodando a fantásticos 10 MHz, lá nos meados dos anos 80.
Estou portanto envolvido com alta tecnologia há muitas décadas e uma coisa que mais me incomoda neste mercado é ver como algumas mentes iluminadas lançam as suas teorias ao vento e as multidões seguem seus devaneios tecnológicos sem uma análise mais criteriosa nem discussão, numa atitude dogmática de crença quase religiosa.
Antes de tomar uma decisão e adotar uma tecnologia, um usuário consciente deveria sempre fazer as quatro perguntas clássicas: “Quando ?”, “ como ?”, “ onde ? ” e “porquê ?”. Sempre foi assim desde que os sacerdotes de alguma civilização perdida inventaram a roda. Mas o ser humano contemporâneo, na sua arrogância, sugere que quem faz estas perguntas hoje é um retardado mental, esquecendo-se que, se os nossos ancestrais não fizessem estas perguntas, a nossa roda atual talvez fosse ainda quadrada ou então sextavada nas suas versões 2.1 ou 2.2.
Por isso, eu gostaria de lançar para discussão deste seleto grupo de pesquisadores e especialistas da área algumas questões que nos libertem do engessamento tecnológico aos quais os interesses mercadológicos nos submetem há anos.
Que tal falar primeiramente da arquitetura dos “clusters” de servidores para processamento de alto desempenho ? Eu gostaria de colocar duas questões que tem a ver com a nossa realidade tupiniquim, já que teremos cada vez menos condições de competir na lista HPC Top500. Sugiro então que, para não entrarmos em discussões prolixas, nos limitemos as nossas 99,9% das soluções que cabem dentro de 1 gabinete/rack.
Questão 1-A partir de quantos servidores/nós, em uma solução de cluster, este terá desempenho real melhor do que um único servidor rodando a mesma aplicação só com o paralelismo interno de 2, 4 ou 8 processadores multi-core ? E duas variantes desta pergunta: (a) Qual é o percentual de custo agregado de infraestrutura de hw, sw e complexidade num cluster em comparação ao custo de um único servidor de mesmo desempenho ? (b) O uso de aceleradores de processamento, como GPU´s (por ex. NVIDIA Tesla), Co-processadores (por ex. Xeon Phi), PCI-E Flash (Intel SSD, Fusion-io, LSI Nytro, etc. ) não teriam a tendência de potencializar estas diferenças de desempenho ?
Questão 2-Atualmente, qual é a conectividade entre servidores/nós de melhor custo/benefício para o desempenho geral do sistema de pequenos clusters que cabem num gabinete/rack ? Rede nGiga Ethernet ou rede Inifiniband ?
Penso que as nossas conclusões serão mais efetivas se fugirmos das discussões acadêmicas e nos concentrarmos na experiência prática de muitos dos nossos especialistas e suas conclusões.
Um grande abraço a todos e parabéns pela iniciativa do grupo HPC-BR.
Edouard