Última alteração: 2015-08-04
Resumo
As mudanças no hardware disponível para computação, no volume de dados para processamento, bem como a disponibilidade de novos ambientes para programação paralela estão alterando o panorama da computação. A quantidade de dados a ser processada em diversas aplicações é tão grande que requer o uso da computação paralela, realizada a partir de clusters de computadores comuns que processam quantidades gigantescas de dados. Na computação sequencial, o tempo de processamento de uma tarefa é muito bem modelado. No entanto, esse problema é bem mais complexo na computação paralela e não há um modelo consolidado para estimar o tempo de execução de programas paralelos. Neste trabalho investigamos como prever o tempo de execução no caso de processamento paralelo de grandes quantidades de dados. Para isso, analisamos resultados de diversos benchmarks computacionais com o objetivo de identificar as escalas de tempo da computação atual. As análises e experimentos indicam que os sistemas atuais processam a cerca de cinco GBytes/s e são capazes de ordenar de dezenas a centenas de MBytes por segundo por nó do cluster. Esses resultados serão úteis para compor os parâmetros de um modelo de desempenho para processamento paralelo.