Caso queira fazer o download de todos os trabalhos (apresentações orais e pôsteres), clique aqui.
Resumo: This paper analyzes the performance of a parallel implementation for the training process of the Back-propagation Algorithm in Deep Neural Network. Our testbed is an SMP machine with an IntelR Xeon Phi Coprocessor (Many Cores architecture). We study its suitability for optimizing a machine learning process, whereas this kind of accelerator card is becoming more affordable and popular among high performance enthusiasts and researchers.
Resumo: Cloud computing is a term used for computing services offered over the internet. These services cover from simple personal files storage up to servers hosting, being divided into classes accordingly the type of the offered service. One of these classes is known as PaaS (Platform as a Service), in which the provider offers a platform to develop and deploy applications. Besides the use of PaaS is attractive, it is neccessary to evaluate the efficiency of this service for a given class of tasks. In this work we present a new functionality included to iSPD in order to simulate and evaluate a PaaS service. Results show the efficacy of such simulations.
Resumo: The amount of mobile devices around the world has surpassed the range of 7 billion, and the distribution ratio of malicious applications has also increased significantly. However, researches of threat detection methods on these devices did not follow the same pace. This paper presents a proposal for a distributed detection methodology, optimized for large volumes of malicious programs for mobile devices stored in the cloud using the framework Apache Hadoop. This method has as target application installers for the Android operating system. The results indicate a success rate of 76.13 % to malicious files and 83 % non malicious files.
Resumo: A memória transacional é um novo mecanismo de programação concorrente que pode ser implementado em hardware, software ou de forma híbrida. Uma das grandes preocupações sobre esse mecanismo é o seu elevado custo computacional, especialmente em implementações em software. Este trabalho analisa o impacto de diferentes funções hashes no desempenho de sistemas transacionais em software que utilizam uma tabela de bloqueios. Os resultados adquiridos através de microaplicações mostram que a escolha da função hash tem um grande impacto no desempenho final do sistema.
Resumo: IT industry has witnessed an explosion in the amount of data collected during the past few years. Analyzing this data usually demands clustering algorithms to provide a valuable understanding about the datas subject. These algorithms are time-consuming, demanding a lot of processing. This can be provided through parallelism, which can be done nowadays by GPUs. In line with this context, the goal of this work is the proposal of a parallel version of the Fuzzy Minimals clustering algorithm on GPUs.
Resumo: Desenvolvemos um algoritmo para o problema do Hitting Set (HSP) adequado para aplicações de Biologia de Sistemas utilizando co-processadores Intel Xeon Phi, introduzindo diversas otimizações que melhor exploram suas características. Com uma Xeon Phi 3120A, comparamos seu desempenho com uma CPU Xeon E5-2620v2 e uma GPU NVIDIA Tesla K20c. Embora em nossos experimentos a Tesla K20c mostrou ter desempenho melhor do que a Xeon Phi 3120A, mostramos também que as otimizações propostas ofereceram ganhos de desempenho significativos (speedups de até 2,89 em relação a CPU Xeon E5-2620v2) que permitiu utilizar os co-processadores Xeon Phi para resolver instâncias do HSP na ordem de milhares de variáveis em tempo razoável.
Resumo: O uso de plataformas de alto desempenho é um requisito para a execução de atividades que lidam com grandes volumes de dados. Um conjunto de atividades interligadas, modeladas como um workflow, pode ter sua execução controlada por um Sistema de Gerenciamento de Workflows (SGWfs). O paralelismo de dados pode diminuir o seu tempo total de execução, contudo, os SGWfs não exploram isso de maneira automática. Este trabalho propõe o uso de anotações semânticas para a criação automática de um modelo paralelo para a execução das atividades. Em experimentos com um workflow que lida com 5,8 milhões de objetos de dados, a paralelização obtida das anotações reduziu em 88,37% o tempo de execução do workflow e em 10,35% o custo financeiro.
Resumo:O uso de plataformas de alto desempenho é um requisito para a execução de atividades que lidam com grandes volumes de dados. Um conjunto de atividades interligadas, modeladas como um workflow, pode ter sua execução controlada por um Sistema de Gerenciamento de Workflows (SGWfs). O paralelismo de dados pode diminuir o seu tempo total de execução, contudo, os SGWfs não exploram isso de maneira automática. Este trabalho propõe o uso de anotações semânticas para a criação automática de um modelo paralelo para a execução das atividades. Em experimentos com um workflow que lida com 5,8 milhões de objetos de dados, a paralelização obtida das anotações reduziu em 88,37% o tempo de execução do workflow e em 10,35% o custo financeiro.
Resumo:Nowadays the access to a cloud computing environment is provided on demand, which allows providers to offer transparent services to clients. To ensure compliance with the contract between client and provider, service providers need mechanisms to provide resources to the customer at a fair price. In this context, meta-heuristics in resource provisioning process are analyzed in this paper.
Resumo: This paper presents a general view of online stream processing and the importance of benchmarking these systems. In addition, the paper presents a real performance test of the Apache Storm system.
Resumo: Atualmente, o número de dispositivos computacionais tem crescido significativamente, e espera-se que cada vez mais esses sejam conectados à Internet. A Internet das Coisas é composta de pequenos sensores e atuadores com acesso à Internet e desempenhará um papel fundamental na resolução de muitos desafios existentes na sociedade atual. O projeto Visual Search for Internet of Things (ViSIoT) propõe uma plataforma para auxiliar os usuários técnicos e não-técnicos a descobrir e usar sensores como um serviço. Entretanto o protótipo inicial da ferramenta não se preocupa com o desempenho do algoritmo utilizado para a seleção dos sensores, denominado de TOPSIS. Neste contexto, este trabalho apresenta uma avaliação de desempenho de tal algoritmo sob diferentes circunstâncias.
Resumo: The execution of automated business processes can be very costly in terms of computational resources. Optimizing their resource utilization while meeting quality of service requirements is highly desirable. This work introduces a new method for generating analytical models to predict performance of resource-aware, large-scale business processes. Our method uses a mean field model to approximate the behavior of a large set of process instances competing for resources. Differently from related works, this approach does not suffer from the state space explosion problem generally associated with Markovian models.
Resumo: Real Time systems have their performance and stability directly linked to the scheduling algorithm used to allocate tasks to CPUs. This dependence has led to the proposal of several different scheduling policies, according to different sets of restrictions and properties. Therefore, it is important to identify wich scheduler is more suited to a given set of tasks. This evaluation can be performed more efficiently by simulation. In this work we present a new modeling interface, added to RTsim (Real Time simulator), aiming to easily create and simulate a new scheduling policy. With this interface a system's designer can define the policy and evaluate its performance through a simple graphical interface.
Resumo: Este trabalho apresenta brevemente a importância da análise de desempenho de sistemas computacionais e algumas ferramentas de software (benchmarks) gratuitas. Então são avaliados os desempenhos de cinco sistemas virtualizados em comparação com o desempenho de seus respectivos sistemas hospedeiros, de modo a ter-se uma análise mais detalhada das implicações da virtualização no desempenho dos sistemas.
Resumo: O problema do processamento de grandes quantidades de dados é um tema que obteve destaque significativo nos últimos anos, com sua complexidade e desafios. Neste trabalho apresentamos uma biblioteca para desenvolvimento e execução de aplicações seguindo uma extensão do modelo Mapreduce. O foco do trabalho é a obtenção de desempenho nas aplicações, e para atingir tal objetivo, propomos a utilização de threads para a exploração do paralelismo intra-nó e MPI para a comunicação entre as diversas máquinas do ambiente distribuído, de maneira que a execução das tarefas Map e Reduce sejam independentes, e diferentes funções podem ser executadas.
Resumo: Recentemente, projetos científicos que envolvem voluntários para analisar, coletar dados e ceder recursos computacionais de seus equipamentos pessoais vem ganhando força, impulsionados pelos avanços relacionados a área de tecnologia da informação e comunicação, permitindo o surgimento de uma série de projetos nessa linha, conhecida por Ciência Cidadã. Neste contexto foi lançado em 2012 o projeto ForestWatchers [http://www.forestwatchers.net], um projeto de Ciência Cidadã desenvolvido por pesquisadores da UNIFESP, LAC/INPE e Citizen Cyberscience Centre (CCC), o qual tem como objetivo monitorar as florestas tropicais através da colaboração de voluntários conectados à Internet ao redor de todo o planeta. Neste, trabalho foi implementado um sistema de Computação Voluntária eficiente e com escalabilidade que poderá ser integrado ao projeto ForestWatchers. Este sistema permite a classificação de imagens por rede neural, detectando automaticamente regiões onde houve desmatamento. Para contribuir, os voluntários necessitam apenas estar conectados remotamente através de um navegador Web e consentirem em ceder poder de processamento em seus próprios dispositivos computacionais.
Resumo: Protein docking analysis is used in many industries, such as in the search for new drugs. In this analysis, the effect of positioning two molecules is studied while considering their rotations in a tridimensional space. Given the infinite amount of possible combinations in this study, the efficiency of the rotation mechanism is fundamental. The research presented here seeks to investigate efficient ways to realize such rotations. In order to do so, we consider the use of parallel programming strategies using shared memory with multiple threads and accelerators. This project's results shall be used by a mechanism that selects the relevant rotations to be assessed.
Resumo: In this paper we present our implementations for the Jacobi Method for sparse linear systems in the Compressed Sparse Row (CSR) format using OpenMP, OpenACC and CUDA. Our model problem in this work is derived from the finite difference discretization of the two-dimensional Poisson Equation on rectangular domains.
Resumo: A estagnação no aumento de desempenho em processadores de uso geral nos últimos anos motiva pesquisas em outras formas de aceleração de aplicações. O uso de FPGAs para execução de algoritmos diretamente em hardware, dada a natureza reconfigurável da plataforma, se mostra como uma boa alternativa. No entanto, o baixo grau de abstração nas linguagens de descrição de hardware torna a programação desses dispositivos mais difícil. Uma solução para o problema são técnicas para sintetizar as aplicações em hardware a partir de linguagens de alto nível, como C. Neste artigo é descrita a combinação de dois compiladores para este fim.
Resumo: Simulators are widely used as tools to analyse, evaluate or validate different systems or even environments. Their use can reduce the time and coast needed to develop a new product since simulations can be performed at very early phases of project. However, most of the available simulation tools are not easy to use or tailored to specific needs. In this work we present a tool that can create a discrete-event simulator, with a GUI-based interface, from relatively simple formulation given by its user. The specification of the required parameters to create simulators systems characterized by transfer function, such as sequential circuits, is present here.
Resumo: O avanço na capacidade de processamento de grandes centros é acompanhado com um aumento ainda mais significativo no consumo de energia desses centros. Nos últimos anos tem se buscado soluções para diminuir esse consumo, principalmente em ambientes distribuídos, como grades computacionais. Uma alternativa para esses sistemas e fazer a alocação das tarefas minimizando o consumo total, sem perda indesejável de desempenho. O objetivo deste trabalho e apresentar um novo algoritmo de escalonamento para grades computacionais, que otimiza o consumo de energia, a partir de um critério de justiça baseado na satisfação da propriedade dos recursos.
Resumo: Recently, new technologies for the replacement of DRAM on current hardware platforms became available in the market. The vast majority of these technologies is non-volatile, i.e., they do not need continuous energy feed to keep their contents intact. However, access to these pieces of hardware is still limited, which makes it difficult to evaluate the performance of software for these new architectures. In this work we propose a simulator capable of evaluating the performance of software systems on these new pieces of hardware. We show preliminary results obtained with a prototype using DRAM and PCM for some of the SPEC2006 benchmarks.
Resumo: A computação de alto desempenho conta com diferentes arquiteturas como clusters, processadores multicore e GPUs para reduzir o tempo de execução de aplicações de processamento intensivo. No entanto, escolher a arquitetura para uma aplicação é uma tarefa delicada. Nesse sentido, o objetivo deste trabalho é apresentar um estudo comparativo de desempenho e consumo de energia entre arquiteturas de alto desempenho ao processamento de imagens. Para isso utilizamos um processador multicore, um cluster e uma aceleradora gráfica para nossos experimentos. Os resultados indicam que a GPU mostrou-se ser o melhor custo/benefício de processamento e consumo de energia.
Resumo: Com a popularização da virtualização, pesquisas para otimização de ambientes virtualizados são de grande importância. A arquitetura Power surge como alternativa à arquitetura x86 para otimização de ambientes baseados em virtualização. Através da execução de benchmarks em uma infraestrutura de computação em nuvens, esta pesquisa busca analisar o comportamentos das arquiteturas Power e Intel Xeon a medida que estas são sobrecarregadas.
Resumo: Sistemas de processamento paralelo são amplamente utilizados. Tais sistemas são implementados com o objetivo de diminuir o tempo de processamento de grandes quantidades de dados e problemas complexos. Este projeto busca, em última instância, facilitar o entendimento de tais conceitos por meio de demonstrações visuais do funcionamento de sistemas paralelos, através da visualização da comunicação entre processos distribuídos. Esta visualização será realizada modelando-se a execução de determinados problemas através de grafos dinâmicos. Num primeiro momento, foi necessário implementar um conversor entre o formato de trace e o formato de descrição de grafos GEFX.
Resumo: With the use of hardware accelerators to increase capacity in high-performance computing, there is a need for forms of hybrid programming that can, effectively, make use of all resources. This paper presents a method to perform tasks in in heterogeneous architectures composed by processors and coprocessors in distributed computing environment.
Resumo: Computação de alto desempenho ou (HPC) refere-se ao uso de supercomputadores para realizar cálculos ou avaliações de sistemas de alta complexidade. Esses cálculos envolvem, previsão do tempo, simulações de processos, projetos aeroespaciais entre outros. Um dos desafios nessa área refere-se a utilização de supercomputadores para encontrar um conjunto de parâmetros que otimize um de terminado processo. Este trabalho apresenta uma visão geral da interface gráfica da ferramenta para otimizacão de sistemas de varredura paramétrica utilizando a experiência do usuário - WET.
Resumo: An application of Lie symmetries for description of the hypercube graph is presented. The usefulness of Cartan classification of the Lie algebras for design of supercomputer network topologies is shown in terms of a graph based on the four dimensional symplectic algebras. We show that this graph enables the construction of network topologies with small average path length and higher numbers of vertices.
Resumo: Este trabalho apresenta uma ferramenta para auditoria e monitoramento para eliminar inconsistências de eventos falhos em nuvem no orquestrador Apache CloudStack. Essa ferramenta realiza um monitoramento das informações, proporcionando maior integridade, confiabilidade do ambiente, auxiliando o administrador da nuvem em ter uma tomada de decisão com maior precisão, através da eliminação das inconsistências, prevenido também o alerta de falsos positivos e falsos negativos. A ferramenta proporciona redução do custo em armazenamento dos dados persistentes.
Resumo: Este trabalho apresenta a solução GreenHop, voltada ao monitoramento energético e ambiental em DC (data centers) de pequeno porte. A solução possibilita ao gestor auferir a métrica PUE (Power Usage Effectiveness) e manter os parâmetros ambientais em conformidade com as boas práticas. A solução é aplicada em um estudo de caso, mostrando o consumo do equipamento de refrigeração quando alterada a temperatura de operação do DC de 18C para 23C, tendo como resultados uma redução do PUE de 0,63 pontos.
Resumo: This paper involves the study of Cloud Auditing solutions that are suitable for multi-cloud storage environments. For this, several implementation techniques were assessed with the aim of creating a module which will later be integrated into the multi-cloud storage project FlexSky developed in LaSDPC - Laboratory of Distributed Systems and Concurrent Programming.
Resumo: A utilização de web service tem proporcionado novas possibilidades de desenvolvimento de software, entre elas a composição de serviços, apresentando novas questões como a execução de maneira integral garantido a consistência e o controle de concorrência. A utilização de workflow tem se mostrado adequada para superar esses obstáculos, porém workflows concebidos em domínio distinto faz com que os serviços que sejam comuns não possuam ciência do contexto da execução global, gerando atendimentos que não sejam justos ocasionando deadlock e starvation. Este trabalho apresenta uma arquitetura para execução de worklfows com origem em domínio distinto, sem um coordenador central, mantendo o baixo acoplamento de web services, contemplando o atendimento as requisições de maneira justa, livre de deadlock e starvation.
Resumo: This paper compares the architectures of the currently most used workflow simulators, WorkflowSim and DynamicCloudSim, exploring specific characteristics of each scheduling system. It is proposed the development of new features aiming to support further Cloud Security simulations.
Resumo: Este artigo apresenta uma implementação de criptografia AES, método amplamente utilizado em proteção de dados, na plataforma aberta NetFPGA. A NetFPGA combina a Computação Reconfigurável de um FPGA com quatro interfaces de rede Ethernet de 1Gbps (especificamente no modelo de NetFPGA utilizado neste projeto). Foi tomado como base o projeto Crypto_nic, projeto de criptografia simples já implementado na plataforma.
Resumo: This work aims to model and implement a deniable encryption mechanism applied in multi-cloud file storage. It should be applied in FlexSky [Libardi et al., 2014] project. This will provide security levels and higher protection to the users of the platform, that even if coerced to provide a key may provide a false key that does not reveal sensitive information.
Resumo: Este artigo apresenta um mecanismo que permite monitorar e mensurar o desempenho de uma Nuvem IaaS multicamadas, utilizando o Apache CloudStack. Com propósito de avaliar o consumo de recursos da camada do armazenamento de dados, foram realizados testes em uma Nuvem computacional privada, possibilitando mensurar os consumos de CPU e E/S. Conclui-se que a quantidade de requisições para gravação e leitura geradas pelas demais camadas, além de gerar um alto consumo de disco na camada de armazenamento, impacta diretamente outros recursos, como CPU e memória.
Resumo: Fog Computing is an emerging computation model with the main goal of avoiding unnecessary accesses to the cloud. Currently, many applications can benefit from this model, especially when the QoS affects the user experience. This paper proposes an architecture for a Fog network in order to minimize the latency consumed in loading web pages.