Notícias LNCC
Projetos do LNCC aprovados em edital do CNPq
Publicado em: 19/04/2010,00:00
Petrópolis-RJ, 19 de abril de 2010 - 11h55 Três projetos desenvolvidos por pesquisadores do Laboratório Nacional de Computação Científica (LNCC/MCT) foram aprovados pelo Programa de Expansão da Pós-Graduação em Áreas Estratégicas (PGAEST), do Conselho Nacional de Desenvolvimento Científico e Tecnológico(CNPq). Os respectivos trabalhos são denominados: Metrologia na Internet e Redes Complexas, de Artur Ziviani; Clouds Como Próxima Evolução de Grids na Infraestrutura de Computação para Simulações, de Bruno Schulze; e Análise de Sensibilidade Topológica: Problemas Inversos, de André Novotny. O objetivo do edital é contribuir para o fortalecimento da pós-graduação em áreas consideradas estratégicas, através de concessão de bolsas de mestrado e doutorado. A verba oriunda do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT) totaliza R$ 57,2 milhões, para as duas etapas. As propostas para a segunda chamada podem ser feitas até o dia 17 de maio. Breves resumos fornecidos pelos próprios pesquisadores: A importância das redes de computadores vem progressivamente aumentando ao longo dos anos, tendo alcançado o estado de componente fundamental da sociedade moderna. Essa importância reflete-se no crescente número de usuários e na alta variedade de aplicações baseadas na interconectividade oferecida pelas redes de computadores, abrangendo aplicações de serviços cotidianos a de missão crítica passando por aplicações científicas. Dessa forma, é fundamental o domínio e pesquisa em área tão complexa e fundamental na vida moderna visando a compreensão da dinâmica dessa rede complexa desde o nível de infra-estrutura até o nível aplicativo. Objetivo do projeto: A inferência de características e dinâmica da Internet (possivelmente cobrindo do nível de infra-estrutura até o nível aplicativo) através de medições; bem como sua análise e modelagem por técnicas oriundas do domínio de redes complexas. Por: Artur Ziviani. Análise de Sensibilidade Topológica: Problemas Inversos A Análise de Sensibilidade Topológica fornece um desenvolvimento assintótico para um funcional de forma adotado, cujo termo principal é um campo escalar, denominado derivada topológica, que mede a sensibilidade do referido funcional quando uma perturbação singular (furo, inclusão, termo-fonte etc) infinitesimal é introduzida em um ponto arbitrário do domínio. A derivada topológica tem sido aplicada com sucesso, portanto, no contexto de otimização topológica, problemas inversos e processamento de imagens. Assim, a Análise de Sensibilidade Topológica é reconhecida como uma importante área de pesquisa que vem se desenvolvendo rapidamente nos últimos anos. Atualmente trabalha-se no desenvolvimento teórico e aplicações da Análise de Sensibilidade Topológica de primeira e segunda ordem nas três grandes áreas ora mencionadas. Em particular, através deste Projeto de Pesquisa objetiva-se dar continuidade os estudos da Análise de Sensibilidade Topológica e suas aplicações no contexto de problemas inversos. Por: André Novotny. Clouds como próxima evolução de Grids na Infraestrutura de Computação para Simulações O desenvolvimento científico e tecnológico observa uma mudança significativa do ponto de vista de dependência de plataformas de alto desempenho e da capacidade de armazenamento. Verifica-se a necessidade do desenvolvimento de projetos em variadas áreas da ciência, tais como: astronomia, bioinformática, medicina, ciência do esporte, apenas para citar algumas delas, cujo apoio da computação de alto desempenho é imprescindível. A capacidade de processar grandes volumes de dados em complexas simulações computacionais é condição fundamental para o sucesso e o avanço destes projetos. Tal observação encontra eco igualmente no cenário nacional e internacional, notadamente nas iniciativas associadas à e-Ciência. O grande desafio que se apresenta neste contexto é prover uma plataforma de hardware e software que ofereça aos cientistas uma abstração sobre os recursos computacionais necessários para execução de simulações, assim como uma infraestrutura de gerência dos elementos computacionais utilizados e produzidos durante estas simulações, de modo a permitir que os pesquisadores possam concentrar no problema científico sendo investigado e não em problemas associados a manutenção desta infraestrutura. O problema se torna mais crítico na medida que instrumentos de captura de dados e imagens aumentam significativamente o volume de dados produzidos e o desenvolvimento de novas técnicas permitem a investigação de fenômenos cada vez mais complexos requerendo análises computacionalmente intensivas. Neste contexto, o avanço científico exige um investimento em equipamentos e infraestrutura crescentes em sintonia com suas necessidades. Do ponto de vista de infraestrutura computacional, uma importante estratégia acolhida pelos maiores centros de e-Ciência no mundo foi a adoção da infraestrutura baseada em Grid, que permite a utilização de diversos recursos computacionais heterogêneos e dispersos por várias instituições, possibilitando que seus usuários compartilhassem recursos (infraestrutura de comunicações,equipamentos e aplicações geograficamente distribuídas) de forma confiável, consistente, econômica, persistente e transparentemente para seus usuários. A experiência obtida em diversos projetos concebidos a partir da infraestrutura de Grid serviu de base para um modelo de computação distribuída mais flexível e adequado as necessidades específicas dos usuários. Em particular, Grid permitiu um avanço em termos de computação utilitária e obteve sucesso na área acadêmica. O avanço da plataforma de Grid na direção de serviços, através da arquitetura aberta de serviços de Grid (OGSA), motivou o aparecimento de uma nova estratégia baseada no encapsulamento da infraestrutura computacional na forma de serviços. Tendo como princípio a oferta de serviços adequados às necessidades do usuário, esta nova abordagem reforça o conceito de elasticidade na demanda de recursos computacionais, onde a variação da necessidade é acompanhada pela correspondente variação na alocação de recursos. Este novo paradigma recebe o nome de Computação em Nuvem (Cloud Computing) e caracteriza-se por ser um sistema de computação distribuída em larga escala, oferecendo um conjunto de recursos virtualizados, dinamicamente escaláveis, gerenciáveis em termos de capacidade de processamento, armazenamento, número de plataformas e serviços; sob demanda para seus usuários. Reunindo sob a sua estrutura diversos níveis de serviço (infraestrutura - IaaS, plataforma - PaaS, aplicações - SaaS, armazenamento DaaS, redes - NaaS e em alguns caso e autores tudo XaaS. A evolução de grid para computação cloud foi resultante da mudança do foco do oferecimento de recursos computacionais e capacidade de armazenamento, para o oferecimento de recursos, ambientes e aplicações na forma de serviços. A computação em nuvem, que passaremos a tratar apenas por cloud, surge como um modelo econômico e de negócios onde é possível as pequenas instituições manterem-se atualizadas e com uma grande flexibilidade de recursos computacionais. A possibilidade da alocação de recursos e sua desalocação (elasticidade) em função da necessidade, tornando desnecessário imobilizar um grande capital para a sua aquisição, permite que elas possam ficar em condição de igualdade com outras instituições de maior porte. Na estrutura de cloud é possível obter na utilização destes recursos flexibilidade, escalabilidade e portabilidade. A flexibilidade se dá por permitir que os usuários sejam capazes de montar e alterar a a sua infraestrutura de TI em função do modelo de negócios vigente, sem necessariamente estar atrelado a infraestrutura passada. A escalabilidade é responsável por permitir o aumento e a redução de recursos em função das necessidades, possibilitando uma resposta rápida à demanda sem a necessidade de aquisição de novos recursos e no caso do aumento ou a sua ociosidade no caso da retração. A portabilidade se dá pela dissociação do espaço geográfico onde os recursos e pessoas que os utilizam se encontram, permitindo que estejam espalhados e agregados em sistemas especializados, com a consequente redução de custo em função da economia de escala. Dos avanços tecnológicos ocorridos, que contribuíram para a viabilização do que se pretende com o conceito de cloud, dois se destacam: o primeiro foi a evolução tecnológica e aumento da capacidade de transmissão de dados e o segundo foi o desenvolvimento e aperfeiçoamento de aplicações e de processadores para a virtualização de plataformas e recursos. Comparando Abordagens A abordagem geral sobre Cloud tem sido a aplicação do modelo de negócio da computação utilitária, que se refere à oferta de recursos computacionais baseados em pagamento-e-demanda sem um contrato de longo prazo, apoiada por um Acordo-em-Nivel-de-Servico (SLA - Service Level Agreement). Como exemplo, no caso da Amazon, a infra-estrutura computacional foi construída principalmente para satisfazer suas próprias necessidades, e mais tarde foi aberto ao público. Outras empresas decidiram construir infra-estrutura física especificamente para entrar no mercado. Enquanto os fornecedores Cloud usam uma arquitetura multi-usuário para servir os diferentesusuários no mesmo pedaço de hardware, a noção de compartilhamento é perdido devido à virtualização ao nível de hardware. Dois usuários de diferentes Clouds não competem por recursos, uma vez que estes estão isolados em componentes definitivos baseados em núcleos de processadores, memória e armazenamento, parecendo dedicados aos usuários. Interação do usuário com um serviço de recurso é melhor definida através da especificação de tais recursos em uma Máquina Virtual (VM). Além disso, em um sistema de Cloud é comum ter um único proprietário de recursos que interage diretamente com o usuário. Identificando objetivos comuns Cloud Computing pode ser visto como o próximo passo na evolução da computação distribuída, depois de Grid Computing. Tem o mesmo objetivo básico: "Reduzir a custo de computação, aumentar a confiabilidade e aumentar a flexibilidade por transformar os computadores a partir de algo que compramos e nós mesmos operamos para algo que é operado por um terceiro". Pode ser verificado que Cloud Computing se esforça por estes objetivos dada a sua abordagem. Como toda a pilha computacional é virtualizada em hardware usando servidores multi-core padrão, dando acesso a uma máquina virtual e controle até do sistema operacional se necessário, está transformando a computação em uma mercadoria. A confiabilidade é reforçada porque há uma única entidade de controle responsável pelos recursos, em oposição a muitos proprietários com baixo comprometimento. Finalmente, se verifica que uma grande flexibilidade é obtida de duas formas: o controle total do sistema operacional da VM dado pela infra-estrutura e a possibilidade de escolher outros tipos de Cloud Computing. Por: Bruno Schulze. Por: Bruno Lara. Assessoria de Comunicação e Eventos LNCC Laboratório Nacional de Computação Científica 24 2233 6039/6062/6101 imprensa@lncc.br