Projetos em andamento

Ordenar por:


Análise Computacional de Materiais Nanoestruturados: Estrutura, Síntese e Propriedades (nanomatsim)

Universidade Federal do Rio Grande do Sul
Departamento de Engenharia Química
Coordenador: André Rodrigues Muniz
Áreas do conhecimento: Engenharias; Física
Início da vigência: 13-09-2016

A área de nanociência e nanotecnologia compreende o estudo de materiais e sistemas com dimensões características na ordem de nanômetros (1 nm = 10-9 m). A comunidade científica tem empregado grandes esforços nesta área nos últimos anos, que até o momento tem resultado em grandes contribuições ao nosso conhecimento científico, e tem o potencial de promover a próxima grande revolução tecnológica em nossa sociedade. O grande interesse em nanomateriais deve-se ao fato destes possuírem uma incomum combinação de propriedades físicas, comparado a materiais convencionais, que podem ser exploradas de diversas formas no desenvolvimento de novas tecnologias. A modelagem e simulação molecular tem se mostrado uma ferramenta imprescindível ao entendimento da estrutura e propriedades físicas de nanomateriais, pois permite a obtenção de informações detalhadas e difíceis de serem extraídas usando técnicas laboratoriais convencionais. Paralelamente, esta ferramenta permite explorar novas nanoestruturas e seus mecanismos de síntese, sem necessidade de testes exaustivos em laboratório. Logo, podemos propor diversas configurações atômicas que levem a estruturas inéditas com propriedades diferenciadas, que podem levar a novas possibilidades de aplicação tecnológica. Neste contexto, o projeto de pesquisa tem como objetivo estudar as propriedades físicas de diversas classes de nanomateriais, buscando propor novas nanoestruturas, e explorar propriedades de nanoestruturas já sintetizadas, tendo como classe principal as nanoestruturas à base de carbono. Para isso, serão utilizadas técnicas de Dinâmica Molecular (MD) e Teoria do Funcional da Densidade (DFT), para se determinar propriedades mecânicas e eletrônicas destas nanoestruturas e energias de formação e barreiras de ativação requeridas em processos de síntese. Os resultados obtidos poderão servir como base para a execução de futuros estudos experimentais referentes à síntese das nanoestruturas preditas.


Análise Computacional de proteínas consideradas alvos moleculares para o tratamento da esquistossomíase e leishmanioses (nddrug)

Universidade Federal de Juiz de Fora
Departamento de Ciência da Computação
Coordenador: Priscila Vanessa Zabala Capriles Goliatt
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Ciências da saúde; Farmácia; Química
Início da vigência: 10-07-2017

Doenças parasitárias são um dos principais problemas de Saúde Pública, porém são consideradas como doenças negligenciadas por serem endêmicas em populações de baixa renda e por apresentarem investimentos reduzidos em produção de medicamentos. Como exemplo, pode-se citar a esquistossomíase (ou esquistossomose) e as leishmanioses. A esquistossomíase é uma doença aguda ou crônica que acomete principalmente o intestino. É causada por vermes do gênero Schistosoma, destacando-se o S. mansoni, e afeta cerca de 239 milhões de pessoas no mundo, com cerca de 6 milhões de pessoas infectadas somente no Brasil. As leishmanioses, causadas por protozoários do gênero Leishmania, possuem manifestações desde lesões cutâneas até injúrias severas das vísceras, podendo levar a óbito. O CDC (do inglês, Centers for Disease Control and Prevention) considera as leishmanioses como a segunda maior causa de morte no mundo por doenças parasitárias, sendo reportados cerca de 2 milhões de novos casos/ano. As drogas usuais possuem baixa eficácia e diversos efeitos colaterais devido esses parasitas apresentarem enzimas com funções semelhantes às encontradas em seres humanos. Adicionalmente, é crescente o número de eventos de resistência a essas drogas. Portanto, a busca por enzimas ditas potencias alvos moleculares é fundamental para o desenvolvimento de drogas mais eficazes e com menos efeitos colaterais, promovendo maior adesão dos pacientes ao tratamento completo dessas doenças. Os altos custos dos estudos experimentais têm elevado o uso de ferramentas de Biologia Computacional para entender a estrutura de alvos moleculares e os mecanismos de interação entre essas proteínas e seus possíveis inibidores. O modo de interação entre essas proteínas em S. mansoni e Leishmania sp. e compostos com potencial inibitório ainda é desconhecido. Em estudos anteriores, realizamos a modelagem tridimensional da NTPDase1 de S. mansoni (SmNTPDase1), enzima considerada alvo molecular para o tratamento da esquistossomíase, e seu homólogo em humanos (HsNTPDase1 ou CD39). Através da análise comparativa entre a SmNTPDase1 e a NTPDase1, por dinâmica molecular (DM) e docking com compostos candidatos a inibidores da SmNTPDase1, verificamos que mudanças conformacionais importantes nessas proteínas levam a diferentes afinidades de interação com os inibidores. Através deste projeto, poderemos elucidar esses modos de interação, de modo a auxiliar na remodelagem desses compostos ou no desenho racional de novos fármacos mais eficazes e com menos efeitos colaterais. Atualmente, alvos em L. braziliensis e L. amazonensis estão sendo mapeados. Alvos como a tripanotiona reductase já foram modelados, estão sendo testados contra compostos candidatos à leishmanicida e deverão seguir para análises por DM. Em computadores com arquitetura multicore, as análises por DM de cada alvo podem custar até um ano de simulação. Para a análise comparativa dessas enzimas e seus homólogos humanos esse custo pode inviabilizar um projeto com financiamento de até 24 meses. Portanto, é necessário o uso de supercomputadores com GPU, sendo o SDumont um componente essencial neste projeto. Acreditamos que este projeto possa impactar na validação de compostos em estudo como antiparasitários, culminando na elaboração de patentes. Acreditamos também, que nossa pesquisa tem impacto científico relevante, cujos resultados podem representar contribuições biotecnológicas diretas em setores produtivos da sociedade.


Análise de mutações correlacionadas por Dinâmica Molecular em fosfatases de baixo peso Molecular (lmwptpdm)

Universidade Federal de Minas Gerais
Instituto de Ciências Biológicas
Coordenador: Lucas Bleicher
Áreas do conhecimento: Ciências biológicas
Início da vigência: 27-07-2016

Um dos eventos celulares de mediação química mais importantes e úbiquos nos organismos vivos é a fosforilação, cuja dinâmica ocorre devido a existência de múltiplas enzimas responsáveis por catalisar a adição (quinases) e remoção (fosfatases) de grupos fosfato em outras moléculas. Em organismos multicelulares, a fosforilação/desfosforilação de Tirosina em proteínas é especialmente importante para diversas vias de sinalização celular. Dentre os diversos ramos da ciência mundial, a Bioinformática é tida como uma área de desenvolvimento recente e de grande interdisciplinariedade, sendo imprecindível ao tratamento adequado das grandes quantias de dados biológicos obtidas pelas técnicas de Biologia Molecular atuais, assim sendo capaz de resolver inúmeros problemas de natureza biológica. Nesse estudo, utilizamos inicialmente técnicas estatísticas para a extração de possíveis correlações e anticorrelações entre amino ácidos de um alinhamento correspondente a uma família ubíqua e ancestral de tirosino-fosfatases: As Fosfatases de Baixo Peso Molecular (do inglês LMW-PTPs). Esta família de proteínas, agrupa enzimas de um padrão único de enovelamento, mas que diferem em um um grupo capaz de desfosforilar tirosina e outro cujas enzimas são responsáveis pela redução de Arsenato em Arsenito. As LMW-PTPs humanas são relacionadas a múltiplas doenças, das quais destacam-se inclusive alguns tipos de câncer. Ainda não se entende completamente quais os mecanismos moleculares que implicam em diferenças na especificidade e na atividade das proteínas desta família. Inicialmente buscamos relacionar funções biológicas a grupos de resíduos correlacionadas através de uma revisão bibliográfica e de análises em estruturas cristalográficas desta família. Estas evidenciaram o papel de vários resíduos de nossa análise, embora as funções biológicas relacionadas a algumas de nossas correlações sejam bastante elusivas. Existe portanto interesse científico na descrição dos mecanismos moleculares de especificidade, nos processos alostéricos dessas enzimas, e no desenvolvimento de possíveis inibidores as mesmas. O estudo aqui proposto destas enzimas, e do papel dos resíduos que encontramos neste trabalho por técnicas de Dinâmica Molecular será então capaz de promover um avanço no entendimento dessa família de proteínas, podendo servir como base a futuros ensaios experimentais, além de ser capaz de divulgar e gerar conhecimento científico em uma área de ponta.


Aperfeiçoamento do método DFT-1/2 para cálculo acurado de estados excitados do tipo single-particle (dftexc)

Instituto Tecnológico de Aeronáutica
Departamento de Física
Coordenador: Ronaldo Rodrigues Pela
Áreas do conhecimento: Física
Início da vigência: 08-05-2017

A teoria do funcional da densidade (DFT, density functional theory), apesar de sua simplicidade e o consequente baixo custo computacional, tem aplicabilidade limitada ao estado fundamental. Já o método GW, considerado o “estado da arte” em cálculos de estados excitados do tipo single-particle, apresenta um custo computacional cerca de 3 a 4 ordens de grandeza maiores que da DFT. Uma boa alternativa, que combina a simplicidade da DFT e uma acurácia parecida com o GW, é método DFT-1/2, o qual corrige o potencial DFT para incluir excitações do tipo single-particle. Inspirado no esquema de meia ocupação de Slater, o método foi proposto por um grupo de brasileiros em 2008, mostrando bons resultados para sólidos, ligas, interfaces, materiais magnéticos, impurezas e moléculas [1-3]. Desde 2008, os cálculos com a DFT-1/2 foram feitos quase sempre com o VASP, modificando-se arquivos de entrada. Embora seja um dos código mais usados pela comunidade ab initio, o fato de ser um programa proprietário traz vários inconvenientes para a DFT-1/2: não é possível responder questões mais profundas que ajudariam a melhorar o método, pois isso exigiria mudar o código fonte. Em 2015, foi dado um passo para superar este problema: a DFT-1/2 foi implementada no exciting, um pacote open source que está entre os mais precisos para cálculos ab initio [4- 6]. Nesta ocasião, também foram identificados alguns aspectos da DFT-1/2 que precisam ser melhor entendidos e aperfeiçoados: gerar um melhor potencial de correção, permitir correções individuais para cada estado, integrar e unificar o método para sistemas finitos e infinitos. Neste projeto, o objetivo é aperfeiçoar o método nestes pontos levantados. Cálculos DFT- 1/2 têm custo computacional cerca de 3 a 4 ordens de grandeza menor que GW e embora a acurácia seja similar, ela ainda não é igual. Melhorando-se a DFT-1/2, o método terá condições de ser usado de forma preditiva e acurada em sistemas complexos, que podem envolver centenas ou milhares de átomos. Exemplos destes sistemas são: heteroestruturas de materiais bidimensionais (“os” materiais do século XXI), interfaces de moléculas e metais/semicondutores (usadas em transistores quânticos e células solares), nanofios, pontos quânticos, entre outros. A equipe de pesquisadores do projeto reúne as capacidades necessárias. O proponente é um jovem pesquisador que durante seu doutorado utilizou a DFT-1/2 em ligas, nanoestruturas e materiais magnéticos, e um recente pós-doutorado, implementou a DFT-1/2 no exciting, junto ao grupo alemão que desenvolve este código. A equipe de pesquisa também inclui dois dos três pesquisadores brasileiros que propuseram o método em 2008. Referências [1] Phys. Rev. B 78, 125116 (2008). [2] AIP Proc. 1566, 27 (2013). [3] R. R. Pelá et al. The LDA-1/2 method applied to molecules of the GW100 test set. In preparation. [4] R. R. Pelá et al. The LDA-1/2 method in the exciting code. In preparation. [5] http://exciting-code.org/carbon-dft05 [6] Science 351, aad3000 (2016)


Ativação e vias de sinalização do receptor mu-opióide (avsmor)

Universidade Regional do Cariri
Departamento de Química Biológica
Coordenador: Diniz Maciel de Sena Junior
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 20-09-2016

Os receptores acoplados à proteína-G (GPCRs) de classe A (semelhante à rodopsina) são o alvo de quase 1/3 dos medicamentos aprovados pela FDA (Food and drug Administration agency). Eles podem ser ativados por ligantes moleculares, que modulam o equilíbrio entre diferentes conformações, promovendo diferentes vias de sinalização que correspondem à perfis farmacológicos diversos. A capacidade de promover uma determinada via em detrimento de outra é conhecida como tendência de ligante (ligand bias). Este fenômeno é evidente no caso do receptor mu-opióide, principal alvo de analgésicos opióides, como a morfina. Suas vias de sinalização são por meio da proteína-G ou da beta-arrestina; a primeira é associada à analgesia, enquanto a última aos efeitos colaterais (constipação, depressão respiratória, dependência, etc). Recentemente foram relatados casos de ligantes capazes de promover a analgesia com uma redução significativa dos efeitos colaterais, um deles inclusive está em fase de testes clínicos. Apesar disso os mecanismos moleculares, que determinan tanto a ativação quanto o ajuste fino de seleção da via de sinalização, ainda não foram desvendados. Com as estruturas cristalográficas do receptor mu-opióide nas formas inativa (pdb: 4DKL) e ativa (5C1M) disponíveis, estudos computacionais podem ser empregados para elucidar os mecanismos envolvidos na ativação com uma maior fidelidade. Trabalhos anteriores utilizando dinâmica molecular investigaram a evolução do sistema formado pelo receptor (na forma inativa) e diferentes ligantes (agonistas e antagonistas) na escala de até 1 microsegundo. Nenhuma transição para o estado ativado foi observada, sugerindo que a amostragem da superfície de energia não foi suficiente. A utilização de um método aprimorado de amostragem (REST2, replica exchange with solute tempering) tornou possível a observação da conformação ativa de um mutante do receptor na forma apo, sugerindo sua utilização para as simulações feitas anteriormente com o método usual. Neste método, o sistema é replicado em vários estados dentro de uma determinada faixa de temperatura, e uma troca dos estados é realizada periodicamente, permitindo que as barreiras de energia sejam ultrapassadas mais facilmente. Na configuração de teste foram utilizadas 64 réplicas, na faixa de 300 a 550K, rodando em 384 núcleos de processamento. A capacidade de processamento oferecida pelo SDumont permitirá o estabelecimento desta linha de pesquisa no Brasil, ajudando a desvendar o mecanismo de ação dos opióides, e contribuindo para o desenvolvimento de fármacos mais eficientes e seguros.


Atomistic Simulations of Material’s interfaces for solar energy devices (asmsol)

Universidade Estadual Paulista Júlio de Mesquita Filho
Instituto de Física Teórica
Coordenador: Alexandre Reilly Rocha
Áreas do conhecimento: Química
Início da vigência: 28-09-2016

This project aims to provide accurate predictions at atomic and molecular level of the interfaces of solar energy devices, which would be used for experimentalist in the seeking of new materials for designing novel solar energy devices. Our research proposal involves state of art simulations, which play a key role in predicting physical and chemical properties at atomistic scale, for studying the charge-transfer (CT) processes occurring at the interfaces of OPCs. Special attention will be given in seeking different blend of donor/acceptor materials based: on graphene nanoribbons and organic semiconductors. In particular, we will tailor the energy levels of GNRs by functionalization and doping, in order to explore its role over the CT states to obtain heterojunctions with improved properties. To this aim, the methodology will be based on the many-body perturbation theory, which have been successfully used in describing excited states of several molecular systems. Thus, within the so-called GW approximation, we will be able to correct the Kohn-Sham (DFT) energy levels at the interfaces of the blend of donor/acceptor. Furthermore, by using these corrected energies and by solving the Bethe-Salpeter equation (BSE), we will be able to simulate accurately the optical properties, energy-loss spectra and the charge-transfer process at the interfaces of OPCs as well as their implications for designing more efficient devices. We also want to understand the electrodes, which are used to harvest the electrons and holes generated by light adsorption. In this case we need to understand the transport properties of this materials, which typically contain impurities. Understanding the effects of these impurities is tantamount for the design of good electrodes.


Bioenergética molecular computacional (bmc)

Universidade de São Paulo
Instituto de Química
Coordenador: Guilherme Menegon Arantes
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 05-07-2016

Simulação computacional tem crescente importância nas áreas de Química e Bioquímica como atestado pelo recente prêmio Nobel em Química agraciado em 2013 para o desenvolvimento de métodos híbridos de simulação molecular. A proposta apresentada aqui nesta área de pesquisa é encabeçada pelo laboratório de Bioquímica e Biofísica Computacionais instalado no Instituto de Química da USP (IQ-USP). O laboratório e este projeto já contam com financiamento regular em vigência concedido pela FAPESP. Propomos estudar detalhadamente o mecanismo molecular de atividade de proteínas fundamentais para processos energéticos celulares. O objetivo é a investigação do ciclo catalítico em diferentes condições dos três principais complexos proteicos envolvidos na cadeia de transporte de elétrons da respiração celular, os chamados Complexos I, II e III, embebidos na membrana mitocondrial. Em particular, propomos utilizar duas técnicas de simulação computacional de alto desempenho: dinâmica molecular e potenciais híbridos de química quântica e mecânica molecular (QC/MM). Nosso grupo de pesquisa possui larga experiência na aplicação e no desenvolvimento de ambas metodologias. O estudo dos complexos proteicos respiratórios propostos por simulação molecular apresenta dois grandes desafios. Um é o enorme tamanho dos sistemas.


Caracterização do processo de N-glicosilação e seu impacto na função e engenharia de proteínas (pgl)

Universidade Federal do Rio Grande do Sul
Departamento de Biologia Molecular e Biotecnologia
Coordenador: Hugo Verli
Áreas do conhecimento: Ciências biológicas
Início da vigência: 28-06-2016

A glicosilação de proteínas é um fenômeno comum na natureza. Em humanos e demais eucariotos, estima-se que em torno de 2/3 de todas as proteínas sejam glicosiladas. Esta adição de carboidratos a uma dada proteína pode ser essencial para o seu enovelamento e propriedades derivadas deste. Ainda, a parte sacarídica de glicoproteínas pode estar diretamente envolvida na função de proteínas e, por conseguinte, em processos patológicos (como na inflamação e em diversos tipos de câncer), apresentando grande impacto potencial no desenvolvimento de novos fármacos (sintéticos ou biológicos). Infelizmente, a compreensão destes aspectos é ainda limitada, assim como dos processos enzimáticos que os determinam. Sabemos muito pouco sobre as causas que estabelecem uma cadeia sacarídica de determinada extensão, composição e ramificação, ligadas a posições específicas de proteínas. Similarmente, há uma grande limitação em estratégias e algoritmos capazes de prever o papel biológico destas estruturas. Tal cenário é em parte produzido pela enorme dificuldade de ferramentas experimentais, como cristalografia de raios-X e ressonância magnética nuclear, em resolver estruturas contendo carboidratos, criando uma grande demanda e oportunidade por técnicas computacionais que nos auxiliem neste processo. Assim, o presente projeto busca contribuir na elucidação das bases moleculares para a N-glicosilação de proteínas, abordando alguns de seus componentes enzimáticos no organismo modelo Campilobacter spp (isso é, as enzimas Pgl B, D, E, J e K) e as respectivas especificidades (isto é, quais carboidratos são adicionados, em quais quantidades e posições). As enzimas Pgl D, E e J estão envolvidas na síntese de um oligossacarídeo, que é translocado através da membrana pela flipase PglK e transferido para a proteína nascente pela oligossacariltransferase PglB. Na ausência das respectivas estruturas 3D dos homólogos em humanos, espera-se que as informações obtidas para este organismo possam ser extrapoladas para humanos, contribuindo no entendimento de processos como a resistência a fármacos antibióticos e antitumorais (envolvendo transportadores ABC, homólogos da enzima PglK), assim como no planejamento de novas estratégias terapêuticas (proteínas terapêuticas são frequentemente glicosiladas, criando grandes dificuldades para sua produção comercial). Adicionalmente, espera-se que estes resultados contribuam na construção racional de novas enzimas, capazes de suportar o emprego biotecnológico de carboidratos e glicoconjugados no setor farmacêutico ou industrial.


Caracterização in silico de alvos de medicamentos para Zika e Dengue (VICBF01)

Universidade Federal de Pernambuco
Departamento de Química Fundamental
Coordenador: Gustavo de Miranda Seabra
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 08-11-2016

Este é um trabalho sendo desenvolvido em colaboração com o prof. Sergio Pantano, do Group of Biomolecular Simulations, Institut Pasteur de Montevideo (Uruguay). A atual epidemia de Zika e outros flavivírus no Brasil e na América Latina aumentou em todo mundo a preocupação da saúde publica por causa das implicações médicas e sócio econômicas. Consequentemente, um grande esforço começou a ser dedicado para enfrentar esse problema. Nesses contexto, simulações de dinâmica molecular compõem uma importante alternativa para prover informações confiáveis para o Design racional de ferramentas terapêuticas. Além disso, instalações de supercomputadores permitem a triagem de um grande número de condições (i.e., mutações, concentrações, temperatura, pH, etc.) ajudando na aceleração, racionalização ou até mesmo evitando o consumo excessivo de tempo de trabalho experimental. Neste projeto nos propomos um colaboração internacional com foco em dois alvos de design de drogas: i) A proteína NS3 protease/helicase; e ii) a proteína de envelope. A proteína NS3 do vírus Zika possui grande identidade de sequencia com a mesma proteína em outros flavivirus, como o Dengue. Essa proteína possui dois domínios, protease e helicase, e é essencial no processo de replicação viral. Na realidade, alguns medicamentos antivirais já existentes no mercado, para HIV e Hepatite C, se baseiam na inibição da atividade desta proteína. Pretendemos utilizar o programa PMEMD, do pacote Amber16, para simular as etapas envolvidas na função da NS3 helicase, responsável pelo desenovelamento do RNA viral, para identificar sítios passíveis de ataque. Quanto ao domínio protease, pretendemos estudar a reação catalisada por esse domínio através de cálculos QM/MM, para identificar o mecanismo e as estruturas importantes, que podem também oferecer alvos para novos medicamentos. A segunda proteína é também um dos principais alvos, assim como a primeira no reconhecimento pela célula hospedeira. Recentemente, nós desenvolvemos e aplicamos um método de simulação Coarse Grained (Darré L, Machado MR, Brandner AF, Ferreira S, Gonzalez HC, Pantano S. SIRAH: a structurally unbiased coarse-grained force field for proteins with aqueous solvation and long-range electrostatics. JCTC, 2015, 11:723.) proposto de multi-escala para estudar a flexibilidade de estruturas recém-publicadas do envelope do Zika (Sirohi, D.; Chen, Z.; Sun, L.; Klose, T.; Pierson, T. C.; Rossmann, M. G.; Kuhn, R. J. Science The 3.8 A resolution cryo-EM structure of Zika virus: 2016, 352, 467-470). A introdução de mutações pontuais na estirpe Africana revela a estabilização estrutural do envelope do vírus (Machado et al, submetido ao JCTC), que acontece apenas a nível da estrutura quaternária. Nós usaremos a estrutura do vírus do Zika junto com a modelagem molecular e simulações multi-escala para gerar um conjunto completo de estruturas (aproximadamente 50 diferentes variantes com identidade ~90%, http://www.ianlogan.co.uk/zikapages/zika-current.htm). Isto proverá informações preciosas sobre a acessibilidade dos epítopes e sua estrutura, bem como a variabilidade dinâmica de diferentes variantes que circulam no Brasil. Nós planejamos gerar 1 microssegundo de simulações de dinâmica molecular de cada variante para gerar um imprescindível banco de dados que será disponibilizado para a comunidade cientifica por meio de websites com o objetivo de ajudar os biólogos computacionais que trabalham ao lado dos experimentalistas para antecipar o impacto de novas mutações.


Charm++ e AMPI (charm)

Instituto Nacional de Pesquisas Espaciais
Laboratório Associado de Computação e Matemática Aplicada
Coordenador: Celso Luiz Mendes
Áreas do conhecimento: Ciência da computação; Engenharias
Início da vigência: 04-07-2016

Este projeto visa implementar, na máquina Santos Dumont, o toolkit de programação paralela Charm++, com seus diversos componentes básicos, tais como AMPI (uma implementação de MPI baseada em Charm++), Projections (ferramenta de análise de desempenho) e outros. O Charm++ é um toolkit que vem sendo desenvolvido há mais de duas décadas no Laboratório de Programação Paralela (PPL) da Universidade de Illinois, EUA, (http://charm.cs.uiuc.edu/), com o objetivo de facilitar a programação de aplicações para supercomputadores com alto desempenho e prover portabilidade de desempenho entre máquinas diferentes. O principal paradigma no qual Charm++ está baseado é a técnica de objetos migráveis entre processadores. Através dessa técnica, é possível ao programador construir seu programa ao nível de objetos que processam dados e invocam ações em outros objetos. A alocação destes objetos nos processadores físicos da máquina é realizada, em tempo de execução, pelo runtime do Charm++. Este paradigma tem se mostrado bem adequado à construção de aplicações altamente paralelas, executadas com sucesso em centenas de milhares de processadores, tais como NAMD (dinâmica molecular), ChaNGa (cosmologia computacional), OpenAtom (química computacional) e outras. No projeto aqui proposto, o principal objetivo é permitir a implementação básica de Charm++ e de suas principais ferramentas na máquina Santos Dumont. Dentro do projeto, espera-se que seja possível criar contas para acesso não só dos proponentes, mas também de alguns membros principais do PPL, que possam auxiliar nas tarefas de depuração e otimização das várias ferramentas a serem instaladas. Embora já exista um significativo conjunto de aplicações científicas baseadas em Charm++, este projeto não visa a execução em produção destas aplicações; ao invés disso, busca-se apenas instalar e otimizar as funcionalidades básicas de Charm++ na máquina Santos Dumont. Para tal, pode-se até executar algumas das aplicações completas, mas por períodos curtos, de modo a testar a escalabilidade das funcionalidades implementadas em Charm++. Espera-se que, no futuro, utilizando as facilidades criadas por este projeto, algumas destas aplicações possam ser exploradas de forma mais aprofundada e específica, através de uma alocação da modalidade Premium. Por outro lado, com o presente projeto, deseja-se criar um ambiente comum que seja propício a colaborações entre proponentes, membros do PPL, e pesquisadores da comunidade do LNCC de modo geral. Um exemplo destas colaborações seria a Escola de Verão 2016 do LNCC.


Construção de modelos computacionais atomísticos de tecidos biológicos (stmod)

Universidade Federal do ABC
Centro de Ciências Naturais e Humanas
Coordenador: Herculano da Silva Martinho
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Física
Início da vigência: 20-10-2016

Simulações computacionais são amplamente utilizadas para estudar e fazer previsões a respeito de uma ampla variedade de sistemas que vão da farmacologia às áreas de engenharia. Os modelos atomísticos com base em cálculos de mecânica quântica têm capacidade de previsão das propriedades dos materiais com alta exatidão. No entanto, devido à sua inerente complexidade, modelos atomísticos para tecidos biológicos estão ausentes na literatura. Estes modelos seriam úteis para entender as propriedades físicas e bioquímicas dos tecidos. Normalmente, as abordagens clássicas do elemento-finito para modelar tecidos moles têm sido aplicadas para simular características mecânicas de tecidos como a pele. No entanto, muitas propriedades físicas não têm sido satisfatoriamente simuladas pelos modelos convencionais, sobretudo quanto aos resultados da interação da luz com a matéria, os espectros e seus modos vibracionais. Nesta proposta, iremos considerar a construção de modelos atomísticos baseado na teoria do funcional densidade (DFT) para dois sistemas principais, descritos abaixo. 1. Modelos de pele para aplicações em cosmetologia A hidratação da pele é de grande importância no mercado cosmético e farmacológico. Muitas propriedades da pele dependem da água e da forma como ela interage com sua vizinhança. A água confinada e sua presença interferem em propriedades físicas, químicas e biológicas. Os testes e experimentos nesta área são, em sua etapa avançada, realizados utilizando peles artificiais e naturais. Além das implicações éticas e aprovação para experimentação em laboratórios pelos órgãos legais, estes testes perpassam de 6 a 8 meses para a obtenção de uma única formulação viável. Assim, é proposto ampliar o modelo computacional para tecidos desenvolvido por nosso grupo [1] a fim de aplicá-lo à otimização da formulação de fármacos e entender o processo de permeabilidade da água nas diferentes camadas do tecido. Com isso, espera-se contribuir para o entendimento do processo de degradação da camada lipídica da pele e aperfeiçoar os processos de formulação de produtos cosméticos. Os resultados computacionais obtidos serão comparados e validados com resultados experimentais de nossos colaboradores (Profa. Daniele Ribeiro de Araújo/CCNH, e Profa. Luciana Paulino/CCNH) em estudos de situações de interesse reais e possíveis aplicações industriais. 2. Modelos para tecido epitelial tumoral Considerando que o diagnóstico precoce é fundamental para alcançar um tratamento com resultados favoráveis de cânceres, a busca por técnicas e novos métodos de diagnóstico tem se tornado uma área promissora. Dentre as técnicas atualmente estudadas, a biópsia óptica utilizando espectroscopia vibracional emerge como uma técnica com boa sensibilidade e especificidade no diagnóstico de doenças. Isto porque muitas características de interações moleculares nas células e tecidos, que não podem ser acessadas por histopatologia convencional, podem ser acessadas por técnicas ópticas. Entretanto, para melhor entender como as alterações bioquímicas se traduzem em alterações estruturais que conduzem a estes estados patológicos, são necessários estudos mais aprofundados e a simulação computacional é a ferramenta adequada. Neste contexto, buscamos simular um modelo teórico para o tecido tumoral partindo do modelo computacional para tecidos desenvolvido por nosso grupo [1], com diferentes graus de hidratação e a presença de água confinada em sua estrutura, e compará-lo com dados experimentais de carcinogênese em tecido. Este projeto é conduzido em colaboração com a Profa. Denise Zezell (IPEN). [1] E. Sato et al., Phys. Rev. E 91, 063310 (2015).


Desenho de novos inibidores azólicos de corrosão de metais (chaer2sd)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Marco Antonio Chaer do Nascimento
Áreas do conhecimento: Ciência dos materiais; Química
Início da vigência: 02-06-2017

A corrosão é um problema severo na indústria, responsável por perdas de bilhões de dólares por ano. Os gastos com corrosão nos Estados Unidos chegaram a cerca de 400 bilhões de dólares, o equivalente a 3 % do PIB do país, enquanto que no Brasil os gastos correspondem a 3,5 % do PIB. Em consequência disso, há uma grande atividade de pesquisa na área de corrosão, principalmente na busca por bons inibidores, já que este é o meio mais efetivo, econômico e flexível de controle da corrosão interna. Entretanto, a grande maioria das pesquisas nesta área é conduzida de forma empírica, na base da “tentativa e erro”, ou quando muito explorando relações do tipo estrutura do inibidor e sua eficiência. Esses procedimentos, além de muito caros e lentos, pouco contribuem para o entendimento da natureza do problema, ou seja, do mecanismo de corrosão, e consequentemente para o desenvolvimento de novos e mais eficientes inibidores de corrosão. Neste trabalho propomos uma abordagem teórico-experimental para entender o mecanismo de ação dos inibidores já conhecidos e projetar novos inibidores, mais eficientes e ambientalmente corretos. O mecanismo de adsorção será estudado através de cálculos quanto-mecânicos, periódicos e não periódicos, que nos permitirão entender de que forma o inibidor interage com a superfície metálica e o mecanismo de proteção da superfície. Esses estudos permitirão também determinar se há formação de filmes superficiais e as características desses filmes, dados importantes para a determinação do grau de recobrimento da superfície e, portanto, da concentração do inibidor a ser usada. As moléculas mais promissoras serão sintetizadas e testadas experimentalmente, quanto à sua eficiência de inibição, por meio de técnicas convencionais de perda de massa, medida de potencial de corrosão, e por técnicas eletroquímicas mais sofisticadas, tais como diagramas de impedância eletroquímica e microscopia eletroquímica de varredura. Os cálculos serão feitos em nível DFT, com condições periódicas de contorno, base de ondas planas e pseudopotenciais, utilizando o programa Quantum Espresso para realizar o estudo da interação das moléculas com as superfícies em diferentes graus de oxidação (Figura 4). Para cada potencial inibidor será feito um estudo sistemático para verificar como uma molécula se adsorve preferencialmente na superfície, como o processo de adsorção varia com o número de moléculas adsorvidas, o grau de recobrimento máximo que pode ser obtido com cada potencial inibidor e a distribuição das moléculas na superfície no regime de recobrimento máximo (formação de filme, empilhamento etc.) Essas informações guiarão as sínteses para obtenção e testes dos potenciais inibidores. Em cada caso, a estabilidade da camada protetora será testada adicionando-se algumas poucas moléculas de água ao sistema. As seguintes moléculas e seus derivados serão considerados no presente estudo: imidazol, imidazolina, imidazolidina e pirrolidina. O estudo da interação de uma única molécula de cada espécie com a superfície (001) de Fe já foi concluído.


Desenvolvimento de funcionalidades, aumento da escalabilidade e estudos numéricos com modelos atmosféricos de alta resolução: BRAMS e OLAM (bramsolam)

Universidade de São Paulo
Instituto de Astronomia, Geofísica e Ciências Atmosféricas
Coordenador: Pedro Leite da Silva Dias
Áreas do conhecimento: Meteorologia
Início da vigência: 28-06-2016

O modelo meteorológico regional utilizado nesse trabalho de equipe partiu do Regional Atmospheric Modeling System, inicialmente desenvolvido na Colorado State University, e passou por drásticas modificações, visando o paralelismo massivo, novas funcionalidades que melhor representam os fenômenos meteorológicos tropicais e acoplamento com a biosfera, oceanos, áreas inundadas, efeitos da emissão de aerossóis urbanos e por queimadas, química da atmosfera, com ênfase nos efeitos urbanos, emissões biogênicas etc. (Freitas et al. 2009). Somente como referência, foi o esforço brasileiro que elevou a escalabilidade da versão americana (RAMS) de algumas poucas centenas de núcleos para mais de 10.000 cores na versão brasileira denominada BRAMS – Brazilian Developments on the Regional Atmospheric Model (Souto et al. 2015). Mais recentemente, uma iniciativa nos EUA levou ao desenvolvimento de um modelo de domínio global, com núcleo dinâmico inovador, baseado em discretização por volumes finitos, e com toda a formulação dos processos físicos do RAMS/BRAMS, incluindo soluções numéricas e computacionais para garantir maior escalabilidade em plataformas computacionais de processamento massivamente paralelo. Esta versão é denominada OLAM – Ocean Land Atmosphere Model (Walko et al. 2008). Hoje, no Brasil, é feito um esforço integrado entre CPTEC/INPE, IAG/USP, LNCC, IME/USP, UFCG, UFSC e EMBRAPA de desenvolvimento do modelo e com uso para validação e operação na FUNCEME, UFRJ, UFSM, UFPA, INPA, UEA e vários centros regionais de Meteorologia através de um projeto de encomenda do MCTI. A proposta de uso do Santos Dumont no projeto BRAMS/OLAM tem os seguintes focos: 1. Paralelização: (a) OLAM - trabalho desenvolvido principalmente no LNCC com a participação do Dr. Jairo Panetta (ITA) que visa aumento de escalabilidade e migração de algumas partes do modelo para GPU e XEON-PHI e (b) BRAMS – trabalho desenvolvido principalmente pelo Dr. Jairo Panetta do ITA com parceira do CPTEC, LNCC e IAG, também visando o aumento da escalabilidade com foco nas aplicações operacionais do modelo. 2. Utilização do BRAMs/OLAM nas seguintes linhas de pesquisa: 2.1 Assimilação de dados de microfísica da precipitação no BRAMS 2.2 Acoplamento do BRAMS a um sistema de assimilação de dados convencionais e de satélite através do sistema GSI 2.3 Circulações locais na Amazônia e organização da precipitação com malhas de alta resolução no OLAM com ênfase no efeito das áreas alagadas: 2.4 Análise dos erros de previsões de tempo com alta resolução no BRAMS e OLAM do campo de vento para aplicações no gerenciamento de parques eólicos 2.6 Melhorias da funcionalidade do acoplamento com aerossóis e gases traço no BRAMS 2.7 Acoplamento do BRAMS com processos oceânicos 2.8 Efeito do acoplamento troposfera/estratosfera através do ozônio no OLAM.


Desenvolvimento de metamodelos para avaliação do desempenho termoenergético de edificações brasileiras (prjeeesd)

Universidade Federal de Santa Catarina
Departamento de Engenharia Civil
Coordenador: Roberto Lamberts
Áreas do conhecimento: Engenharias
Início da vigência: 13-09-2016

Muitos países vêm percebendo a importância de construir de forma sustentável, buscando elaborar normas e regulamentos de desempenho termo energético os quais aumentem a eficiência das suas edificações. Atualmente, muitas das normas e regulamentos adotam o uso de simulação computacional de edificações para a sua avaliação energética. Os programas de simulação têm sido cada vez mais utilizados em pesquisas relacionadas ao desempenho termo energético, pois permitem obter o consumo energético da edificação, e estimar as condições ambientais da edificação. Apesar da crescente utilização, as ferramentas computacionais para simulação termo energética de edificações demandam um domínio avançado dos fenômenos físicos que ocorrem na edificação, e conhecimentos específicos dos programas utilizados para a simulação. Por outro lado, métodos estatísticos de funções de inferência baseadas em amostras são mais rápidos e simples de serem utilizados. Para combinar as funcionalidades principais de simulações computacionais com o poder das predições estatísticas, existem os modelos híbridos, chamados metamodelos. O objetivo do projeto é o desenvolvimento de metamodelos para a avaliação do desempenho termo energético de edificações. O metamodelo será desenvolvido com base nos dados de entrada e saída de simulações computacionais realizadas no programa EnergyPlus. O desempenho termo energético das edificações é influenciado por vários fatores, como: as características arquitetônicas, as propriedades termo físicas dos materiais; os equipamentos; os sistemas de iluminação e de condicionamento artificial; a ventilação natural; as variáveis ambientais e o comportamento dos usuários. Para cada parâmetro, será necessário simular uma diversidade de condições, garantindo a simulação de todas as possíveis combinações. Permitindo, desta forma, que o metamodelo represente diferentes condições encontradas no universo das edificações. O projeto busca expandir os conhecimentos científicos relacionados ao desempenho termo energético de edificações, e auxiliar os arquitetos e projetistas com recomendações construtivas adequadas para os climas brasileiros. Com os resultados, será possível quantificar o potencial de economia de energia com a adoção de estratégias passivas de operação da edificação. Dentre os benefícios para a sociedade, destacam-se o aumento do conforto térmico e a redução do consumo de energia para o condicionamento artificial das edificações.


Desenvolvimento de softwares e simulações numéricas do enovelamento e agregação de isoformas de IAPP (phast)

Universidade Tecnológica Federal do Paraná
Departamento de Física
Coordenador: Rafael Bertolini Frigori
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Física
Início da vigência: 28-06-2016

Neste projeto de pesquisa propomos empreender simulações de Monte Carlo de larga escala, com o recurso de refinados potenciais moleculares do tipo all-atoms, em um estudo detalhado de processos biofísicos fundamentais como o enovelamento e agregação de diversas isoformas do hormônio Islet Amyloid PolyPeptide (IAPP, ou Amilina) de mamíferos. A IAPP é uma proteína cosecretada juntamente com a Insulina pelas células beta-pancreáticas, sendo as fases iniciais de sua agregação comprovadamente citotóxicas, o que implica um papel crucial no desenvolvimento da Diabetes Mellitus do tipo 2 (DM-2) em humanos. Notadamente, enquanto humanos são vulneráveis à DM-2 certas mutações observadas nas isoformas de IAPP em alguns grupos de mamíferos, como roedores e suínos, aumentam sua estabilidade termodinamica - minorando, ou até suprimindo a agregação - e assim, imunizam tais espécies deste mal. Por sua vez, terapias adjuvantes tem sido recentemente empregas na tentativa de reverter o supracitado processo agregacional, a exemplo do uso da droga conhecida por Pramlintide (Symlin), uma variante da IAPP de roedores biocompatibilizada com humanos. Neste sentido, pretendemos empregar técnicas desenvolvidas por nosso grupo para o cálculo ab initio da propensão agregacional relativa de proteínas - baseada no cálculo da variação de energias livres termodinâmicas – visando não só melhor entender os mecanismos agregacionais específicos presentes nas mais diversas isoformas naturais de IAPP, mas também utilizar este índice para selecionar potenciais variantes moleculares biotecnologicamente otimizadas para tratamentos adjuvantes da DM-2. Objetivando assegurar a eficiencia computacional do projeto utilizaremos ensembles mecânico- estatísticos generalizados, que além de garantirem uma amostragem ótima do landscape energético dos sistemas moleculares, permitirão que seja obtida também sua Termodinâmica Microcanônica. Como este projeto claramente apresenta elevada demanda computacional, conciliaremos nossa expertise em programação de alto desempenho a esta oportunidade de pesquisa para implementar eficientes versões paralelas do algoritmo Multicanônico no reconhecido software científico Simple Molecular Mechanics for Proteins (SMMP). Esta versão do SMMP também será rigorosamente testada quanto ao seu SpeedUp, confrontado-o com a atual versão serial e técnicas alternativas, como o algoritmo REM. Vislumbramos, finalmente, a possibilidade de efetuar a migração de rotinas numéricas particularmente intensivas, como a geração de números pseudo-aleatórios, para GPUs. Assim, pelas razões e objetivos supracitados, este projeto tem também um desejável potencial de resultar em licenciamento de softwares destinados a aplicações com finalidades biotecnológicas.


Desenvolvimento de um tradutor semanticamente referenciado com base em redes neurais para o Português Brasileiro (mknob)

Universidade Federal de Juiz de Fora
Departamento de Letras, Faculdade de Letras
Coordenador: Tiago Timponi Torrent
Áreas do conhecimento: Linguística, letras e artes
Início da vigência: 30-05-2017

O projeto se insere numa iniciativa maior, a da FrameNet Brasil (FN-Br), que objetiva o desenvolvimento de bases de conhecimento semanticamente referenciadas para a compreensão de língua natural por máquina. A FN-Br é o braço brasileiro de uma inciativa global, a FrameNet (http://framenet.icsi.berkeley.edu), sediada no International Computer Science Institute, em Berkeley, EUA. No âmbito deste projeto, objetiva-se desenvolver um tradutor semanticamente referenciado na base de dados linguísticos da FN-Br, a partir da hibridização de um modelo de tradução por máquina fundado em redes neurais disponibilizado em modalidade open source pela Harvard University (http://opennmt.net). Como case, serão utilizadas as porções da base de dados linguísticos referentes ao Turismo e aos Esportes, no desenvolvimento de um tradutor Português Brasileiro – Inglês de domínio específico. A importância do projeto se assenta em três pilares: (i) trata-se da primeira iniciativa de desenvolvimento de um tradutor neural semanticamente referenciado para o Português do Brasil; (ii) trata-se de uma contribuição inovadora para a área de Linguística Computacional, na medida em que se busca, pioneiramente, incorporar bases semânticas cognitivamente referenciadas ao processamento de língua natural por máquina; (iii) trata-se de iniciativa que alia o desenvolvimento de soluções em Linguística Computacional à criação de recursos Terminográficos, fundamentais em um mundo cada vez mais internacionalizado em que a produção de terminologias específicas para cada área em diversas línguas tem papel fundador. O projeto possui grande potencial de impactar a pesquisa em tradução por máquina, na medida em que, aliado ao processamento estatístico, as propriedades semânticas das palavras seriam consideradas na busca por uma equivalência de tradução situada no contexto de produção da sentença. Em termos de aplicações práticas, o projeto pode levar ao melhoramento de produtos como softwares de auxílio à tradução, tradutores automáticos, dicionários eletrônicos e memórias de tradução.


DockThor-VS: Web Server para Triagem Virtual de Fármacos em Larga Escala (dockthorvs)

Laboratório Nacional de Computação Científica
Coordenação de Mecânica Computacional
Coordenador: Laurent Emmanuel Dardenne
Áreas do conhecimento: Ciências biológicas
Início da vigência: 17-08-2016

Técnicas computacionais, conhecidas como atracamento molecular (do inglês, molecular docking), que sejam capazes de prever o modo de ligação e os detalhes do tipo de reconhecimento molecular proteína-ligante, assumem cada vez mais um papel fundamental em áreas estratégicas de pesquisa associadas à saúde e à biotecnologia, que podem envolver centenas de milhões de dólares. Cada vez mais, indústrias farmacêuticas e grupos de pesquisa, que trabalham na busca de novas moléculas candidatas a fármacos, necessitam de metodologias mais rápidas, eficazes e de baixo custo. Neste cenário, a triagem virtual em larga escala baseada na estrutura tridimensional do receptor tem se destacado como uma importante ferramenta na busca de compostos protótipos. A triagem virtual baseada em estrutura consiste em analisar computacionalmente uma grande quantidade de ligantes com o objetivo de selecionar, de acordo com os modos de ligação e as afinidades de ligação previstos, compostos provavelmente mais ativos farmacologicamente para determinada doença. Nos últimos doze anos o Grupo de Modelagem Molecular de Sistemas Biológicos do Laboratório Nacional de Computação Científica (LNCC) tem desenvolvido o programa DockThor para predição de complexos moleculares receptor-ligante. Mais recentemente foi lançado em nível nacional, na 65a Reunião Anual da Sociedade Brasileira para o Progresso da Ciência (SBPC), o Portal web DockThor (www.dockthor.lncc.br), disponibilizando gratuitamente para a comunidade acadêmica o primeiro programa brasileiro (e possivelmente de todo o hemisfério sul) de atracamento molecular receptor-ligante. O portal está acoplado às facilidades de computação de alto-desempenho do SINAPAD. Desde o seu lançamento o portal DockThor foi acessado por mais de 3.500 visitantes únicos e teve cerca de 3500 jobs submetidos. Com a instalação do supercomputador brasileiro Santos Dumont abre-se uma oportunidade excepcional para o desenvolvimento de uma plataforma computacional, envolvendo metodologias e programas próprios, para triagem virtual em larga escala de compostos candidatos a fármacos que possa ser utilizada por grupos de pesquisa e empresas brasileiras atuantes nas áreas de química medicinal e biotecnologia. O presente projeto objetiva implementar a primeira etapa do desenvolvimento do portal web DockThor-VS (VS de virtual screening) para triagem virtual em larga escala acoplado ao Santos Dumont. A versão atual do portal DockThor permite apenas realizar experimentos computacionais envolvendo um ligante e um receptor por vez. No DockThor-VS será possível investigar bibliotecas de ligantes contendo milhões de moléculas contra dezenas ou até mesmo centenas de alvos moleculares. É importante ressaltar que pesquisadores ligados a este projeto são membros do INCT-INOFAR (Instituto Nacional de Ciência e Tecnologia de Fármacos e Medicamentos - http://www.inct-inofar.ccs.ufrj.br/) onde desenvolvem pesquisas aplicadas de desenho racional de fármacos através de fortes colaborações com grupos de pesquisa e instituições relevantes na área de desenvolvimento de novos fármacos para o tratamento de doenças negligenciadas, Alzheimer e inflamatórias crônicas.


Efeito da estrutura da paisagem no impacto da variabilidade climática na disponibilidade hídrica de bacias. (HIDROLAND)

Instituto Nacional de Pesquisas Espaciais
Centro de Ciência do Sistema Terrestre
Coordenador: Daniel Andres Rodriguez
Áreas do conhecimento: Geociências
Início da vigência: 08-06-2017

A expansão das atividades antrópicas sobre os ecossistemas naturais tem intensificado as pressões sobre as áreas de florestas. As conversões de uso do solo alteram a estrutura da paisagem, como resultado das complexas interações entre forças físicas, biológicas, políticas, econômicas e sociais, caracterizando uma estrutura fragmentada por usos distintos. Estudos prévios demonstram que mudanças do uso e cobertura da terra de origem antropogênica tem efeitos sobre o clima regional modificando as propriedades da superfície e alterando o ciclo de carbono. A vegetação controla propriedades físicas da superfície (por exemplo, albedo, profundidade radicular, e rugosidade), afetando as trocas de água e energia entre a atmosfera e a superfície. A resposta dos ecossistemas terrestres às mudanças de origem antropogênica podem induzir mecanismos de retroalimentação positivos ou negativos com o sistema climático, magnificando ou reduzindo os impactos da variabilidade climática. Apesar destas evidências, existem poucos estudos numéricos dos efeitos das mudanças no uso e na cobertura do solo na resposta hidrológica que considerem as componentes atmosféricas e hidrológicas de uma maneira acoplada. Um dos motivos para estas limitações se relacionam com a baixa resolução espacial dos modelos climáticos, o que não permite capturar os processos de pequena escala induzidos pela heterogeneidade na cobertura vegetal ou mesmo pela fragmentação da paisagem induzida pela ocupação humana. Consequentemente, propõe-se estudar o impacto da estrutura natural da paisagem na resposta à variabilidade climática através de modelagem hidrometeorológica. Para tal fim, propõe-se aprimorar ferramentas de modelagem através da parametrização de processos que afetam a geração de escoamento e a evapotranspiração. Os experimentos de modelagem terão por foco bacias representativas nas Regiões Norte e Sudeste do país. O motivo desta escolha se apoia no fato de que: - A Região Norte apresenta maior potencial de recursos hídricos não explorados, e vem sendo afetada por pressões antrópicas relativamente recentes, o que permite estudar o efeito das mudanças do uso e cobertura da terra dentro do período de existência de observações hidroclimáticas sistemáticas na região. Ainda, nas próximas décadas esta região será impactada por intensas mudanças do uso da terra em decorrência de aumento da ocupação humana, cujos efeitos irão se superpor às mudanças climáticas de escala global. Como caso área de estudo na região será utilizada a bacia do Ji-Paraná, em Rondônia. - A Região Sudeste concentra as bacias mais antropizadas do país, onde os recursos hídricos estão perigosamente próximos de seu limite sustentável, pelo qual as mudanças climáticas futuras juntamente com o desenvolvimento de novas atividades agroflorestais, em particular a expansão de plantações de eucalipto, poderão comprometer a sustentabilidade ambiental e econômica dos maiores centros urbanos do país. Como caso de estudo será utilizada a bacia do Paraíba do Sul. Dada a importância da relação entre o uso e cobertura do solo e a gestão de bacias, o desenvolvimento de ferramentas de simulação hidrológica e atmosférica que incorporem explicitamente mudanças presentes e futuras dos usos da terra permitirá o desenvolvimento de cenários mais confiáveis da disponibilidade hídrica, permitindo o planejamento de ações que reduzam os riscos de colapso hídrico. Ainda, a proposta está integrada aos trabalhos desenvolvidos nos projetos CAPES 88887.115869/2015-01 e CNPq 442890/2014-1, incluindo a formação de recursos humanos especializados através do desenvolvimento de estudos de pós-graduação.


Efeito do solvente em complexos dinucleares de platina(III) via dinâmica molecular ab initio e cálculos de tensores blindagem e constante de acoplamento spin-spin (aimdsolv)

Universidade de São Paulo
Instituto de Química
Coordenador: Lucas Colucci Ducati
Áreas do conhecimento: Física; Química
Início da vigência: 25-06-2018

Complexos de diplatina platina (Pt-Pt) e derivados vem sendo investigados para potenciais aplicações como drogas antitumorais devido às suas baixas associaçõescom nefrotoxicidade. Estes compostos apresentam relevâncias tecnológicas, como propriedades magnéticas, ópticas, quantum dots, bem como, processos industriais catalíticos. No entanto, a compreensão estrutural e espectroscópica destes compostos é ainda muito limitada em solução, o que carece de novas metodologias que forneçam melhores informações, principalmente em solução, onde grande parte dos complexos são sintetisados, acarretando melhor entendimento para futuras aplicações tecnológicas. A Ressonância Magnética Nuclear (RMN), a técnica mais poderosa para determinação estrutural em solução, tem em seus parâmetros tensor blindagem (σ)/deslocamento químico (δ), e as constantes de acoplamento (J) fontes de informação para determinação inequívoca da estrutura molecular, dependendetes da estrutura molecular e eletrônica que é fortemente perturbada pela sovatação. Para melhor elucidar a dinâmica da estrutura soluto solvente e como muda a densidade eletrônica dos complexos Pt-Pt, cálculos de dinâmica molecular ab initio e da teoria do funcional de densidade serão aplicados neste estudo, para simulação das espécies em solução. Estudos prévios com solvatação implícita anteriores sugerem que a descrição explícita do sistema soluto-solvente de forma dinâmica, possibilitará a descrição mais realista das condições experimentais, melhorando a precisão dos valores de σ, δ e J com geometrias estáticas em nível DFT, com inclusão de efeito de solvente implícito e Hamiltoniano com correção relativística, superestimam os valores experimentais em cerca de 100% para a maioria dos compostos. Para isso, a dinâmica molecular de Kohn-Sham (KS) Car-Parrinello (CPMD) e cálculos KS híbridos de propriedades magnéticas, com e sem efeito de solvente, serão utilizados. Este projeto propõe uma nova aplicação estado da arte no estudo dos parâmetros espectroscópicos e da dinâmica soluto solvente e estruturais em solução, o que auxiliará na elucidação do comportamento catalítico e outras propriedades em que o papel do solvente é fundamental.


Efeitos de processos não-hidrostáticos na convecção tropical utilizando o modelo Global Eta Framework (gef)

Instituto Nacional de Pesquisas Espaciais
Centro de Previsão do Tempo e Estudos Climáticos
Coordenador: Chou Sin Chan
Áreas do conhecimento: Meteorologia
Início da vigência: 10-07-2017

O objetivo deste projeto é avaliar os efeitos de inclusão da componente não-hidrostática no sistema de equações do modelo global atmosférico, na simulação de convecção em regiões tropicais, com foco na região dea Amazônia. O modelo utilizado é o Global Eta Gramework (GEF) (Zhang e Rancic, 2007)*, que possui a versão de grade cúbica quase uniforme. A componente não-hidrostática está sendo implementada no modelo, utilizando a metodologia de Janjic et al (2001)**, o mesmo método aplicado na versão não-hidrostática do modelo regional Eta, que é um dos modelos operacionais para previsão de tempo e clima do CPTEC/INPE. A dinâmica não-hidrostática do modelo será implementada somente como um módulo que permitirá facilmente a comparação das versões hidrostática e não-hidrostática do mesmo modelo. Após aplicar os ajustes necessários, principalmente nos esquemas de parametrização de convecção, serão realizados testes do modelo com resolução horizontal entre 5 km e 8 km. Dados de reanálise ERA-Interim serão utilizados como condições iniciais do modelo. Serão realizadas várias rodadas para os anos 2009 e 2012, com ambas versões do modelo, em modo hidrostático e não-hidrostático. A proposta tem por objetivo investigar a contribuição dos processos não-hidrostáticos no desenvolvimento da convecção profunda na Amazônia. Os efeitos dos processos não-hidrostáticos, na simulação do início da estação chuvosa e do ciclo diurno serão estudados nos anos extremamente chuvosos. Para avaliar a estabilidade do modelo, pretende-se realizar pelo menos uma rodada de longa duração com baixa resolução. Para validar as simulações, serão realizadas comparações com os dados de reanalise do ERA INTERIM e dados observados disponíveis, como por exemplo, dados de satélite, GPCP, CMORPH, TRMM e dados de projetos e campanhas de campo, como, por exemplo, LBA, CHUVA, GOAMAZON. Um resultado deste projeto será o desenvolvimento de um modelo atmosférico global e não-hidrostático, em alta resolução, que se destaca pela sua economia no uso de recursos computacionais, estabilidade numérica etc.


Engenharia de Proteínas e Biomiméticos com Potencial em Diagnóstico e Vacinal para os Vírus Dengue e ZIKA (biomat)

Centro de Pesquisas Aggeu Magalhães, Fundação Oswaldo Cruz
Departamento de Virologia
Coordenador: Roberto Dias Lins Neto
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 11-07-2016

A detecção de antígenos e anticorpos específicos de patógenos é um dos métodos mais utilizados em diagnóstico clínico. Tal procedimento é utilizado no diagnóstico de câncer, doenças infecciosas, autoimunes, etc. Além disso, as moléculas de anticorpos constituem o mecanismo de proteção biosintética mais efetivo. Um aspecto crítico e até mesmo limitante para a síntese de anticorpos altamente específicos é o fato de que alguns epítopos podem se apresentar de forma transiente, expondo-se apenas quando o vírus se liga ao receptor. Uma alternativa para tal problema é a engenharia de estruturas moleculares (proteínas naturais ou biomiméticos) que possam servir de suporte para tais epítopos. De natureza multidisciplinar, métodos de simulação computacional serão sinergisticamente associados a técnicas experimentais de biologia molecular, imunologia e biofísica molecular para o desenvovimento de moléculas potencialmente imunorreativas. Especificamente, este projeto tem por objetivo o desenho racional e a caracterização das bases moleculares de proteínas e biomiméticos de interesse imunológico (diagnósticos e vacinais) que tem como alvo os vírus Dengue e ZIKA. O desenvolvimento dessas novas moléculas podem contribuir não apenas na área de saúde publica, mas também para a redução da nossa dependência tecnológica, a partir da produção de insumos com tecnologias estritamente nacionais.


Espectroscopia de RMN: Além da determinação estrutural (nmrspec)

Universidade Estadual de Campinas
Instituto de Química
Coordenador: Claudio Francisco Tormena
Áreas do conhecimento: Química
Início da vigência: 18-05-2017

Ressonância Magnética Nuclear (RMN) é a técnica mais poderosa para determinação estrutural em solução. Os parâmetros fundamentais, tais como deslocamentos químicos (delta), e as constantes de acoplamento (J) são as fontes mais importantes de informação para determinação inequívoca da estrutura molecular. Estes dois parâmetros também podem ser aplicados para determinar a conformação adotada por uma molécula em solução. Os deslocamentos químicos e as constantes de acoplamento são dependentes da estrutura molecular e eletrônica, sendo que as medidas experimentais podem ser utilizadas como uma sonda para avaliar pequenas alterações na estrutura eletrônica, mas para estes fins, os parâmetros experimentais de RMN (delta e J) têm de ser suportados pelos valores calculados teoricamente através de cálculos mecânico quântico. Nesta proposta são sugeridos alguns projetos, tais como: avaliação de preferência conformacional para pequenas moléculas orgânicas; a influência da interação estereoeletrônica no deslocamento química de 13C para moléculas contendo átomos pesados, tais como o iodo; influência da interação estereoeletrônica em constantes de acoplamento spin-spin; avaliação do mecanismo de reação orgânica e determinação da estereoquímica dos produtos dessas reações por acoplamento 3JCH. De forma geral o desenvolvimento da presente proposta irá fornecer uma melhor compreensão dos parâmetros fundamentais da RMN (delta e J), bem como a formação em alto nível de alunos de doutoramento e pós-docs em RMN, o que é muito importante para uma grande parte da comunidade química brasileira, pois RMN é uma ferramenta muito importante para o desenvolvimento da ciência nacional, sendo que o número de doutores formandos nessa área ainda é escasso tanto nas Universidades como na indústria


Estimação Não Invasica de Reserva Fracionada de Fluxo Coronário FFR (hmlffr)

Laboratório Nacional de Computação Científica
Coordenação de Ciência da Computação
Coordenador: Pablo Javier Blanco
Áreas do conhecimento: Ciências da saúde; Engenharias
Início da vigência: 28-06-2016

O objetivo do presente projeto é pesquisar e desenvolver técnicas de modelagem computacional e simulação numérica na área de hemodinâmica computacional do sistema cardiovascular humano com ênfase no cálculo numérico de reserva fracionada de fluxo coronário. Isto compreende o desenvolvimento de métodos numéricos para análises fluidodinâmicas visando estimar índices hidrodinâmicos associados à oclusão de artérias coronárias e seu impacto no risco de isquemia miocárdica. Em primeiro lugar, serão desenvolvidos modelos orientados para pacientes específicos para simular a circulação na árvore coronariana podendo considerar presença de estenoses, colateralização de fluxo sanguíneo e efeito de vasodilatadores. A anatomia vascular coronária de cada paciente será obtida a partir do processamento e segmentação de imagens de tomografia computadorizada. Em segundo lugar, estes modelos serão empregados para estimar índices cardiovasculares de interesse médico e avaliar o risco de isquemia em pacientes com doença coronária em tempos compatíveis com a aplicação clínica. Todos os modelos e técnicas serão validados tanto com imagens de ultrassom intravascular assim como com medições invasivas da reserva fracionada de fluxo realizadas em procedimentos de cateterismo. Espera-se que os resultados alcançados com este trabalho venham a fornecer ferramentas não invasivas, com grau de confiabilidade equivalente às técnicas invasivas, que auxiliem na avaliação de risco de isquemia de miocárdio em pacientes com doença coronária.


Estrutura de galáxias em grande escala: explorando a natureza da energia escura (EGGELINEA)

Observatório Nacional
Laboratório Interinstitucional de e-Astronomia
Coordenador: Luiz Alberto Nicolaci da Costa
Áreas do conhecimento: Astronomia
Início da vigência: 07-08-2017

Um grande desafio da física moderna é explicar a natureza da misteriosa força responsável pela expansão acelerada do Universo, a chamada energia escura que representa da ordem de 70% da composição do universo. Enquanto a natureza da matéria escura é estudada pelo Grande Colisor de Hádrons (LHC), o estudo da energia escura é feita por grandes levantamentos astronômicos, como o Dark Energy Survey (DES) e o Large Synoptic Survey Telescope (LSST), incluindo pesquisadores brasileiros. Estes levantamentos fotométricos têm por finalidade imagear regiões do céu em diferentes filtros gerando grandes volumes de dados que precisam ser reduzidos e analisados. Isto exige o desenvolvimento de uma infraestrutura de hardware/software para a transferência, armazenamento, processamento, distribuição e a análise eficiente desses dados. Para este fim, foi criado o Laboratório Interinstitucional de e-Astronomia (LIneA), envolvendo o ON, LNCC, e RNP, que ao longo dos últimos anos procura soluções para os problemas de Big Data em astronomia. Entre eles, estão: 1) a transferência de dados com a instalação da solução DMZ sugerida pela RNP, com monitoramento da rede e testes com diferentes algoritmos de transferência; 2) o desenvolvimento de um portal científico, que concatena uma variedade de processos necessários à preparação de catálogos de objetos prontos para análises científicas (e.g., identificação de galáxias satélites, detecção de aglomerados de galáxias, análise da estrutura em grande escala do Universo); 3) o desenvolvimento de um sistema de banco de dados paralelizado em colaboração com o grupo do LSST baseado no Stanford Linear Accelerator Center (SLAC); 4) a integração de workflows científicos que utilizam catálogos produzidos para aplicações científicas, entre as quais, estimar os parâmetros que descrevem o Universo observado. O portal serve para blindar o pesquisador da tarefa de movimentar os dados e, preservar a memória dos processos executados permitindo determinar como cada produto final foi obtido. Tudo isto é testado num cluster (SGI Altix XE 1300) com 912 núcleos. Certas etapas do processo de criação de catálogos consomem um grande número de horas de processamento e representam um importante gargalo para a exploração científica dos dados. Um passo importante para tornar as nossas soluções adequadas, não só para o DES, mas principalmente para o LSST, é a possibilidade de certas tarefas serem despachadas para outras plataformas de processamento resolvendo o problema de escalonamento. Entre as possibilidades, está o supercomputador SDumont. O objetivo deste projeto é avaliar como isto será feito, primeiramente, de forma não automatizada, com o intuito de, eventualmente, desenvolver uma interface que permita a integração do portal ao supercomputador. Este projeto tem o apoio do INCT do e-Universo cujo objetivo é apoiar grandes levantamentos como o DES e o LSST, lembrando que o último será da ordem de 30 vezes maior do que o DES sendo atualmente analisado pelo grupo DES-Brazil com o apoio do LIneA, contendo mais objetos (18 bilhões ao invés de 400 milhões) devido a maior área e profundidade, e 6 ao invés de 5 filtros. O problema de escalabilidade é, portanto, central no nosso planejamento.


Estudo da dinâmica fora do equilíbrio e da espectroscopia de líquidos iônicos (il_nemd)

Universidade de São Paulo
Instituto de Química
Coordenador: Mauro Carlos Costa Ribeiro
Áreas do conhecimento: Física; Química
Início da vigência: 03-07-2018

Vários sais com baixo ponto de fusão, os chamados líquidos iônicos, são líquidos viscosos que apresentam diagramas de fases complexos com possibilidade de transição vítrea ou cristalização dependendo do histórico de mudança das variáveis temperatura e pressão. Termodinâmica, estrutura e dinâmica de líquidos iônicos têm sido estudadas no Laboratório de Espectroscopia Molecular do Instituto de Química da USP, LEM/IQ-USP, em abordagens experimentais por calorimetria, espectroscopia Raman e difração de raios-X, e teórica por simulações de dinâmica molecular de equilíbrio. No presente projeto, pretendemos ampliar os estudos computacionais com simulações pelo método de dinâmica molecular de não-equilíbrio (NEMD, non-equilibrium molecular dynamics). Uma das motivações para simulações NEMD é que líquidos iônicos podem formar mesofases cuja natureza, sob o ponto de vista da estrutura e dinâmica microscópica, ainda é pouco compreendida. As simulações NEMD dos sistemas submetidos a diferentes velocidades de cisalhamento, em conjunto com análises estruturais, permitirão a interpretação ao nível molecular da reologia dos líquidos iônicos. Além disso, uma aplicação bem conhecida para os líquidos iônicos é o uso como lubrificante, sendo que no contexto da tribologia é fundamental o entendimento da estrutura e dinâmica do fluido em diferentes condições, tal como diferente pressão aplicada entre as superfícies em movimento relativo. Pretendemos com as simulações NEMD calcular viscosidade de líquidos iônicos em diferentes condições de fluxo e pressão, a fim de relacionar a viscosidade aparente com as mudanças estruturais decorrentes da condição de não-equilíbrio. Além de comparar diferentes líquidos iônicos a fim de determinar como modificações na estrutura molecular afetam as propriedades reológicas e estruturais, avaliaremos também duas diferentes metodologias para o estudo fora do equilíbrio (NEMD e RNEMD) e o efeito da introdução de polarizabilidade no modelo. Serão realizados ainda cálculos quânticos em nível DFT de clusters contendo dezenas de íons a fim de estudar o espectro vibracional dos mesmos.


Estudo da estabilidade de sistemas coloidais: aplicações em petróleo e gás, cosméticos e alimentos (ColSys)

Universidade do Estado do Rio de Janeiro
Instituto de Química
Coordenador: Eduardo Rocha de Almeida Lima
Áreas do conhecimento: Engenharias; Química
Início da vigência: 25-05-2017

Sistemas coloidais estão presentes em inúmeras aplicações em diversas áreas da ciência e da indústria. Em especial, este projeto foca em aplicações nas áreas de petróleo e gás, cosméticos e alimentos. Nestas áreas, destaca-se a presença de sóis, espumas e emulsões. Esses sistemas em geral apresentam estabilidade delicada e propriedades físico-químicas incomuns, ainda pouco estudadas na literatura, em comparação com outros sistemas. Além disso, muitos desses sistemas, especialmente nas áreas petrolífera contêm eletrólitos, fazendo com que estudos de dupla camada elétrica e especificidade iônica se tornem importantes. No setor petroquímico, buscam-se condições que diminuam a estabilidade das espumas formadas, diminuindo os gastos com substâncias antiespumantes. Já na área de cosméticos, procuram-se condições que estabilizem e tornem mais cremosas as espumas geradas. Por fim, na produção de cerveja, busca-se estabilizar a espuma, de forma a garantir a conservação das propriedades organolépticas do produto por mais tempo. Diferentes técnicas aplicadas em diferentes escalas podem ser utilizadas na modelagem de sistemas coloidais, tais como métodos implícitos, equações integrais e métodos explícitos. O objetivo geral deste trabalho é estudar as interações presentes em sistemas coloidais e a estabilidade de tais sistemas utilizando simulações por dinâmica molecular (DM), além de promover ferramentas de integração em escalas entre DM e teoria do funcional da densidade clássica e entre DM e equação de Poisson-Boltzmann modificada a fim de determinar propriedades macroscópicas dos sistemas estudados. Dentre os objetivos específicos, destacam-se: obtenção do potencial de campo médio (PMF) de íons em diluições infinitas em torno de interfaces formadas por óleo/água em função da distância em relação a essa interface (propiciando a posterior integração em escalas), cálculo da tensão superficial ou interfacial através de diferentes técnicas e análise do impacto de diferentes agentes surfactantes na estabilidade de coloides, de acordo com o sistema estudado. Uma pesquisa bibliométrica de fácil levantamento acerca da importância industrial do estudo de espumas e emulsões pode ser conduzida por meio da base de dados do GooglePatents. Delimitando a pesquisa para empresas contendo filiais nos estados de São Paulo ou Rio de Janeiro, verifica-se que a indústria farmacêutica e de cosméticos é uma das que mais depositam patentes sobre áreas correlatas às do presente projeto. No campo petroquímico, a empresa brasileira que mais investe em pesquisa, a PETROBRAS, também responde por um número significativo de patentes depositadas sobre o tema. A cultura industrial brasileira no que tange à pesquisa, novamente à exceção da Petrobrás, não é das mais animadoras. Uma das formas de atacar esta lacuna, aproximando empresas e universidades, consiste em produzir dentro das universidades pesquisas de ponta no tema, o que depende, além da formação técnica dos participantes dos projetos, da infraestrutura e dos recursos computacionais que permitam o desenvolvimento de tais estudos. Com isto, é possível ter núcleos de pesquisa de ponta dentro das universidades brasileiras, conciliando a geração de conhecimento científico com a produção de tecnologia.


Estudo da interação de peptídeos antimicrobianos (PAMs) com modelos de membrana celular por simulações de Dinâmica Molecular. (antimicmd)

Universidade Estadual Paulista
Departamento de Física
Coordenador: Alexandre Suman de Araujo
Áreas do conhecimento: Ciências biológicas; Física
Início da vigência: 14-10-2016

Os peptídeos antimicrobianos (PAMs) são moléculas produzidas por organismos vivos com a finalidade de combater agentes infecciosos. Alguns desses peptídeos são de grande interesse farmacêutico como antibióticos já que seu mecanismo de ação antibactericida, baseado no ataque à membrana celular, apresenta baixo potencial de desenvolvimento de cepas resistentes. Dentre os mais promissores se destacam os peptídeos extraídos da vespa social Polybia paulista e seus análogos sintéticos, que apresentam ação antibacteriana seletiva e baixa toxicidade. Um estudo recente analisou os efeitos de alterações no N-terminal dos análogos sintéticos L1A, Ac-L1A e ABZ-L1A sobre a conformação e ação lítica em misturas água-TFE e bicamadas lipídicas. Outro estudo mostrou que um desses peptídeos, o MP1, apresenta também ação antitumoral, o que aumenta o interesse farmacêutico por tal molécula. A utilização de simulações computacionais como ferramenta no estudo dos mais variados sistemas é hoje uma realidade. A análise conjunta de resultados oriundos de experimentos reais e virtuais permite um entendimento muito mais geral dos fenômenos envolvidos, acarretando numa caracterização mais completa dos sistemas em estudo. Dentre as inúmeras técnicas de simulação computacional existentes a Dinâmica Molecular (DM) é uma das mais difundidas atualmente, pois fornece resultados extremamente satisfatórios e confiáveis. Dentre as diversas grandezas que podem ser calculadas a partir de simulações de DM, os cálculos de energia livre (EL) possuem especial importância. Conhecer a variação da energia livre de um processo nos permite determinar a direção espontânea do mesmo, bem como a configuração de maior probabilidade. Um dos métodos mais utilizados atualmente para o cálculo do perfil de energia livre por um caminho de reação é o Adaptive Biasing Force (ABF). Com esse método é possível calcular a variação de energia livre por um ou mais caminhos de reação com um custo computacional muito menor que o requerido por outros métodos da mesma categoria. O presente projeto propõe a aplicação de tais métodos computacionais para investigar o processo de adsorção de PAMs em modelos de membrana, as alterações que a bicamada sofre com essa adsorção e as características físico-químicas que governam tal processo. Com isso, pretendemos contribuir de forma significativa para o desenvolvimento de peptídeos mais potentes e seletivos.


Estudo de propriedades eletrônicas e físico-químicas de sistemas supramoleculares condutores e semicondutores (lmscunb)

Universidade de Brasília
Instituto de Química
Coordenador: Kleber Carlos Mundim
Áreas do conhecimento: Física; Química
Início da vigência: 16-09-2016

O estudo químico-computacional de sistemas supramoleculares com propriedades condutoras e semicondutoras vem crescendo substancialmente nas últimas décadas, graças aos avanços associados às novas metodologias de modelagem aplicada a ciência dos materiais. Ao mesmo tempo o estudo de propriedades eletrônicas de supramoléculas que apresentam propriedades condutoras/semicondutoras requer metodologias que proporcionem a determinação, acurada, de polarizabilidades, susceptibilidades magnéticas, densidades de corrente, fatores de blindagem e constantes de magnetização. Uma dessas realizações são os isolantes topológicos que são materiais com a ordem topológica não trivial que se comporta como um isolante no seu interior , mas cuja superfície contém estados dondutores de elétrons o que só podem mover-se ao longo da superfície do material . No entanto, a superfície condutora não é o carácter único de isolante topológico , uma vez que os isoladores da banda comuns também podem apoiar os Estados superfície condutora. O que é especial é que os estados de superfície de isoladores topológicos são protegidos simetria pelo número de partículas de conservação e simetria reversão do tempo. Pesquisas recentes mostram que isoladores topológicos são de fato um caminho para a realização computadores quânticos práticos, bem como dispositivos " spintrônica ", que são muito mais poderosos do que manipuladores de números. Outro campo bastante promissor dentro do campo de supramoléculas é o emprego de superfícies a base de grafenos em catálise molecular, cujas propriedades catalíticas podem ser moduladas ao se promover modificações (defeitos) em regiões específicas, tornando estas folhas a priori homogêneas em sistemas catalíticos com potenciais atividades em reações de hidrogenação, ciclizações, esterificações, condensações, etc. Inicialmente pretende-se aplicar a Teoria do Funcional de Densidade, através de funcionais B97xD, CAM-B3LYP, PBE1PBE e M06-2X e bases do tipo 6-31G e 6-311G (com e sem funções difusas e de polarização) e aug-cc-pVDZ. Estes cálculos serão importantes para a verificação de propriedades de ressonância magnética nuclear (blindagem, densidades de corrente, susceptibilidade magnética e anisotropia) para sistemas que possam apresentar atividades catalíticas e/ou condutoras. Análises de interação substrato-superfície, para catálise, serão realizadas também através de ensaios de dinâmica molecular. Os sistemas, que serão estudados ao longo deste projeto, apresentam em média 400 átomos de carbono, distribuídos em faixas, folhas de grafeno, e nanotubos contendo defeitos estruturais pela incorporação de átomos do grupo 13 da tabela periódica.


Estudo de sistemas bidimensionais do tipo grafeno (leelmat2d)

Universidade Federal de Santa Maria
Departamento de Física
Coordenador: Rogério José Baierle
Áreas do conhecimento: Física; Química
Início da vigência: 10-10-2017

O estudo teórico de materiais nanoestruturados (nanotubos, nanofitas e nanofios), em geral, é efetuado com base em procedimentos de primeiros princípios utilizando a teoria do funcional densidade (DFT). Esta técnica tem obtido grande sucesso a medida que os computadores tornaram-se mais velozes. Uma ênfase especial vem sendo dada a um material bidimensional a base de carbono (grafeno). Contudo, as aplicações tecnologícas do grafeno são limitadas a ausência de gap, o grafeno é um semicondutor de gap nulo ou também dito semi-metal. Outros materiais bidimensionais como o nitreto de boro (BN) e o carbeto de silício (SiC) vem se mostrando muito promissores. Nestes materiais temos a presença de um gap que pode ser ajustado controlando a estequiometria e/ou o potencial químico por componentes primários usados para sintetizar estas estruturas 2D. Utilizando estes procedimentos de cálculo pretendemos investigar as propriedades eletrônicas e estruturais de uma série de materiais que vem despertando grande interesse. Daremos ênfase especial aos materiais bidimensionais, pois estes apresentam grande potencialidade para serem utilizados em dispositivos eletrônicos miniaturizados em substituição aos atuais, porém com desempenho melhorado. Com relação ao método a ser utilizado, este é um método de primeiros princípios fundamentado na teoria do funcional densidade (DFT) O código computacional a ser utilizado inicialmente será programa SIESTA, futuramente outros códigos existentes no mercado poderão ser utilizados. Códigos computacionais mais simples muitas vezes serão de necessidade de desenvolvimento, porém a linguagem computacional será o FORTRAN a qual o orientador possui um bom conhecimento e é disciplina obrigatória do curso de física da UFSM, Como aplicações dos nossos estudos, pretendemos estudar a potencialidade destes materiais para armazenagem de hidrogênio, como nanosensores e sistemas magnéticos. Outros materiais que vem despertando interesse são o telureto de chumbo (PbTe) e o seleneto de chumbo (PbSe) que apresentam eficiência termoelétrica. Termoeletricidade é a conversão de energia térmica (geralmente perdida num dispositivo) em eletricidade. Esta a princípio é uma fonte limpa de energia que precisa ser bastante explorada. Resultados recentes obtidos no nosso laboratório apresentam que nanoestruturas a base de PbTe e PbSe apresentam uma eficiência termoelétrica que pode levar a produção de dispositivos termoelétricos. Acreditamos que este projeto deverá ser de grande utilidade para o crescimento da compreensão física acerca de novos materiais. Podendo trazer a luz novos horizontes para uma inovação tecnológica na área de materiais nanoestruturados.


Estudo exploratório sobre técnicas e mecanismos para paralelização automática e offloading de código em sistemas heterogêneos (APCO)

Universidade Tecnológica Federal do Paraná
Departamento Acadêmico de Computação
Coordenador: Rogerio Aparecido Goncalves
Áreas do conhecimento: Ciência da computação
Início da vigência: 12-06-2017

O objetivo é investigar técnicas e mecanismos para a paralelização automática de código e de offloading de código para dispositivos aceleradores em plataformas heterogêneas. Cada vez mais as plataformas de processamento paralelo são compostas por elementos heterogêneos, CPUs multi-core e aceleradores como GPUs manycores e arranjos de coprocessadores (Xeon Phi). Quando esses elementos são integrados, o poder de processamento dessas plataformas pode ser potencializado. Entretanto, do lado do software há a necessidade de modernização de aplicações de código legado para usarem novos recursos como por exemplo, instruções de vetorização (simd). Mesmo com a utilização de recursos locais de cada núcleo, pode acontecer de que a carga de trabalho ultrapasse sua capacidade individual e da execução paralela em sistemas multi-core. No caso da capacidade de sistemas multi-core não ser suficiente para a demanda de processamento ou simplesmente pela disponibilidade de dispositivos aceleradores, existe a possibilidade do uso de técnicas e mecanismos para o offloading de código para aceleradores como GPUs ou coprocessadores Xeon Phi. Estas plataformas modernas com processadores multi-core e dispositivos aceleradores, mesmo fornecendo kits de desenvolvimento aos seus usuários, requerem que o programador declare explicitamente todas as transferências de dados entre as memórias dos dispositivos e o lançamento da execução de kernels para os dispositivos aceleradores. Para amenizar essa condição, ferramentas e abordagens tem sido propostas para gerar código para essas plataformas. Entre as abordagens que tem se destacado, tem-se o uso diretivas de compilação e a paralelização automática, cujo objetivo é destacar automaticamente regiões de código paralelizáveis. As diretivas de compilação são amplamente conhecidas e utilizadas. Anotações no código guiam o processo de compilação, no qual as transformações e modificações de código são aplicadas às regiões anotadas e uma versão paralela de código é então gerada para execução em um ambiente de execução OpenMP. As implementações de runtimes OpenMP (GCC + LibGOMP e Intel icc + OpenMP* Runtime Library (libomp)) trazem a possibilidade de utilização de CPUs multi-core, e também do uso de aceleradores e coprocessadores. As duas abordagens tratam do processo de identificação das regiões paralelizáveis, que ocorre ou por anotação ou pela detecção automática, mas o offloading de código será obrigatoriamente feito quando o fluxo de execução alcançar determinada região paralelizável. O offloading de código acontece nas duas abordagens, mas sem uma decisão automática. Um runtime relacionado com paralelização automática e offloading de código baseado em versões de código para laços paralelos foi desenvolvido na tese de doutorado proponente. O código de entrada é um código OpenMP preparado com funções alternativas contendo versões de código do laço paralelo para cada um dos dispositivos aceleradores. As bibliotecas do runtime interceptam algumas chamadas que as aplicações fazem ao runtime do OpenMP usando uma técnica de hooking. A decisão sobre o offloading de código é tomada automaticamente em tempo de execução usando a intensidade operacional que é obtida aplicando-se conceitos do Modelo Roofline.


Estudo teórico dos efeitos de solvente na descarboxilação de tricloroacetato via dinâmica molecular ab initio (dmqsol)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Thiago Messias Cardozo
Áreas do conhecimento: Física; Química
Início da vigência: 13-07-2017

A reação de descarboxilação do ânion tricloroacetato é uma reação de importância em química ambiental, visto que trihaloacetatos, reconhecidamente tóxicos, acumulam-se em águas, solos e atmosfera. Originam-se da degradação de desinfetantes, solventes e desengordurantes. Ademais, podem ser produzidos pelo metabolismo de organismos que contenham enzimas cloroperoxidases. Devido a sua intrínseca toxidade e sua decomposição em halometanos, trihaloacetatoscompõem uma classe de substâncias reguladas pela Agência de Proteção Ambiental americana (EPA). Além disso, a reação tem grande utilidade em rotas de síntese de compostos orgânicos, como na síntese de ácidos carboxílicos via reação de Jocic. Apesar de haver um grande número de investigações acerca de sua cinética em diversos solventes, pouco se sabe sobre a dinâmica da reação e o papel do solvente na mesma. O solvente tem um papel crítico em reações de descarboxilação; o uso de uma mistura dimetilsulfóxido(DMSO)/água, por exemplo, pode aumentar em mais de 6 vezes a velocidade da reação em comparação com a reação em água pura. Portanto, compreender e investigar o efeito do solvente, em um nível microscópico, pode contribuir para a elaboração de protocolos mais eficientes para a reação que podem levar a importantes ganhos em possíveis scale ups. O projeto tem como objetivo principal a investigação acerca da diferença na reatividade do ácido tricloroacético em diferentes meios. Resultados preliminares apontam que a solvatação diferencial é a principal causa para as diferentes velocidades da reação em cada solvente. Além disso, modificações estruturais do solvente seriam de extrema importância para descrever o processo. Para tanto, pretende-se empregar técnicas de dinâmica molecular ab initio para estudar a reação em diferentes solventes. Destarte, o projeto visa identificar as características que determinam a capacidade do solvente em se promover a descarboxilação do ácido tricloroacético. Com isso, poder-se-á ter uma compreensão mais profunda do processo e ajudar na elaboração de processos sintéticos mais eficientes.


Estudo Teórico-Computacional de Zeólitas com Aplicações em Catálise e Adsorção. (chaersd)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Marco Antonio Chaer do Nascimento
Áreas do conhecimento: Química
Início da vigência: 26-10-2016

Trata-se de um sub-projeto do Núcleo de Excelência em Funcionalização de Hidrocarbonetos, do IQ/UFRJ, que visa: a) o desenvolvimento de metodologias para a produção de compostos químicos, de alto valor comercial, a partir de matéria prima abundante no país, através de reações de funcionalização de hidrocarbonetos usando zeólitas; b) o reaproveitamento do catalisador exausto na produção de materiais de importância tecnológica, tais como materiais retardantes de chama e antimicrobianos, e c) sua utilização como adsorventes. Em termos de aplicações práticas, este sub-projeto pretende ampliar a compreensão dos mecanismos pelos quais as zeólitas atuam como catalisadores e adsorventes em processos industriais de grande importância econômica. A partir dessa compreensão, tornar-se- á possível contribuir para a concepção e para o desenvolvimento de: (a) novos catalisadores para importantes processos industriais, sobretudo nas indústrias de refino do petróleo e petroquímica, capazes de promover reduções de custos e melhor aproveitamento do petróleo e do gás natural; (b) novos adsorventes para separações gasosas de interesse da indústria do petróleo e gás e da indústria de produção de gases especiais; (c) novos adsorventes para armazenamento de hidrogênio e metano; e (d) novos adsorventes para captura do dióxido de carbono emitido por grandes fontes estacionárias (usinas termelétricas, siderurgia, produção de cimento, etc), com efeitos positivos na redução do aquecimento global.


Fast Strong Gravitational Lensing Simulations (lenssims)

Universidade Federal do Rio de Janeiro
Instituto de Física
Coordenador: Miguel Boavista Quartin
Áreas do conhecimento: Astronomia; Física
Início da vigência: 21-06-2017

A luz proveniente de fontes cosmológicas estão sujeitos a diversos efeitos, como redshift gravitacional, espalhamento Compton inverso, efeito Sachs-Wolfe integrado, aberração e efeito Doppler. De especial valor para este projeto é o efeito de lenteamento gravitacional, no qual a distribuição de matéria entre fonte e observador agem como lentes distorcendo o formato das suas imagens e alterando seu brilho total (ora magnificando, ora demagnificando). Desta forma, fontes cosmológicas carregam não somente informações da distribuição de matéria no plano onde a fonte se encontra, mas também entre si e o observador. É portanto natural que diversos levantamentos sejam feitos aproveitando-se destes efeitos para extrair informações sobre o Universo. Isto é o caso em particular do DES (do qual o Brasil é membro) e do LSST (para o qual o Brasil está em vias de se tornar um membro). Para tanto, é necessário estudar como as estatísticas de lenteamento modificam-se na medida que diferentes cosmologias e modelos de gravitação são considerados. Neste projeto propõe-se minuciar justamente estas mudanças criando uma suíte de simulações de lenteamento gravitacional baseadas em: pertubações lagrangianas (para prever a estrutura em larga escala do universo) e modelagem semi-analítica (para reproduzir as estruturas em pequena escala observadas em simulações de N-corpos). Espera-se, assim, estudar com maior precisão o efeito de diferentes parâmetros cosmológicos. Tal análise, embora de grande relevância, nunca foi realizada devido aos altos custos computacionais de tais simulações. Em seu lugar, diversas aproximações simplistas fizeram-se necessárias. Neste projeto vamos abrir mão de tais aproximações com o uso de um código recentemente publicado que permite grande ganho em eficiência computacional para este tipo de análise. Este esforço é importante pois abre as portas para a exploração da cosmologia no regime de lenteamento gravitacional forte, uma técnica muito complementar às demais empregadas nos grandes levantamentos supracitados. O cruzamento de diferentes técnicas observacionais é capaz de aprimorar enormemente os vínculos nos parâmetros cosmológicos devido ao fato de que diferentes técnicas possuem diferentes dependências funcionais nestes parâmetros. De fato, acredita-se que apenas com o uso desta correlação cruzada permitirá elucidar a natureza da Energia Escura, a misteriosa causa da observada aceleração da expansão do universo.


Filogenomica e biogeografia comparada de três famílias de aves Neotropicais (EBBA)

Instituto Nacional de Pesquisas da Amazônia
Coordenação de Biodiversidade
Coordenador: Camila Cherem Ribas
Áreas do conhecimento: Biodiversidade; Ciências biológicas
Início da vigência: 30-05-2017

Este trabalho está vinculado ao projeto “Assembly and evolution of the Amazonian biota and its environment: na integrated approach”, uma colaboração do National Science Foundation (NSF) e da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Essa colaboração tem por objetivo propor uma nova síntese sobre a história evolutiva da biodiversidade Amazônica ao estudar 4 grupos taxonômicos (borboletas, plantas, aves e primatas), abordando aspectos da distribuição dos táxons reconhecidos atualmente, construção de filogenias moleculares com dados de NGS, reconhecimento de novas linhagens e a relação entre a origem dessas linhagens e os eventos associados a formação da bacia Amazônica. Este trabalho será o primeiro a prover uma filogenia completa das famílias Trogonidae, Galbulidae e Bucconidae, utilizando dados de NGS. A amostragem do estudo irá utilizar todos os táxons descritos (subespécies) e para a região Amazônica será utilizada uma amostragem mais densa, de modo a abranger todas as áreas de endemismo, o que irá possibilitar uma comparação multi táxon ainda não realizada para a região. Os Ultra-conserved Elements (UCE) são regiões do genoma altamente conservadas e compartilhadas por vários táxons. Apesar de serem regiões altamente conservadas, as regiões flanqueadores desses genes possuem mutações suficientes para determinar a relação de parentesco entre indivíduos, mesmo os mais distantes. A eficiência na utilização dos UCEs já foi demonstrada para recuperar tanto relações mais antigas, quanto as mais recentes (McCormack et al., 2012; Faircloth et al., 2013; McCormack et al., 2013; Smith et al., 2013, Manthey et al., 2016). Assim, com o auxílio de técnicas de NGS, é possível obter centenas de loci por corrida, o que facilita a análise de diversos grupos simultaneamente. Isso deve resolver o impasse sobre as relações filogenéticas entre as espécies de cada família e proporcionará a comparação das filogenias de vários táxons distintos, o que trará maior confiança nas hipóteses biogeográficas (Lexer et al., 2013) e nas relações filogenéticas. Além disso, a utilização de tantos loci e a amostragem mais densa irá permitir testar a estruturação intraespecífica e verificar se a atual taxonomia reflete a real diversidade das linhagens. Além da importância sistemática e taxonômica deste trabalho, a ampla amostragem nas reconstruções filogenéticas fará com que as análises biogeográficas tenham uma melhor resolução. A amostragem mais densa na região Amazônica irá possibilitar a comparação multi táxon sobre os possíveis eventos que deram origem a alta biodiversidade Amazônica. O estudo do gênero Psophia (Aves: Psophiidae) (Ribas et al., 2012) já revelou a importância da reconfiguração da bacia Amazônica na diversificação das espécies deste gênero, ao propor que a origem das espécies pode estar correlacionada à origem e reconfiguração dos principais rios presentes na bacia Amazônica. O mesmo resultado foi encontrado para o gênero Malacoptila (Aves: Bucconidae) (Ferreira et al.,2016), no entanto, algumas espécies do gênero Malacoptila apresentam mais de uma linhagem por área de endemismo, em alguns casos, essas linhagens nem são grupos próximos, o que demonstra que a diversificação não está correlacionada a apenas um evento.


Funcionalização de nanoestruturas bidimensionais para a quebra da molécula de água e aplicações na eletrônica (funabi)

Universidade Federal de Santa Maria
Departamento de Física
Coordenador: Caroline Jaskulski Rupp
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Engenharias; Física; Matemática; Química
Início da vigência: 08-05-2017

O crescente aumento da população humana, juntamente com as melhorias das condições de vida da população, resulta em um rápido aumento da demanda global de energia. Atualmente, a maior fonte de energia para suprir essa demanda vem do uso de combustíveis fósseis. Os efeitos adversos de tais combustíveis não renováveis, como a poluição e o aquecimento global estão se tornando uma das principais preocupações em todo o mundo. Nos últimos anos, têm se buscado uma alternativa para a obtenção de energia de uma maneira limpa, sustentável e de baixo custo. Um candidado promissor para isso é o hidrogênio. O hidrogênio é uma eficiente fonte renovável de energia e pode tornar- se benéfico do ponto de vista da economia global. É o elemento mais simples e abundante do universo e pode ser facilmente usado nas células combustíveis para geração de eletricidade sem emissão de CO2. Então, torna-se necessário produzir hidrogênio e a utilização de energia solar é uma das alternativas. Um modelo para a utilização da energia solar é o processo de fotocatálise. A proposta desse projeto consiste em simular nanoestruturas funcionalizadas com diferentes átomos e moléculas para aperfeiçoar e modular as suas propriedades estruturais, eletrônicas, óticas e de fotocatálise. Para isso, utilizaremos nanoestruturas unidimensionais e bidimensionais (nanofitas e nanofolhas) formadas por B, Si, Ge, P e Sn. A funcionalização destas nanoestruturas será realizada utilizando, principalmente, átomos pertencentes aos metais alcalinos e metais alcalinos terrosos com foco nas propriedades estruturais, eletrônicas, óticas e de fotocatálise. Posteriormente, funcionalizaremos essas nanoestruturas com moléculas de H2 e de O2 com foco nas propriedades de armazenagem de hidrogênio. O estudo será desenvolvido dentro do escopo da Teoria do Funcional da Densidade e pseudopotenciais ab-initio. Espera-se que os resultados oriundos dessa pesquisa possam guiar o processo de produção de sistemas com a propriedade de interesse, seja ela, estrutural, eletrônica, ótica e de fotocatálise. Os impactos científicos esperados são que estes “novos” materiais bidimensionais sejam utilizados como fotocatalisadores para quebrar a molécula de água e produzir as moléculas de H2 e de O2, onde a molécula de H2 é um combustível que pode ser utilizado, diminuindo os riscos ambientais que os outros combustíveis possuem. O silicano e o germanano mostraram-se favoráveis para esse tipo de aplicação e os resultados foram publicados em revistas de grande impacto internacional.


Gerência de Recursos em Sistemas Computacionais de Larga Escala e Aplicações Paralelas (ilscc)

Universidade Federal Fluminense
Instituto de Computação
Coordenador: Lúcia Maria de Assumpção Drummond
Áreas do conhecimento: Ciência da computação; Ciências sociais
Início da vigência: 28-06-2016

Problemas de optimização combinatória e em grafos configuram-se como objetos de pesquisa relevantes tanto pela sua complexidade teórica quanto pelas aplicações que eles podem modelar. Do ponto de vista teórico e das estratégias de solução, os problemas investigados neste projeto pertencem à classe dos problemas NP-difíceis e ainda carecem de métodos exatos e/ou heurísticos de resolução. Além disso, nestes problemas, o tamanho das instâncias correspondentes a aplicações práticas é grande para a atual capacidade computacional de resolução utilizando os métodos disponíveis na literatura. Como característica comum, todos os problemas contemplados neste projeto podem ser resolvidos de maneira eficiente por meio de metaheurísticas e, portanto, este projeto contribui na investigação de novos métodos de resolução, em particular aqueles que se beneficiam do processamento de alto desempenho e computação distribuída. No contexto do projeto geral “Gerência de Recursos em Sistemas Computacionais de Larga Escala e Aplicações Paralelas”, esta proposta trata da paralelização de uma aplicação de análise de redes sociais cujo objetivo é a solução de problemas de agrupamento definidos sobre grafos de sinais para a medição do nível de equilíbrio em redes sociais. Para que este problema seja resolvido satisfatoriamente sobre instancias reais do problema, é necessário o uso de computação de alto desempenho. Do ponto de vista da aplicação, ou seja, do estudo das redes sociais, nossa experiência recente nos diz que existe pouca atuação dos pesquisadores em Pesquisa Operacional, Otimização Combinatória e Otimização em grafos, nos temas relacionados com a análise de redes sociais. Da mesma forma, existe pouca interação entre os pesquisadores destas áreas. Analisando os trabalhos que utilizam a solução do problema CC na avaliação do equilíbrio estrutural (vide revisão bibliográfica em [9]), fica claro o total desconhecimento por parte desses autores dos métodos exatos e/ou heurísticos que poderiam ser usados para uma resolução mais eficiente do problema. Um dos estudantes envolvidos no projeto, Mario Levorato, defendeu sua dissertação de mestrado no tema. Este projeto contribui para o fortalecimento deste tema de pesquisa interdisciplinar. Desta forma, além dos artigos publicados e resultados numéricos que serão obtidos, citamos como contribuições importantes deste projeto de pesquisa: 1. Aprofundamento do conhecimento teórico e computacional dos membros da equipe nas áreas de otimização combinatória, algoritmos distribuídos, teoria dos grafos, fusão da informação e aplicações em redes sociais. 2. Aumento da interdisciplinaridade da equipe com o estabelecimento do contato com pesquisadores e centros de pesquisa em ciências sociais, políticas e em psicologia que tenham interesse e experiência em estudos em redes sociais. 3. Ampliação da interação entre os pesquisadores brasileiros e estrangeiros da equipe, ao longo do desenvolvimento do projeto, tanto no tema do projeto quanto em outros temas e problemas de interesse comum. 4. Aumento da visibilidade do tema de pesquisa a nível nacional e internacional a partir da criação de banco de dados com novas instâncias de grande porte (redes sociais definidas sobre dados reais, como redes de votação), softwares e análises realizadas com os algoritmos desenvolvidos neste projeto.


HPC4-Geophysics (hpc4ewp6)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Civil
Coordenador: Alvaro Luiz Gayoso de Azeredo Coutinho 2
Áreas do conhecimento: Ciência da computação; Engenharias; Geociências; Matemática
Início da vigência: 23-09-2016

This proposal is meant to support the project HPC4E (Supercomputing for Energy, http://www.hpc4e.eu) from the European Union's Horizon 2020 Programme (2014-2020) and from Brazilian Ministry of Science, Technology and Innovation through Rede Nacional de Pesquisa (RNP), grant agreement n° 689772. HPC4E aims at finding solutions to future energy problems by means of simulations, using the fastest HPC infrastructures and software solutions available. In this proposal we want to provide the means to 1) improve seismic imaging algorithms used to obtain accurate maps of the subsurface from field data and to 2) model possible geological configurations, particularly to understand the role of turbidite currents in the formation of oil reservoirs in a massive and accurate way, which will help interpreting the aforementioned subsurface images. Turbidity currents, a special type of gravity current, are responsible for the formation of the majority of Brazilian offshore reservoirs. Both objectives are coincident with those present in the HPC4E project. The first objective aims at improving the performance of kernels, which take more than 95% of the computational effort in the imaging workflow and thus are the speed and energy bottleneck of the whole process. The second objective requires massively parallel computational fluid dynamics applications together with uncertainty estimation. Both objectives rely on computationally expensive simulation runs, but also on aggregating results and distributing tasks in an efficient manner which, as we require tens of thousands to millions of runs, might take a larger overhead in the overall compute time. Thus we will use workflow + simulator bundles for both problems, in order to be as close as possible to real future applications. Last but not least, we wish to remark that this proposal will be lead by both the European and Brazilian coordinating institutions (BSC-CNS and COPPE) of HPC4E in an international effort towards the exascale in exploration geophysics. By means of SDumont resources we aim at using BSIT (see below for a description) as an evaluator of the challenges and opportunities posed by the latest Xeon Phi HPC and GPGPUs hardware for real-life geophysical imaging scenarios. Furthermore, we will draw comparisons in terms of total time and energy between various general purpose architectures and report conclusions useful for all the geophysical imaging community, including industry and academia. Regarding sedimentological modelling, we wish to test scalability of libMesh-sedimentation: an adaptive-grid 3D finite element solver for incompressible flow+transport. The solver will be applied then to polydisperse mixtures in turbulent flows to analyze parameter sensitivity and hence reach unprecedented quantitative knowledge of the most likely geological composition of reservoirs. As a sister project to the two-year project HPC4E, we believe that the need to extend this proposal to two years is sensible. The project has several HPC-related goals which will benefit from SDumont resources, although spread in a two-year scenario. Furthermore, this is a collaborative project where coordination activities must be pursued, hence shifting from a concentrated one-year project, we prefer a moderately intensive project running for a longer period of time. A matching Project has been submitted to PRACE ( http://www.prace-ri.eu/), the European HPC Ecosystem.


Inferência Bayesiana e a Evolução da Galáxias em Diferentes Ambientes (galphat)

Instituto Nacional de Pesquisas Espaciais
Laboratório Associado de Computação e Matemática Aplicada
Coordenador: Reinaldo Roberto Rosa
Áreas do conhecimento: Astronomia; Ciência da computação
Início da vigência: 30-06-2017

Nas últimas décadas, especial atenção tem sido dada à modelagem de sistemas galáticos, uma vez que a caracterização de suas componentes como bojo, disco, fontes pontuais centrais, e outras de menor contribuiçãoem massa, mostrou ser um importante diagnóstico de processos físicos que determinam a evolução desses sistemas, e em particular sua dependência com o ambiente onde a galáxia reside. Os vários mecanismos que podem transformar o tipo morfológico de uma galáxia, podem influenciar de maneira significativa sua história de formação estelar e consequentemente a contribuição relativa de componentes como bojo e disco, principalmente. Numa primeira fase deste projeto utilizamos recursos do cluster disponível no INPE para implementar um programa de modelagem de imagens de galáxias usando inferência Bayesiana, denominado GALPHAT (GALaxy Photometric ATtributes). Este programa foi desenvolvido pelo grupo de cosmologia da Universidade de Massachusetts liderado pelo Dr. Martin Weinberg.GALPHAT processa uma imagem de galáxia em 1.5 horas para um modelo simples de Sérsic e cerca de 6 horas para um modelo de Sérsic mais uma exponencial (componente disco). Assim, para processarmos 40.000 galáxias em 4 bandas fotométricas (160.000 imagens), que é o objetivo desta proposta, necessitaríamos de alguns anos de processamento. Estas estimativas evidenciam a necessidade de um sistema com a tecnologia Mic60 como o Super Computador Santos Dumont que nos permita processar grandes quantidades de imagens numa escala de tempo de algumas semanas no máximo. Ainda nesta primeira etapa, além de implementar o programa GALPHAT, desenvolvemos um ambiente de processamento que acessa, processa e analisa um grande número de imagens de forma automática, disponibilizando os dados em uma estrutura de banco de dados que pode ser consultado de maneira simples. Este ambiente de processamento foi desenvolvido em Python e foi submetido a publicação ao Astronomical Journal. Então, nosso uso do Super Computador Santos Dumont envolveria apenas um benchmark, um único processamento completo de todas as imagens mencionadas, e assim, saberíamos quanto tempo este processamento demora em um Super Computador com as especificações técnicas do Santos Dumont. Importante lembrar que a inferência Bayesiana, por permitir a análise de toda a distribuição de probabilidade do modelo, ao invés de somente um valor de máxima probabilidade resultado da análise frequentista, não foi ainda utilizada neste problema de determinação das componentes que constituem uma galáxia. GALPHATé o único programa do gênero e temos já desenvolvida toda a estrutura básica necessária para processar grande quantidade de imagens. A amostra que pretendemos estudar foi analisada do ponto de vista fotométrico e espectrocópico no projeto SPIDER (Spheroids Panchromatic Investigation in Different Environmental Regions), sendo que a análise fotométrica foi essencialmente frequentista e assumia que as galáxias eram simplesmente descritas por uma só componente, lei de Sérsic. Neste projeto exploraremos a potencialidade da inferência Bayesiana e a possibilidade de estender esta estratégia para um conjunto de várias modelagens onde possamos combinar todas as componentes observadas em galáxias elípticas, como bojo, disco e fonte pontual.


Large Eddy Simulations of Supersonic Jet Flow Configurations (lessjf)

Instituto de Aeronáutica e Espaço
Divisão de Aerodinâmica
Coordenador: João Luiz Filgueiras de Azevedo
Áreas do conhecimento: Engenharias
Início da vigência: 27-09-2016

New acoustics design constraints have encouraged the recent studies of aeroacoustics fields around compressible jet flows. The Large eddy simulations have been used with success by the scientific community to study the dynamics of such flow configuration. The LES results are used as input for the Ffowcs Williams and Hawkings (FWH) analogy in order to study the aeroacoustic of the jet in a region far from the source. Instituto de Aeronautica e Espaco (IAE) is interested in this approach for rocket design applications. Therefore, the current work addresses the large eddy simulation of unsteady turbulent compressible jet flows in order to generate data for aeroacoustic studies using FWH analogy. A novel tool is developed in order to reproduce high fidelity results of compressible jet flows. Large eddy simulations demands very refined meshes. Hence, high performance computing (HPC) is a requirement for such simulations. Therefore, the numerical solver is written in a HPC fashion. The communication between processors are performed by message passing interface protocols. The large eddy simulation formulation is written using the finite difference approach. Inviscid numerical fluxes are calculated using a second-order accurate centered scheme with the explicit addition of artificial dissipation. The viscous fluxes are calculated using a second-order centered scheme. A five steps second-order accurate Runge-Kutta is the chosen time marching method. The energy equation is carefully discretized in order to model the energy equation of the filtered Navier Stokes formulation. The static Smagorinsky, the dynamic Smagorinsky and the Vreman subgrid closures are available in the present tool.


Large-scale 3D Ginzburg-Landau simulations for superconductivity (GL3D)

Universidade Federal de Pernambuco
Centro de Informática (CIn)
Coordenador: Teresa Bernarda Ludermir
Áreas do conhecimento: Ciência da computação; Física
Início da vigência: 24-05-2017

Over the last few decades, the discovery of high-temperature superconducting (HTS) materials has generated much interest and research into practical applications. Due to their zero-resistance state, HTS materials have become the predominant cost-efficient alternatives to conventional conductors as they reduce heat and energy dissipation caused in the latter by a finite resistance. Most success has been reached with the development of HTS small-scale devices, such as superconducting interference devices (SQUID) and rapid single flux quantum (RSFQ) logic units, constructed via Josephson junctions and used for a wide range of applications including high-sensitivity detectors of electromagnetic radiation, high speed digital circuit elements, magnetometers, and quantum computing circuits. Perhaps of more interest has been the development of HTS materials in large-scale applications – magnets, power transmission cables, current leads, fault current limiters, transformers, generators, motors, and energy storage - where superconductors can simply replace conventional conductors, i.e. a copper winding in an electromagnet is replaced by a BSCCO tape winding, for improved efficiency. In most of these applications, however, superconductors must be capable of carrying large critical transport currents (order of 10⁴ A/cm²) under high magnetic fields (between 5 and 30 T), compared to those permitted in small-scale devices, which poses major challenges from both physics and engineering perspectives. Research in the field has found that the critical current of a superconducting material can be raised through the insertion of strategically placed defects and impurities (precipitates, point defects, grain boundaries, dislocations, stacking faults, strain fields) that serve as flux pinning centers that prevent the motion of vortex cores and hence dissipation. Thus an important goal in materials science of applied superconductor is the design and synthesis of the most effective vortex pinning microstructures that results in the largest critical current. Although a tremendous amount of knowledge and practical experience has been gained in this pursuit, the fundamental solution to the ideal pinning landscape remains an open problem. The technical challenge consists in the accurate statistical summation of individual vortex interactions and pinning forces, which are in general non-additive in the presence of strong magnetic fields and high concentration of defects. This means that the critical currents for such complicated defect structures can only be computed using large-scale numerical modeling. With the rapid progress of high performance computing, a new paradigm called critical-current-by-design can be envisioned in applied superconductivity, with the use of large-scale numerical simulations for the rational design of defect microstructures in order to optimize the current-carrying capacity of superconducting materials for targeted aqpplications. Our project aims to apply this paradigm for a variety of HTS materials by simulating 3D samples with the phenomenological Ginzburg Landau (GL) formalism and combining our numerical results with those obtained from experiments. We expect to determine how different pinning landscapes affect various HTS materials and what criteria should be taken in their design for large-scale applications. Simulations of the 3D time- dependent Ginzburg-Landau (TDGL) equations are renowned for their computational intensity, therefore warranting the use of a state-of-the-art supercomputing facility.


Mathematical modeling of auto-hydrolysis and organosolv applied to the pretreatment of lignocellulosic biomass (lignocel)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Química
Coordenador: Argimiro Resende Secchi
Áreas do conhecimento: Engenharias
Início da vigência: 19-07-2016

Currently Brazil stands out in developing of alternative energy sources, having a large share of renewable energy sources, so much that in 2010 it stood in second place in global biodiesel production, just behind Germany. Ethanol is the most widely used biofuel in the world in the transportation sector and has long been used as an alternative fuel especially after the Second World War, in the 70s, with the oil crisis. Despite the current importance of biofuels, especially the production of ethanol from lignocellulosic biomass, it is an expensive process because sugars necessary for the fermentation are trapped inside the lignocellulose. The presence of lignin in the plant cell wall prevents enzymatic hydrolysis of cellulose and hemicellulose. Hence, a pretreatment step is required for depolymerization of lignin, before conversion of cellulose and hemicellulose into simple sugars (so called enzymatic hydrolysis process). The results obtained at this step affect the yield of sugars, and accordingly the production of ethanol in the fermentation process. Other factors having also influence in the yield of simple sugars are: adsorption of the enzyme on cellulosic substrate, enzyme inhibition by the products (cellobiose and glucose), cellulose crystallinity, molecular weight, so on. An understanding of the mechanism of delignification process at different experimental conditions (solvents, pressure, temperature, and so on), and how the above mentioned factors control the enzymatic hydrolysis, can be carried out by molecular dynamic (MD) and quantum mechanical (QM) study. For example, programs as GAUSSIAN using QST2 & QST3 and IRC methods could be used to find activation energies and structures of transition state in delignification mechanism at different reaction conditions. As a challenge in this project, we aim to design new enzymes for enzymatic hydrolysis process with higher yields of glucose using calculations to determine Quantitative structureactivity relationship (QSAR models) in enzymes-cellulose docking. Reactivity studies of enzymes on celluloses and binding energy can be carried out using the method ONIOM implemented in GAUSSIAN or LAMMPS/QUANTUM ESPRESSO. Interactions between enzyme-cellulose and enzymes by inhibitors generated in pretreatment process could be estimated by means of pull-out techniques using by MD. These examples give an idea of the potential of these tools to study the molecular level phenomena and implement predictive models applicable to the industry with saving resources. They allow exploring in silico examples where the experimental data are lacking, and provide sound structural information for the rational design of bioactive proteins such as enzymes. In shortly, as main purpose of this research, is the implementation of models to predict experimental conditions in the industry for obtaining a pre-treated biomass which leads to a high content of glucose and better enzyme cocktails that are chemically efficient and economically viable for industrial application. In this regard, this project also intends to contribute to the development of cellulosic ethanol industry (which some even have bet that could replace the petrochemical industry) deepening in the molecular structure of the plant cell wall and on the physical chemistry of enzymes that catalyze the hydrolysis reaction of polysaccharides.


Mecanismo de oxidação de carbetos de metais de transição (moc)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Alexandre Braga da Rocha
Áreas do conhecimento: Ciência da computação; Engenharias; Química
Início da vigência: 20-06-2018

Dentre as diversas aplicações de carbetos de metais de transição, destaca-se seu uso como catalisador em diversos tipos de reações, podendo substituir catalisadores mais caros, baseados em metais do grupo da platina. Os mais promissores carbetos são os de molibdênio, tungstênio, nióbio e vanádio. Esses já apresentam aplicações, não somente em catálise heterogênea como também na composição de baterias e capacitores. O controle da oxidação é um problema recorrente na química de carbetos, uma vez que a eficiência e seletividade destes como catalisadores depende do grau de oxidação da superfície. Na síntese desses materiais é importante o controle da quantidade de oxigênio na superfície exposta, onde a reação irá ocorrer. além disso, para trasnporte ou caracterização destes materiais, é costume estabelecer uma camada passivadora de óxido. No entanto, a eficiência desse processo é questionável devido à possibilidade de difusão de oxigênio nesta camada, destruindo ou modificando o material subjacente, que quer se proteger. Mecanismos de oxidação de superfícies envolvem não apenas a etapa de aumento da cobertura e de quebra da ligação O-O como também o estudo da difusão de oxigênio. Dessa foprma, cada uma dessas etapas deve ser investigada para um melhor controle do processo de oxidação desses materiais. Apesar da importância da oxidação na química de carbetos, existem poucos estudos na literatura sobre os mecanismos de oxidação. O estudo teórico das etapas de adsorção e difusão de oxigênio ajudam a elucidar este mecanismo em nível molecular. A análise das etapas do mecanismop de oxidação em nível teórico é complementar aos estudos feitos em laboratório e permite um entendimento do processo de oxidação, em nível molecular, que a maioria dos experimentos não fornece. Os resultados obtidos por cálculos ab initio podem auxiliar os experimentalistas no desenvolvimento de estratégias de controle na síntese e na conservação dos carbetos. Assim, carbetos podem ser projetados com propriedades otimizadas para umas aplicação desejada. Dessa forma, o objetivo do projeto é estudar, utilizando a teoria do funcional da densidade, os processos de adsorção e difusão de oxigênio nos referidos carbetos. O projeto visa a obtenção da energia de ativação para o processo de difusão de oxigênio, o coeficiente de difusão e o grau de cobertura de oxigênio.


Modelagem computacional da atividade eletromecânica cardíaca (cardiofisio)

Universidade Federal de Juiz de Fora
Departamento de Ciência da Computação
Coordenador: Bernardo Martins Rocha
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Engenharias; Matemática
Início da vigência: 09-07-2018

A modelagem do comportamento eletromecânico do coração tem sido foco de um crescente interesse médico-científico devido a sua grande importância para a compreensão de diversos fenômenos associados ao comportamento fisiológico do coração sob circunstâncias normais e patológicas, ao estudo de novos medicamentos. O fenômeno de interesse apresenta uma grande complexidade devido as suas características multi-escala, multi-física e exige a interação de diferentes modelos. Em trabalhos anteriores da equipe do Leboratório de Fisiologia Computacional (FISIOCOMP) da UFJF foi desenvolvido um modelo computacional para descrever a atividade elétrica e mecânica, de forma acoplada, do coração. Além disso, através desse modelo estudaram-se os efeitos da deformação do tecido cardíaco no comportamento da eletrofisiologia cardíaca. O modelo desenvolvido acopla os efeitos da propagação da onda elétrica no tecido cardíaco ao problema mecânico que descreve o movimento e deformação do tecido. Para representar a dinâmica da eletrofisiologia e a geração de força em miócitos cardíacos, equações diferenciais ordinárias são utilizadas e são acopladas a um sistema de equações diferenciais parciais que descreve a atividade elétrica do tecido. A força ativa gerada pelas células cardíacas é utilizada como entrada para o modelo mecânico que descreve a deformação no tecido. Este modelo mecânico trata o tecido cardíaco como um sólido hiperelástico não-linear, ortotrópico e incompressível. Os modelos estão acoplados de tal forma que a deformação obtida pelo problema mecânico afeta o comportamento da eletrofisiologia. Por fim, obtem-se um modelo matemático acoplado, multiescala, cuja discretização foi feita pelo método dos elementos finitos e cuja implementação computacional foi realizada através de métodos numéricos robustos e eficientes em um código in-house denominado Cardiax. No momento esse simulador da atividade eletromecânica cardíaca tem sido utilizado para vários estudos que demandam um alto esforço computacional e utilizam malhas de elementos finitos muito grandes. Exemplos de aplicações em desenvolvimento: estudo da influência vascular cardíaca e sua relação com uma nova técnica de tratamento conhecida como LEAP (Low-energy anti-fibrillation pacing); quantificação de incertezas na mecânica cardíaca (explorando um modelo parametrizado e personalizado a paciente do ventrículo esquerdo); entre outras aplicações que demandam a realização de muitas simulações longas e com grande volume de dados que só podem ser realizadas através do uso de supercomputadores como o SDumont.


Modelagem computacional do oceano Atlântico Sul aplicada a estudos do potencial energético e ruscos associados a atividades antrópicas (mcaser)

Universidade Federal do Rio Grande
Instituto de Matemática, Estatística e Física (IMEF)
Coordenador: Wiliam Correa Marques
Áreas do conhecimento: Ciência da computação; Engenharias; Geociências; Meteorologia
Início da vigência: 22-05-2017

The relation of humanity's dependence on the ocean and other water bodies implies an increasing demand for knowledge of these environments. Just as sustainable energy alternatives can come from the ocean, so does the environmental pressure generated by pollutants such as oil and urban effluents. Environmental studies involving numerical modeling are considered low cost, in addition to allowing the investigation of large spatial and temporal domains. The present proposal has the objective of enabling the development of hydrodynamic studies, wave climate, transport of properties (pollutants or not) and the behavior of oil spots in the ocean and other water bodies of the Brazilian coast. The innovative nature of the proposal will be, firstly, the execution of this type of study for domains covering the entire coast of Brazil simultaneously and/or for long periods. This approach will allow regional analyzes to maintain the level of spatial detail and simulation time required for the investigation of coastal processes. The scientific issues addressed have direct application to government agencies and private investments. Results of hydrodynamic and wave simulations will be analyzed considering the feasibility of the installation of wave and current energy conversion sites on the Brazilian continental shelf. The simulation of dispersion of pollutants is in the interest of both environmental sanitation companies and any industrial activity that emits effluents. Numerical modeling of oil stains is a requirement for the preparation of contingency plans required for the licensing of activities involving oil extraction and transportation in marine and coastal regions. The studies will be developed in the Laboratory of Numerical Analysis and Dynamic Systems, where we work specifically with the free modeling system TELEMAC-MASCARET (www.opentelemac.com). This free system allows the use of computational modules capable of calculating hydrodynamic flows with high precision using the finite element method to solve their equations. In addition, we have developed our own computational modules coupled to the TELEMAC-MASCARET system, when TELEMAC itself is not enough to meet our demands. The relevance of the topics addressed to current scientific issues worldwide and the use of a modeling system that represents the state of the art for the simulations to be carried out ensures that the results can be published in international journals with high impact factor. Partnerships signed by LANSD with other oceanographic research laboratories further ensure that field data required for calibration and validation of simulations will be available. In addition, the team has members trained to process remote sensing data, which will be incorporated into the calibration and validation methods of the simulations.


Modelagem da Circulação no Oceano Atlântico Sul (modoceano)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Oceânica
Coordenador: Afonso de Moraes Paiva
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 28-06-2016

O Projeto MODOCEANO é um projeto institucional do nosso laboratório na UFRJ, que visa o desenvolvimento de modelagem computacional, em alta resolução, da circulação oceânica em diferentes escalas espaciais e temporais no Atlântico Sul. São investigados aspectos relacionados: a) à circulação de larga escala, com ênfase na formação e distribuição de massas d'água sub-superficias que refletem a variabilidade climática (interanual e decenal) nos processos de interação na interface ar-mar; b) à circulação em mesoescala, com foco na Corrente do Brasil, analisando a formação, evolução e estrutura vertical da frente da corrente, sua interação com a batimetria e a a formação de meandros e vórtices na região norte (retroflexão da Corrente Norte do Brasil) e leste-sudeste (vórtices de Vitória, São Tomé e Cabo Frio); c) à formação e propagação de ondas internas em regiões de talude acentuado, com destaque para marés internas geradas na Cadeia Vitória-Trindade; d) à interação entre a circulação oceânica e costeira, com foco nos fluxos de matéria e propriedades entre plataforma e talude continentais. Estes aspectos atendem aos objetivos de diferentes projetos financiados por agências de fomento, em particular o INCT PRO-OCEANO. Este projeto estruturante, financiado pelo CNPq, tem como objetivo geral estabelecer modelos conceituais, a partir de observações e de modelagem numérica, visando a compreensão de processos oceanográficos de interação entre o oceano e a plataforma continental, em diferentes escalas espaciais e temporais, identificando e quantificando os fluxos e as trocas de propriedades entre diferentes compartimentos do sistema, abordando seus efeitos sobre a biodiversidade e a influência das mudanças globais induzidas por fatores naturais e antrópicos e seus impactos para a sociedade. Estes aspectos atendem ainda aos objetivos do projeto REMO, financiado pela ANP/Petrobras, cujo objetivo central é contribuir para o uso sustentável de recursos marinhos, a partir do apoio à pesquisa oceanográfica e do estabelecimento, baseado na modelagem oceânica em alta resolução e com assimilação de dados, de bases hidrodinâmicas (ou reanálises oceânicas) para estudos ambientais e de um sistema previsor de correntes marinhas. A principal ferramenta utilizada neste estudo é o modelo de circulação oceânica HYCOM – Hybrid Coordinate Ocean Model. O desafio que abarca estes diferentes objetivos é estabelecer configurações e desenvolver simulações numéricas da circulação oceânica que incluam os diversos fenômenos oceanográficos importantes em diferentes escalas e em diferentes regiões do Atlântico Sul. Ao mesmo tempo, estas simulações devem apresentar um alto grau de realismo e permitir o teste de hipóteses e o avanço do conhecimento oceanográfico.


Modelagem da turbulência em escoamentos multifásicos de biorreatores com membranas (BRM)

Universidade Federal do Rio Grande do Sul
Departamento de Engenharia Química
Coordenador: Nilo Sérgio Medeiros Cardozo
Áreas do conhecimento: Engenharias
Início da vigência: 26-05-2017

Os biorreatores com membranas (BRMs) possuem vantagens em relação ao tratamento convencional de efluentes, como maior eficiência e uma significativa redução de espaço físico necessário para o processo. O mercado de BRMs está consolidado em inúmeros países e tem apresentado altas taxas de crescimento. No Brasil, o crescimento da demanda por tratamentos adequados para os efluentes gerados na indústria têm incentivado a preferência pelos BRMs. Um problema conhecido e persistente no uso de BRMs é a ocorrência de incrustações nas membranas (fouling), que reduzem a eficiência do processo. O mecanismo de aeração promove a diminuição do fouling através do cisalhamento exercido pelas bolhas de ar sobre as membranas. Apesar da importância da hidrodinâmica multifásica em BRMs ser reconhecida por mais de vinte anos, as indústrias e a comunidade científica ainda não compreendem completamente os efeitos cisalhantes induzidos pelas bolhas de ar nos BRMs. O custo operacional associado à aeração é um problema recorrentemente mencionado; a aeração consome até 70% do total da energia de BRMs e é utilizada de forma otimizada apenas 10% das vezes. Apesar do crescente número de publicações sobre biorreatores com membranas, das quais mais de 25% trata de fouling, somente 4,3% estuda a hidrodinâmica nesses sistemas. Além disso, é crescente o número de publicações sobre BRMs no Brasil, mas não há nenhuma publicação brasileira relacionada à hidrodinâmica nesses sistemas. É evidente a necessidade do desenvolvimento de pesquisa e de tecnologia relacionadas à hidrodinâmica em BRMs no Brasil. Esse tipo de estudo normalmente emprega ferramentas de fluidodinâmica computacional (CFD), que resolvem numericamente problemas de escoamento de fluidos. Um dos primeiros passos para encontrar uma solução apropriada para simulações numéricas é propor uma modelagem correta. Dentre os fenômenos a serem modelados, a turbulência provavelmente é um dos mais importantes; contudo, são escassos ou inexistentes trabalhos que verifiquem a performance e a confiabilidade de modelos de turbulência na hidrodinâmica de BRMs. Além disso, para BRMs de grande porte como os utilizados em indústrias, normalmente são utilizadas funções de parede para a modelagem da camada limite; uma aproximação considerada inadequada quando se deseja obter valores de tensão cisalhante nas membranas, já que o cálculo dessa variável sofreria influência direta das aproximações realizadas através de funções de parede. Dessa forma, o objetivo desse projeto é verificar a importância da escolha do modelo de turbulência para simulações de biorreatores com membranas, com o uso de CFD, através do emprego de diferentes modelos de turbulência (k-ϵ e k-ω SST) e funções de parede (padrão, modificada e automática) e comparar os resultados da região da camada limite com modelos considerados mais adequados para tal (como k-ω SST sem função de parede; modelos do tipo LES, large eddies simulation; e DNS, direct numerical simulation) juntamente com dados experimentais a serem obtidos através da técnica PIV (particle image velocimetry) e dados provenientes da literatura. Espera-se que as conclusões obtidas venham a servir como base para desenvolver uma modelagem adequada desses sistemas, visando a otimização da intensidade de aeração e economia energética.


Modelagem de Materiais Funcionais (mmfufscar)

Universidade Federal de São Carlos
Departamento de Química
Coordenador: André Farias de Moura
Áreas do conhecimento: Ciência dos materiais; Engenharias; Física; Química
Início da vigência: 28-06-2016

A presente proposta se insere em uma tendência já consolidada em grandes centros científicos, de se realizar de forma simultânea e coordenada investigações teóricas, computacionais e experimentais para o desenvolvimento de novos materiais. De um modo geral, tais projetos seguem os moldes propostos há mais de uma década pela Materials Genome Initiative (https://www.mgi.gov/), uma iniciativa fomentada pelo governo norte-americano para o desenvolvimento de novos materiais de forma mais rápida e a um custo menor em relação às pesquisas tradicionais, feitas de forma descoordenada, em grupos individuais. Neste espírito, estamos desenvolvendo pesquisas integradas teórico-experimentais no âmbito do Centro de Desenvolvimento de Materiais Funcionais (CDMF), contando com uma grande equipe de pesquisadores especializados na síntese e caracterização de materiais. Estas investigações experimentais já se encontram consolidadas, representando a contrapartida experimental para a nossa investigação teórica-computacional. De modo geral, os modelos computacionais devem ser introduzidos de duas formas distintas na investigação global: (i) Propriedades observadas experimentalmente e pouco compreendidas requerem o uso de modelos computacionais para se definir as relações entre as características morfológicas do material e as funcionalidades obtidas; (ii) Materiais ainda inéditos serão desenhados in silico/de novo visando se atingir propriedades úteis para aplicações específicas, oferecendo novos desafios para a síntese de materiais funcionais. Em ambos os casos, o que se busca construir é um corpo de conhecimento sobre as relações estrutura-funcionalidade de materiais, permitindo a médio prazo que se desenho racional novos materiais, em função das propriedades desejadas. Mais especificamente, continuaremos trabalhando em duas frentes de investigação, visando desenvolver dispositivos optoeletrônicos com uso potencial na geração/transformação/armazenagem de energia, catálise química e transmissão/armazenagem/processamento de dados: (i) Estudos da auto-organização de nanopartículas coloidais: entre os diversos blocos estruturais dos materiais nanoestruturados estão as nanopartículas de composição, forma e tamanho diversos, tipicamente do tipo condutor (por exemplo, de metais) ou semicondutor (por exemplo, de cerâmicas). Visando a eficiência energética e a sustentabilidade, temos trabalhado com rotas de síntese coloidais, nas quais usamos as forças de superfícies para direcionar tanto a síntese em si das nanopartículas quanto à formação de estruturas complexas auto-organizadas. Experimentalmente, sabe-se que tais estruturas auto-organizadas são hierárquicas, com padrões de ordenamento que vão das escala atômica até a ordem de micrômetros. Atualmente, o poder computacional disponível limita nossas investigações a escalas de tamanho de dezenas de nanômetros e tempos da ordem de microssegundos, o permite obter apenas um quadro limitado dos padrões estruturais e dinâmicos destes sistemas intrinsecamente complexos. O sistema petaflópico do SDumont permitirá se estender as escalas de tamanho e tempo de modelagem, ampliando a generalidade das conclusões para um nível inédito na literatura mundial. (ii) Estrutura eletrônica: a efetiva aplicação destes materiais nanoestruturados depende do conhecimento detalhado da estrutura eletrônica global e local, que por sua vez depende de como as unidades estruturais se auto-organizaram. Assim, esta etapa depende criticamente da anterior, sendo necessário se estabelecer os padrões de auto-organização previamente, para então se abordar a estrutura eletrônica, que é de fato a responsável pelas funcionalidades, mas que é modulada pelos arranjos estruturais assumidos pelas nanopartículas.


Modulação de receptores acoplados à proteína G através de sumulações por dinâmica molecular como ferramenta ao planejamento racional de novos fármacos (gpcrmd)

Universidade Federal do Rio Grande do Sul
Centro de Biotecnologia
Coordenador: Hugo Verli
Áreas do conhecimento: Ciências biológicas
Início da vigência: 27-09-2017

Receptores acoplados à proteína G (GPCRs) distribuem-se por praticamente todos os tecidos dos organismos, atuando como transdutores de sinais e, assim, assumindo papel chave na regulação de processos fisiológicos e patológicos. Não por acaso, assumem um papel essencial no desenvolvimento de novos fármacos. Farmacologicamente, GPCRs assumem conformações ativas através da complexação à moduladores, endógenos ou terapêuticos, que por sua vez interage com o complexo heterotrimérico Gαβγ. Subsequentemente, o complexo se dissocia envolvendo a troca GTP/GDP, e as subunidades Gβγ atuam como sinalizadores para sistemas efetores intracelulares. Embora o volume de informação cristalográfica venha aumentando continuamente para os elementos presentes na sinalização por GPCRs, estes métodos possuem dificuldades em capturar a dinâmica do processo e os diferentes estados transitórios produzidos durante a cascata de sinalização, assim como a formação de complexos multimoleculares. Neste contexto, simulações por dinâmica molecular vêm exercendo papel importante na caracterização de cada estado conformacional, assumindo assim potencial papel no desenvolvimento de novos fármacos. Temos atualmente uma cooperação com a Universidade de Nottingham para o estudo de GPCRs, particularmente receptores β adrenérgicos e Receptores de GRP (GRPR, gastrinreleasing peptide receptors), buscando avaliar o processo de modulação conformacional dos mesmos por fármacos, particularmente a capacidade de diferentes compostos promoverem diferentes estados conformacionais no receptor-alvo e, consequentemente, desencadearem diferentes cascatas de sinalização. Adicionalmente, sabe-se que a glicosilção é capaz de influenciar em algumas propriedades destes receptores, como sua dimerização. Pretendemos, portanto, caracterizar também estes processos. É importante destacar que este tipo de estudo permite acessar propriedades moleculares não descritas em estudos de atracamento molecular, isto é, a capacidade de cada fármaco e ligante em promover sinalizações intracelulares específicas, agonistas (parciais ou totais), antagonistas e agonistas inversas (totais ou parciais). Têm, assim, grande potencial de aumentar a capacidade preditiva das atuais técnicas de planejamento computacional de novos fármacos. Em função do exposto, pretendemos empregar o SDumont para acessar escalas de tempo de dezenas ou centenas de microsegundos para diversos complexos fármaco-receptores, observando assim os diferentes sub-estados conformacionais do receptor β1 adrenérgico. Estes estados conformacionais serão testados simulando-se uma série de mutantes produzidos pela Dra. Jill Baker (School of Life Sciences - University of Nottingham), e novos mutantes poderão ser produzidos in vitro para testar hipóteses formuladas. A dimerização destes receptores será avaliada na presença de glicosilação, e a transmissão das mudanças conformacionais produzidas por fármacos ao complexo heterotrimérico Gαβγ será avaliada empregando-se o método coarse-grained Sirah, desenvolvido pelo Dr. Sergio Pantano, colaborador nesta proposta, com a perspectiva de reverter as trajetórias à forma atomística completa. Além de acessar o processo de modulação de GPCRs e a cascata de sinalização produzida, descrevendo estados conformacionais transitórios conhecidos apenas farmacologicamente, mas não estruturalmente, acreditamos que os resultados a serem obtidos possam explicar diversos comportamentos experimentais desses sistemas, o que por sua vez pode ter impacto direto nas linhas de planejamento de fármacos associadas. Esperamos, por fim, que estes resultados nos permitam extrapolar o projeto no futuro, tanto para outros GPCRs quanto para outros elementos da cascata de sinalização intracelular.


Multilevel Modeling of Magnetic Molecular Systems Employing ab initio and DFT Methods (magmoltvb)

Universidade Federal Fluminense
Instituto de Química
Coordenador: Maria das Graças Fialho Vaz
Áreas do conhecimento: Física; Química
Início da vigência: 26-09-2016

In the past few years some lanthanide and transition metals molecular complexes showed single molecule magnet behaviour, meaning that at cryogenic temperatures these systems are characterized by slow relaxation of magnetization and by the opening of an hysteresis loop. Unlike bulk magnets, whose properties depend on long range correlation, the behaviour of Single Molecule Magnets (SMMs) is related to their molecular structure and one of their main features is to show both classical and quantum properties. Renewed interest in one- dimensional magnetic molecular-based systems arose after the discovery that a cobalt(II) ferrimagnetic chain [Co(hfac)2(NITPhOMe)]n(NITPhOMe=2-(4’-methoxy-phenyl-4,4,5,5- tetramethylimidazoline-1-oxyl-3-oxide) and hfac=hexafluoroacetylacetonate) exhibited slow magnetic relaxation and magnetic hysteresis: it became thus to be known as Single Chain Magnets (SCMs). The Molecular Magnetism Group of the Chemical Institute of the Fluminense Federal University, coordinated by the proposer of this project, synthesized systems containing transition metals, lanthanides and organic radicals with interesting properties. Among them, two chains showing high coercive field at low temperature and record blocking temperatures. The physical properties of these systems are investigated by the group coordinated by Prof. Miguel Novak of the Federal University of Rio de Janeiro. For this purpose, Brazilian Synchrotron Light Laboratories in Campinas are also widely employed. Dr. Federico Totti, at the University of Florence, has a broad experience in ab initio calculation and simulation of molecular magnetic systems adsorbed on surfaces. Matteo Briganti, phd student joint supervised (co-tutela) by Prof. Vaz and Prof. Totti, is developing a computational protocol suitable for isolated and periodic magnetic systems, focusing on the adsorption process on surfaces. Indeed potential applications have been proposed for this class of systems, like the design of devices and the development of molecular spintronics. These systems, combining the advantages of the molecular scale with the properties of bulk magnetic materials, look attractive for high-density information storage and also, due to their long coherence times, for quantum computing. Moreover, their molecular nature leads to appealing quantum effects of static and dynamic magnetic properties. The rich physics behind the magnetic behaviour produces interesting effects which could be used in electronics: for example was realized a spin valve device based on a single molecule. DFT and ab initio calculations already provide support to experimental studies, in the aim of interpreting experimental results and driving them towards a more efficient synthetic tayloring by means of first-principles simulations. However the main bottleneck in moving SMMs and SCMs to end-user applications relays on their safe adsorption and organization on solid-surfaces in order to access individual molecules. Indeed, handling a molecule with a “three-dimensions structure” within a low symmetry environment (surface), affects its structural geometry and drastically its electronic/magnetic properties and can hardly and not unambiguously be rationalized. Summarizing, we can state that the bulk SMMs and SCMs are complex systems whose experimental and theoretical electronic and magnetic behavior still represent a challenge at the computational level to be fully understood and rationalized. The study of their evolution upon grafting on surface must be considered at the cutting edge of computational approaches in nano-science.


Multiscale geophysics: numerical observation of transition from wave propagation to diffusion regime in realistic topographies (msgeo)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Civil
Coordenador: Alvaro Luiz Gayoso de Azeredo Coutinho
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 28-06-2016

There are three characteristic lengths that govern the behavior of wave propagation in fluctuating media: the wavelength, the propagation length, and a typical size of the heterogeneities (the correlation length in the case of random media). Depending on their respective ratios, at least two regimes of propagation can be defined: (i) the homogenized regime, and (ii) the high-frequency regime (weakly or strongly fluctuating). The homogenized, or effective, regime arises when the wavelength is much larger than the size of the heterogeneities and the propagation length is of the order of the wavelength. In that regime, the wave front can be clearly identified. The heterogeneities only appear through homogenized moduli, that can be estimated with the theory of homogenization. Geophysicists hence manage to represent reasonably well very low-frequency waves using spherically-symmetric Earth models with homogeneous layers. However, geological observations as well as recordings in the higher frequency range indicate a strong heterogeneity of the crust. This high-frequency regime arises when the propagation length is large compared to the wavelength, and the multiple diffractions of the waves in the medium create strong interactions between propagation modes. In the limit, the energy patterns of the wave field are governed by a diffusion equation. They become independent of the fine details of the micro-structure, and only statistical characteristics of the medium are then relevant. Many studies, geological as well as geophysical, hint at the importance of that regime for wave propagation in the upper layers of the crust. Waves hence naturally homogenize in several different ways the properties of the media they go through. The precise understanding of these phenomena is fundamental for the identification of the elastic properties of the medium based on observation of the full wave field at the surface, including both direct waves and coda. Geophysicists today mainly concentrate on the first arrivals of waves, which correspond to the homogenized regime. The late coda, that corresponds to the higher frequency regime is mostly disregarded. When it is actually used for identification purposes, it only gives a so-called Q-coefficient, which is never related to wave velocity fluctuations. Going further and using the direct waves and coda in a fully integrating manner for inversion requires understanding better the transition between homogenized wave propagation and diffusion regime. In particular, this transition is well understood mathematically (through asymptotic analysis) in full spaces, but real geophysical media involve complex free surfaces, with topography, oceans and seas. These cases cannot be treated by asymptotic analysis and have to be analyzed through numerical simulations. The objective of this project is to perform a series of very large scale simulations to improve the understanding of the transition between wave propagation and diffusion for realistic geophysical media.


Oxidação de CO por aglomerados metálicos depositados em grafeno (piquiniufsm1)

Universidade Federal de Santa Maria
Departamento de Física
Coordenador: Paulo Cesar Piquini
Áreas do conhecimento: Física; Química
Início da vigência: 28-06-2016

A oxidação a baixa temperatura de monóxido de carbono (CO) desempenha um papel importante para resolver os problemas ambientais causados pela emissão de CO a partir de automóveis, processos industrias, etc. Devido a alta afinidade com a hemoglobina o CO é considerado um gás altamente tóxico para humanos e animais. A oxidação de CO é um exemplo clássico de reação catalítica. Embora alguns metais nobres, tais como Pd, Pt e Rh possam catalisar o CO de maneira eficaz, estes catalisadores requerem alta temperatura de reação para que a operação seja eficiente. Desta forma, os cientistas procuram continuamente por catalisadores adequados para realizar a oxidação a baixa temperatura do CO. O grafeno é um candidato promissor para atuar como suporte de átomos e aglomerados metálicos, os quais são usados como catalisadores. Estudos recentes, demostraram experimentalmente que aglomerados de Pt depositados em folhas de grafeno exibem uma alta atividade catalítica para a oxidação de CO. Foi previsto teoricamente que Au embebido em grafeno apresenta-se como um catalisador bastante eficiente para a oxidação do CO, o que pode ser atribuído ao orbital d parcialmente ocupado localizado nas proximidades do nível de Fermi, que resulta da interação do átomo de Au com o grafeno. Os estudos sobre as interações do grafeno com metais revelaram que, dependendo do espaçamento grafeno/metal e da diferença entre o nível de Fermi do grafeno e o metal, observa-se uma transferência de carga em toda a interface do grafeno/metal. Tal transferência de carga pode ser a razão principal pela qual certas nanopartículas apoiadas a superfície do grafeno melhoram suas atividades catalíticas. Estas investigações fornecem fortes evidências de que o grafeno atuando como suporte de átomos e/ou aglomerados metálicos resulta num catalisador bastante atrativo e que pode exibir comportamentos incomuns comparado com os suportes tradicionais. Neste estudo, nós iremos realizar cálculos de primeiros princípios para explorar a atividade catalítica de aglomerados de metais de transição, tais como, Ti, Au, Pt e Pd, depositados em grafeno para a oxidação de CO, analisando a influência do suporte na eficiência catalítica de aglomerados metálicos. Analisaremos ainda como a presença de defeitos estruturais no grafeno influencia a estabilidade dos aglomerados suportados e como estes defeitos alteram a reação catalítica dos aglomerados metálicos com o CO.


Planejamento Computacional de Novos Materiais Moleculares Baseados em Sistemas com Carbono Tetracoordenado (Quase-) Plano (qptc)

Universidade Federal de Pernambuco
Departamento de Química Fundamental
Coordenador: Ricardo Luiz Longo
Áreas do conhecimento: Química
Início da vigência: 17-10-2016

Fenestranos e alcaplanos são compostos que podem formar materiais moleculares que apresentam carbonos tetracoordenados (quase-)planos (ptC). Uma das consequências da presença de ptC são as pequenas energias de ionização (IE) destes compostos, algumas delas comparáveis aos metais alcalinos e alcalinos terrosos [1]. Essa propriedade pode ser interessante quando aplicadas no desenvolvimento de materiais moleculares para aplicações em óptica não-linear (NLO do inglês nonlinear optics), uma vez que sistemas moleculares baseados na aproximação dipolar partem do princípio que as propriedades NLO significativas são obtidas quando espécies doadoras e aceitadoras de elétrons estão ligadas por grupos conjugados-π formando os chamados sistemas Aceitador-Ponte-Doador (A-P-D). Esses sistemas também representam a quebra de um dos mais antigos paradigmas da química moderna: a proposição de que átomos de carbono em compostos orgânicos têm arranjos tetraédricos [2]. Este paradigma representa, até os nossos dias, um impacto significativo nas ciências químicas, pois é a base para a compreensão e a elucidação da estrutura molecular de um imenso número de substâncias químicas e seus materiais. De fato, a estrutura tetraédrica de átomos de carbono tetracoordenados sistematiza e racionaliza uma imensa quantidade de informações, principalmente isomerias. Contudo, existem na literatura [1] propostas estruturais promissoras para os ptCs. Dentre outros aspectos, os resultados da análise vibracional mostraram que alguns compostos apresentam todas as constantes de força positivas, o que é um indicativo que estes compostos possuem uma estrutura de mínimo na superfície de energia potencial, porém tais cálculos foram realizados com metodologias DFT e MP2 (com diferentes tipos de funções de base). Devido as impossibilidades técnicas causadas pela elevada demanda computacional, resultados mais exatos e precisos não puderam ser empregados naquele momento. No entanto, entendemos que o método PICVib [3], pode ser essa peça-chave para solucionar essa questão. Nessa metodologia, os modos vibracionais podem ser calculados individualmente, reduzindo-se drasticamente a demanda computacional exigida pela análise vibracional tradicional. Métodos coupled-cluster são considerados estados da arte em estrutura eletrônica no tratamento de diversos sistemas. Empregaremos métodos CCSD e, se possível, CCSD(T) na determinação das frequências vibracionais com menores energias de sistemas com ptC descritos na literatura, bem como várias sistemas inéditos. Uma vez confirmada a estabilidade estrutural destes sistemas, eles serão utilizados em supraestruturas ainda maiores do tipo A-P-D com possíveis e potenciais aplicações práticas como materiais para ótica não-linear. A demanda computacional dos cálculos coupled-cluster de compostos com ptC, bem como dos sistemas maiores A-P-D, é tão elevada que somente máquinas como a SDumont sejam capazes de executá-los.

[1] RASMUSSEN, D. R.; RADOM, L. Planar-tetracoordinate carbon in a neutral saturated hydrocar- bon: Theoretical design and characterization. Angewandte Chemie International Edition, v.38, n.19, p.2875–2878, 1999.
[2] HOFFMANN, R.; ALDER, R. W.; WILCOX, C. F. Planar tetracoordinate carbon. Journal of the American Chemical Society, v.92, n.16, p.4992–4993, 1970.
[3] SANTOS, M. V. P. D.; LONGO, R. L.; SILVA, J. B. D.; AGUIAR, E. C. PICVib: An accurate, fast, and simple procedure to investigate selected vibrational modes at high theoretical levels. Journal of Computational Chemistry, v.34, n.8, p.611–621, 2013.


Plataforma Computacional Multiusuária para análises de Bioinformática em Larga Escala, no apoio à Rede Nacional Estruturante de Bioinformática (pcmrnbio)

Laboratório Nacional de Computação Científica
Laboratório de Bioinformática e Unidade de Genômica Computacional
Coordenador: Ana Tereza Ribeiro de Vasconcelos
Áreas do conhecimento: Ciência da computação; Ciências biológicas
Início da vigência: 17-08-2016

O Laboratório de Bioinformática (LABINFO) do LNCC foi fundado em 2000 pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) e consolidou-se como referência na área de bioinformática e biologia computacional no Brasil. Em 2008, o LABINFO ampliou suas atividades com a criação da Unidade de Genômica Computacional Darcy Fontoura de Almeida (UGCDFA) equipada com máquinas de sequenciamento de nova geração, que atende a várias instituições de pesquisa no Brasil e no mundo. Até o momento, a UGCDFA realizou o sequenciamento de mais de 400 genomas (humanos, fungos, parasitos, vírus, bactérias) de interesse na saúde humana, animal e vegetal, bem como vários metagenomas de interesse biotecnológico. O LABINFO/UGCDFA possui as seguintes funções: I) geração, processamento e análise de sequências de nucleotídeos (genomas, metagenomas, transcriptomas, amplicons, exomas e cDNA); II) armazenamento e distribuição para a comunidade científica dos resultados da análise de sequências geradas pela UGCDFA; III) gerenciamento de redes genômicas no Brasil; IV) desenvolvimento de banco de dados biológicos de aplicação em bioinformática; V) desenvolvimento de metodologias matemáticas e computacionais para estudos de genômica comparativa, estrutural e funcional de organismos de interesse biotecnológico, ambiental e agrícola, e de saúde humana; VI) desenvolvimento de softwares de biologia computacional, e.g. o SABIá , o primeiro software para montagem/anotação automática de genomas no Brasil e o Bioinfo-Gateway , um ambiente de plataforma multiusuário para execuções de softwares de bioinformática em ambientes paralelos e distribuídos (CSGrid/SINAPAD) desenvolvido por iniciativa da Rede Nacional Estruturante de Bioinformática (RNBio); VII) capacitação e orientação de dissertações e teses na linha de pesquisa em bioinformática e biologia computacional na Pós-graduação em Modelagem Computacional (LNCC), e colaboradores (UFRJ, Universidade de Lyon1 e Instituto Evandro Chagas); e VIII) formação de recursos humanos especializados em bioinformática e biologia computacional. A RNBio foi criada em 2014 pelo Programa Estruturante do MCTI e instituições com forte tradição em pesquisas de genômica, proteômica e biologia computacional, a saber, o LNCC, o Laboratório Nacional de Biociências (LNBio/CNPEM) e a UFMG. A missão da RNBio é fomentar o desenvolvimento de projetos de pesquisa no formato multicêntrico e a formação de recursos humanos em estudos temáticos envolvendo biologia computacional, e.g. análises de sequenciamento de genomas, transcriptômica, proteômica, biologia de sistemas e interactoma. A RNBio visa também o constante aperfeiçoamento da infraestrutura computacional disponível pelo que atua estreitamente com os Centros Nacionais de Processamento de Alto Desempenho (CENAPAD) estruturados no sistema SINAPAD. Esses centros conseguiram aumentar a capacidade de execução de análises computacionais em muitas instituições no pais. No cerne da RNBio, desenvolveu-se em 2016 o Bioinfo-Gateway que alavancará pesquisas por meio da execução paralela e distribuída dos softwares mais usados pela comunidade de bioinformática, muitos deles considerados altamente dispendiosos em tempo e processamento. Com a interligação entre grupos de pesquisa de diferentes regiões do país em torno de projetos multicêntricos e a troca de experiência entre grupos especialistas nas várias áreas do conhecimento, a RNBio, e suas contribuições em softwares e pesquisas, irá certamente contribuir para o desenvolvimento científico e tecnológico do país.


Predição de estruturas de proteínas (psp)

Laboratório Nacional de Computação Científica
Coordenação de Mecânica Computacional
Coordenador: Fabio Lima Custódio
Áreas do conhecimento: Ciências biológicas
Início da vigência: 26-09-2016

A predição de estruturas de proteínas (PSP) é um dos objetivos mais importantes almejados pela biologia molecular computacional e pela química teórica. Trata-se de uma área de pesquisa de grande destaque atualmente dado o potencial para aplicações em áreas estratégias de grande impacto na biotecnologia e também nas áreas de polímeros e análise de genomas. Como aplicações estratégicas, podemos citar a criação de novas proteínas (e.g., engenharia de novas enzimas) e o desenho racional de fármacos (e.g., tratamento da flexibilidade do receptor). O desafio teórico/metodológico/computacional associado à predição do enovelamento de proteínas é de interesse de diversos grupos científicos no mundo todo. Neste sentido, é realizado bianualmente um encontro de caráter mundial (intitulado CASP - Critical Assessment of Structure Prediction - sua décima primeira edição ocorreu em 2014 no México) para avaliar o estado da arte da capacidade de predição das diferentes metodologias desenvolvidas. É importante ressaltar que nesta competição os grupos/metodologias (e.g., ROSETA, QUARK) mais competitivos fazem uso intensivo de computação de alto desempenho. O grupo de modelagem molecular de sistemas biológicos do LNCC vem desenvolvendo nos últimos dez anos o programa GAPF (Genetic Algorithm for Protein Folding), utilizando metodologias próprias, objetivando a predição de estruturas de proteínas sem a utilização de templates (i.e, predição por primeiros princípios e de novo). O desenvolvimento do programa GAPF não possui paralelo no panorama científico brasileiro e um dos seus objetivos é se tornar uma ferramenta competitiva a nível internacional fornecendo um instrumento importante para as pesquisas brasileiras nas áreas de engenharia de proteínas e biologia molecular e estrutural. São três os objetivos associados a este projeto: (1) Desenvolvimento e teste de novas abordagens metodológicas associadas ao GAPF visando o aumento de sua capacidade preditiva em um contexto de uso de um sistema de supercomputação; (2) Desenvolvimento e disponibilização de um portal web gratuito acoplado ao Santos Dumont para uso do programa GAPF para predição de estruturas de proteínas; (3) Participação no CASP12 (maio a agosto de 2016) utilizando metodologias de PSP template free. É importante ressaltar que sem o uso das capacidades computacionais do Santos Dumont é impossível participar de maneira competitiva no CASP e fornecer os serviços de um portal web viável para a comunidade acadêmica.


Propriedades Mecânicas de Sólidos Quânticos (pmsq)

Universidade Estadual de Campinas
Instituto de Física Gleb Wataghin
Coordenador: Maurice de Koning
Áreas do conhecimento: Física
Início da vigência: 22-12-2016

O projeto visa utilizar simulações massivamente paralelas para estudar o comportamento mecânico de sólidos quânticos como o 4He. Este tipo de sistema tem despertado um grande interesse experimente recente, tendo em vista a possibilidade da existência de uma nova forma da matéria condensada: um sólido com características de superfluidez (escoamento sem resistência). Embora existam muitos dados experimentais, a interpretação dos resultados dos mesmos em termos do comportamento no nível microscópico é difícil. Neste contexto, as simulações atomísticas providenciam uma ferramenta extremamente poderosa que permite o estudo dos mecanismos no nível atômico. As simulações previstas no projeto são baseadas na formulação de Feynman da mecânica quântica, na qual partículas quânticas são representadas por polímeros fechados que interagem entre si. Na prática, as simulações são do tipo Monte Carlo, que visam explorar o espaço configuracional destes polímeros através de uma amostragem aleatórea conhecida como “Path-integral Monte Carlo”. Estamos usando a implementação providenciada pelo código aberto PIMC++, que foi desenvolvido na Universidade de Illinois-Urbana Champaign nos Estados Unidos. Este código é massivamente paralelo no sentido que os elementos dos polímeros são atribuídos a processadores diferentes que comunicam entre si através de MPI. Executando este código em máquinas relativamente pequenas (16 cores), conseguimos obter resultados novos a respeito do comportamento mecânico do 4He, estudando as constantes elásticas (Phys. Rev. B 84, 094119 (2011)) e a resistência mecânica ideal (Phys. Rev. Lett. 112, 155303 (2014)). No entanto, para pode avançar e estudar as propriedades mecânicas em escalas espaciais maiores, estamos precisando de recursos computacionais muito superiores. Se bem-sucedidas, as simulações de larga escala poderão alcançar um patamar novo, permitindo cálculos com milhares de partículas quânticas representadas por polímeros com centenas de elementos.


Recuperação de Petróleo em Campos Maduros (fluid)

Instituto Nacional de Matemática Pura e Aplicada
Laboratório de Dinâmica dos Fluidos
Coordenador: Dan Marchesin
Áreas do conhecimento: Geociências; Matemática
Início da vigência: 22-12-2016

Uma das dificuldades na recuperação do petróleo nos reservatórios é sua viscosidade. Ela pode ser reduzida nos chamados métodos térmicos, em que o petróleo é aquecido no campo; evaporação e recondensação de componentes leves do petróleo também ajudam na recuperação térmica. Estamos estudando o método em que ar é injetado sob pressão no reservatório, reagindo com parte do petróleo, gerando calor e deslocando o petróleo. Na indústria, este método é chamado de HPAI quando aplicado a petróleo leve (High Pressure Air Injection). Aplicado a óleos mais pesados ou viscosos, ocorre a chamada HTO (High Temperature Oxydation). Queremos entender o que acontece no caso de injeção de ar a petróleo intermediário, sobre o qual a literatura é omissa. Descobrimos também a existência de possibilidade de ocorrência de MTO (medium temperatures oxydation), a partir de análise matemática de soluções de modelos de oxidação. Nosso estudo visa verificar se há o potencial para uso destas soluções em nossos campos maduros. Esta linha de pesquisa consiste na utilização de métodos matemáticos para o estudo do tema da Recuperação Terciária de petróleo em campos maduros. Tais campos existem ao largo da costa do Estado do Rio de Janeiro e caracterizam-se por já estarem com sua produção em declínio. Para que se viabilize a continuidade de sua produção, é necessário lançar-se mão de métodos terciários de recuperação de petróleo. As questões relevantes são as de estabilidade da combustão - há ignição ou extinção? Se pode aparecer oxigênio nos poços produtores (afeta a segurança) e finalmente se teremos boa eficiência de deslocamento. Com estas questões resolvidas, outros estudos envolvendo questões importantes, mas menos cruciais devem ser resolvidas, levando em conta melhor as condições de nossos campos maduros. Pretendemos desenvolver a teoria de problemas de Riemann para fluidos trifásicos, restrita a faixas de valores de parâmetros de viscosidade. Propomos considerar viscosidades realistas para água, óleo e gás e resolver o correspondente problema de Riemann. Estamos também estudando também os efeitos das diferenças de densidade entre os fluidos e a gravidade em escoamentos vertical. Pretendemos quantificar o efeito de deslocamentos horizontais e verticais de água, óleo e gás provenientes da injeção de água e/ou gás em reservatórios. Isso poderá permitir melhor calibração do fluido injetado em recuperação secundária de petróleo ou em WAG (water alternating gas) para maximizar a recuperação em campos offshore.


Simulação Computacional Aplicada à Física dos Materiais (SCAFMat)

Universidade Federal de Uberlândia
Instituto de Física
Coordenador: Roberto Hiroki Miwa
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 20-12-2016

Atualmente o desenvolvimento de novos (nano)materiais está atrelada ao conhecimento intimo da matéria, isto é, às suas propriedades físicas e químicas em escala atômica. Nesse contexto, a Simulação Computacional, baseado no formalismo da Mecânica Quântica (MQ), tem um papel de destaque na Física dos Materiais. A aplicação da MQ, utilizando-se de métodos de primeiros princípios, permite no estudo bastante realista da estabilidade energética, das propriedades eletrônicas, estruturais e dinâmicas dos materiais, bem como no desing de novos materiais visando diferentes aplicações tecnológicas (engenharia de materiais), como também no estudo de propriedades fundamentais da matéria (ciência básica). Ações que não são excludentes. Nos últimos anos, os isolantes topológicos têm sido foco de diversos estudos relacionados à robustez dos estados (topológicamente) protegidos, frente a contaminação por elementos (átomos) externos, e a sua interação com superfícies formadas por isolantes triviais ou superfícies metálicas; formado-se assim interfaces topológico/trivial ou topológico/metal. Desde a sua síntese, o grafeno tem sido alvo de intensos estudos, não somente as suas propriedades únicas (o grafeno é palco de diversos estudos relacionados às propriedades fundamentais da matéria), como também visando aplicação na engenharia de materiais, em particular no desenvolvimento de sensores e dispositivos (nano)eletrônicos, como o transistores de efeito de campo. As propriedades eletrônicas e estruturais do grafeno (e outros sistemas 2D) são alteradas, em diferentes escalas, devido efeitos de proximidade ou a formação de ligações químicas, com superfícies sólidas; sejam estas metálicas, semicondutoras ou formadas por isolantes topológicos. Isso abre a um leque imenso de possibilidades de funcionalização do grafeno e de outros sistemas 2D (como os dissulfetos metálicos, e mais recentemente o borofano), mediado por uma engenharia de interfaces compostas por “sistemas-2D/superfícies-sólidas”. Superfícies sólidas (cristalinas), sejam elas metálicas ou semicondutoras (triviais ou topológicas), muitas vezes apresentam arranjos atômicos periódicos devido aos processos de reconstrução de forma a reduzir a energia livre da superfície. Tais reconstruções podem servir como guia para a formação de arranjos moleculares auto-organizados sobre superfícies sólidas. De forma simplificada, a formação desses arranjos são mediados por (a) interações entre moléculas e (b) interações molécula- superfície. Uma adequada sinergia entre (a) e (b) irá reger os processos de auto-organização moleculas. Recentemente, essas estruturas moleculares auto-organizadas tem tido um papel importante, por exemplo, na eletrônica molecular (em particular moléculas orgânicas sobre superfícies semicondutoras) e nos processos de catálise (arranjos moleculares sobre superfícies metálicas). Nesse projetos, pretendemos estudar os seguintes tópicos dentro da Física dos Materias: (i) a interação entre sistemas bidimensionais e superfícies sólidas; (ii) a formação de heteroestruturas compostas por empilhamento de estruturas 2D; (iii) a formação de arranjos moleculares auto-organizados em superfícies sólidas. Em (i), teremos como foco o estudo os efeitos de proximidade na estrutura eletrônica dos isolantes topológicos 2D, grafeno e outros sistemas 2D, quando em contato com diferentes substratos, e.g. metálicos ou semicondutores e cristalinos ou amorfos. Em (ii), consideraremos estruturas de super-redes compostas por diferentes empilhamentos de estruturas 2D, bem como processos de intercalação molecular. Por exemplo, super-redes compostas por isolantes-topológicos/isolantes-triviais. Por último, em (iii) pretendemos estudar as propriedades de acoplamento magnético entre moléculas orgânicas funcionalizadas (por exemplo a Fe- porfirina) auto-organizadas sobre superfícies metálicas ou superfícies de isolantes topológicos. O estudo será baseado em simulações computacionais, utilizando-se de métodos de primeiros princípios na MQ, dentro do formalismo da Teoria do Funcional da Densidade (DFT). Alguns estudos de simulação serão baseados em resultados/colaborações com grupos experimentais, em particular em (iii).


Simulação Computacional de Proteínas (ronaldolab)

Universidade Federal do Triângulo Mineiro
Departamento de Física
Coordenador: Ronaldo Junio de Oliveira
Áreas do conhecimento: Ciências da saúde; Física
Início da vigência: 25-07-2016

As proteínas fazem parte de uma classe de macromoléculas que têm papel fisiológico fundamental em toda atividade celular dos seres vivos e o desenvolvimento de modelos teórico-computacionais tem contribuído com significativos avanços no entendimento do funcionamento dessas moléculas. Assim, são duas as frentes principais de pesquisa relacionadas a utilização de recursos computacionais do Supercomputador Santos Dumont: (1) cálculo do coeficiente de difusão e (2) estudo do sistema secretor tipo IV (T4S) da Xanthomonas citri (X. citri). 1) O processo de enovelamento de proteína é, em geral, mapeado por meio de uma equação de difusão do tipo Fokker-Planck aplicada ao longo da coordenada de reação (Q), que descreve o grau de similaridade de uma determinada configuração com o estado nativo da proteína. Os tempos de enovelamento podem ser calculados a partir de potenciais efetivos e do coeficiente de difusão (D). Será estudado D em função da coordenada (D(Q)) e seus mecanismos para atingir a estrutura nativa. Será empregado o modelo de rede para as simulações computacionais com o intuito de se obter os potenciais efetivos e D. Também, melhorando o nível de resolução do sistema, será utilizado para as simulações o modelo C-alfa e o modelo com todos-os-átomos. O uso desses modelos, apesar de minimalistas e de razoável nível de resolução, nos permitirá estudar o enovelamento de pequenas proteínas globulares no objetivo de melhor compreender seu complexo mecanismo que os levam para sua estrutura nativa e funcional. 2) O cancro cítrico, causado pela bactéria X. citri, afeta todas as espécies e variedades de citros de importância comercial. Com origem na Ásia, onde ocorre de forma endêmica em todos os países produtores, foi constatado pela primeira vez no Brasil em 1957, nos Estados de São Paulo e Paraná, afetando hoje todo o país e causando enormes prejuízos. O sistema de secreção tipo IV (T4S) é utilizado para translocação de substratos que são importantes para infecção. Outros sistemas T4Ss fazem parte da maquinaria de conjugação bacteriana encontrada em patógenos como, Helicobacter pylori, Brucella spp e Agrobacterium tumefaciens, Legionella pneumophila, Rickettsiella grylli e Coxiella burnetii. O T4SS é um complexo supramolecular de proteínas que atravessa o periplasma e as membranas interna e externa da bactéria gram-negativa. É geralmente composto por 12 proteínas (VirB1 a VirB11 e VirD4). O canal de translocação do substrato através do envelope bacteriano é formado pelas proteínas VirB7, VirB9, e VirB10. O objetivo desse projeto é caracterizar as proteínas do sistema T4S da X. citri, bactéria causadora do cancro cítrico, por meio de modelos teóricos híbridos simplificados. Mais especificamente, identificar a influência do peptídeo VirB7 para a estabilização do complexo dimérico VirB9-VirB7 da X. citri com relação a sua homóloga E. coli e, por fim, modelar o complexo tetradecaédrico T4S da X. citri composto pelas proteínas VirB9, VirB7 e VirB10. A aplicação dos modelos teóricos, juntamente com os estudos experimentais de ressonância magnética nuclear (RMN) e biofísica molecular, poderá contribuir para compreensão dos mecanismos de sistemas secretores e, posteriormente, à geração de novos inibidores dessa infecção.


Simulação Computacional de Reações Catalisadas por Metiltransferases (scrcm)

Universidade Federal do Pará
Instituto de Ciências Biológicas
Coordenador: Jerônimo Lameira Silva
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 09-07-2018

Apesar do impressionante avanço de software e hardware, o estudo teórico de sistemas compostos por um elevado número de átomos, como é o caso das enzimas, ainda apresenta dificuldades e limitações computacionais. Recentemente, utilizamos o método de mecânica quântica combinado com mecânica molecular (QM/MM) e o método de Dinâmica Molecular para estudar diferentes sistemas biomoleculares (ver lattes http://lattes.cnpq.br/7711489635465954). Nesta proposta, pretende-se utilizar os Supercomputadores Santos Dumont (SDumont/LNCC) e Lobo Carneiro (LoboC/UFRJ) para as aplicações dos referidos métodos no estudo do mecanismo catalítico das enzimas catecol-metiltransferase (COMT), fosfoetanolamina metiltransferase (PfPMT) e Proteína histona metiltransferase (PKMT). Estes métodos são usados por importantes grupos de pesquisa bem como por empresas para propor bioligantes ou inibidores de alvos terapêuticos. Desta forma, pretende-se produzir informações científicas que podem levar ao entendimento da origem do poder catalítico destas enzimas. As informações fornecidas pelos cálculos teóricos podem ser futuramente utilizadas por experimentais os quais podem sintetizar e avaliar a atividade biológica de novas moléculas. Vale ressaltar que esta proposta visa dar continuidade à projetos em andamento no Laboratório de Planejamento e Desenvolvimento de Fármaco da Universidade Federal do Pará, dos quais pode-se destacar um projeto aprovado na CHAMADA UNIVERSAL-MCTI/CNPQ No 14/2014 na faixa A (441922/2014-7) e bolsa de Produtividade em Pesquisa - PQ 2015 - Nível 2 (Vigência: 01/03/2016 - 28/02/2019). Em termos de infraestrutura, o proponente desenvolve pesquisa no Laboratório de Planejamento e Desenvolvimento de Fármaco da Universidade Federal do Pará o qual possui um cluster para realização das simulações computacionais. No entanto, atualmente, a infraestrutura do grupo é utilizada por 11 (onze) alunos de doutorado, 12 (doze) alunos de mestrado e 6 (seis) alunos de graduação, o que tem demandado maior poder computacional. Desta forma, a utilização dos supercomputadores em questão poderia auxiliar no andamento das atividades já mencionadas.


Simulação computacional em materiais: energia e dispositivos semicondutores (matufabc)

Universidade Federal do ABC
Centro de Ciências Naturais e Humanas
Coordenador: Gustavo Martini Dalpian
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 14-09-2016

O tema central deste projeto é a simulação computacional de materiais em diferentes escalas focando no entendimento em nível atômico de processos complexos. Prioridade é dada a cálculos quânticos utilizando-se da Teoria do Funcional da Densidade como principal ferramenta, além de lançar uso de Dinâmica Molecular Quântica ou outras metodologias quando os problemas assim demandam. Nossos projetos seguem principalmente duas linhas: novos materiais para energia; novos dispositivos semicondutores. Na primeira linha, focamos no estudo de novos materiais termoelétricos e no entendimento de materiais usados para construir células fotoeletroquímicas, que transformam a luz do sol em energia. O segundo tema consiste na busca de um novo tipo de dispositivo chamado memoristor. Trata-se de um novo elemento básico da eletrônica, que se junta ao capacitor, o indutor e o resistor. Em resumo, o memoristor é um resistor que possui diversas resistências diferentes. O grupo atua também em outras frentes de estudo, incluindo semicondutores e nanoestruturas.


Simulação de alta performance de processos deposicionais devido a correntes gravitacionais (DNSDAM)

Pontifícia Universidade Católica do Rio Grande do Sul
Faculdade de Engenharia - FENG
Coordenador: Jorge Hugo Silvestrini
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 18-05-2017

O projeto visa, através de simulações numérica de alta fidelidade, caracterizar geometricamente os depósitos gerados por correntes gravitacionais hipopicnais e hiperpicnais com transporte de sedimentos. A metodologia usada para resolver as equações governantes é a Simulação Numérica Direta (DNS) a qual permite calcular com grande exatidão, todas as escalas do escoamento turbulento e, por tanto, reproduzir de forma acurada, as diferentes instabilidades que ocorrem no processo. Dos resultados obtidos usando DNS, pode-se interpretar a complexa organização espacial e temporal provocada pela frente da corrente caracterizadas por estruturas de lobos e fendas e a influência que estas apresentam na formação de canais sedimentares. Um ponto a destacar é a distribuição espacial tridimensional de camadas de diferentes granulometrias, informação de extrema utilidade para identificar reservatórios O objetivo final é compreender como são formados os depósitos sedimentares e sua evolução temporal e espacial, informações essenciais para a exploração de petróleo e gás.


Simulação de combustão de spray de etanol para aplicação em motores de combustão interna (motoretanol)

Universidade de São Paulo
Escola Politécnica
Coordenador: Günther Carlos Krieger Filho
Áreas do conhecimento: Engenharias
Início da vigência: 17-08-2016

O presente projeto faz parte de uma iniciativa da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) em conjunto com a empresa Peugeot Citröen do Brasil Automóveis Ltda (PCBA), que financiam o Centro de Pesquisa em Engenharia "Prof. Urbano Ernesto Stumpf (http://www.bv.fapesp.br/pt/auxilios/84719/estudo-conceitual-de-um-motor-avancado-a-etanol). Pesquisadores de várias universidades, entre elas a Unicamp, o ITA, a USP e o Instituto Mauá de Tecnologia (IMT) fazem parte do Centro de Pesquisas. O Centro destina-se a estudar o conceito de um motor avançado movido a etanol, que explore as especificidades e características positivas do etanol como combustível. O resultado esperado é uma proposta conceitual para apresentar um motor com um melhor desempenho de etanol e, simultaneamente, uma melhor eficiência. O tema a ser estudado pelo nosso grupo centra-se no estudo da formação fundamental do spray de etanol da mistura (spray) e combustão turbulenta de etanol. A fim de fazer isso, será aplicado estado dos métodos da arte tanto numérica e experimental. No contexto da proposta de "Engineering Research Center", este projeto irá fornecer conhecimentos fundamentais dos processos físicos para apoiar a concepção de novos sistemas de mistura e de combustão turbulenta do etanol em motores de combustão interna. É importante notar que os modelos desenvolvidos usando CFD (Computational Fluid Dynamics) serão validados com dados experimentais obtidos pelo nosso grupo ou com dados obtidos na literatura. Fazendo isso, o design de futuros processos de combustão poderá ser confirmado usando CFD. Um modelo computacional baseado CFD (Computational Fluid Dynamics) será desenvolvido e validado com os dados experimentais obtidos pelo grupo de pesquisa. Este modelo computacional simulará a distribuição de gotas, as velocidades de ambas as fases e a taxa de evaporação do spray de etanol em condições de um motor com injeção direta de combustível (DI, direct injection), além da combustão em regime turbulento do vapor de etanol resultante da evaporação. Apesar da tecnologia tanto dos motores com injeção direta, tanto da simulação da combustão com spray serem conhecidas, existe uma lacuna no conhecimento quando se utiliza combustíveis renováveis, especialmente etanol. E esse é o avanço científico esperado, desenvolver modelos computacionais da formação e desenvolvimento de sprays de etanol e da sua combustão em motores de injeção direta de combustível.


Simulação Monte Carlo para avaliação das blindagens das estações experimentais da nova fonte de luz sincrotron brasileira (sirius)

Centro Nacional de Pesquisa em Energia e Materiais
Grupo de Proteção Radiológica
Coordenador: Roberto Madacki
Áreas do conhecimento: Física
Início da vigência: 21-09-2016

O Brasil terá um novo acelerador de elétrons, o Sírius, o segundo síncrotron de 4a geração a ser construído no mundo, e o de mais alto brilho, que está sendo construído pelo Laboratório Nacional de Luz Síncrotron (LNLS) em Campinas. Assim como o UVX, que foi o primeiro acelerador síncrotron construído pelo LNLS e o primeiro do hemisfério Sul, o Sirius será disponibilizado para toda a comunidade nacional e internacional, para a realização de pesquisas em física, química, medicina, biologia, agricultura, ciências de materiais, farmacologia, geofísica e muitas outras áreas. Um dos maiores diferenciais do Sirius em relação ao estado da arte mundial dos síncrotrons é sua baixíssima emitância (parâmetro que caracteriza quão compacto é o espaço de fase dos elétrons no acelerador, medido em nanômetros-radianos). Tal diferencial tornará o Sirius um líder mundial, com a menor emitância natural dentre os síncrotrons no mundo. Assim, os feixes de radiação eletromagnética produzidos nesse acelerador, iluminarão microscópios (linhas de luz) que farão imagens tridimensionais de materiais, com resoluções espaciais nanométricas, em condições de operação, e com os mais diversos tipos de contraste permitidos pelas interações da radiação eletromagnética com a matéria. Para blindar a radiação sincrotron e o bremsstrahlung presentes nas estações experimentais (cabanas) será necessário utilizar-se de espessuras adequadas de materiais apropriados para esse fim. A análise radiológica da blindagem para o acelerador leva em consideração os seguintes componentes:
• Radiação bremsstrahlung produzida na perda de elétrons (quando interceptam componentes do acelerador ou moléculas de gás residual nas câmaras de vácuo);
• Nêutrons produzidos por bremsstrahlung de alta energia;
• Radiação síncrotron dos dispositivos de inserção e dos dipolos.
As duas primeiras formas de radiação (bremsstrahlung e nêutrons), definem a blindagem no entorno do acelerador. A radiação síncrotron soma-se ao bremsstrahlung e aos nêutrons nas considerações para a definição da blindagem das cabanas das linhas de luz. Neste contexto, a simulação Monte Carlo faz-se necessária para projetar blindagens especiais que mantenham o ambiente externo as cabanas em níveis de dose de radiação dentro da segurança para o público. Utilizaremos para esta análise de doses o software FLUKA, o qual é um pacote de simulação Monte Carlo muito utilizado em Física Nuclear, sendo uma ferramenta essencial nos cálculos de blindagem, cálculos de transporte de partículas e interações com a matéria, física aplicada à Medicina, dosimetria, entre outros.


Simulação Multiescala de Problemas da Engenharia do Petróleo Usando o Método MHM (mhm)

Laboratório Nacional de Computação Científica
Coordenação de Matemática Aplicada e Computacional
Coordenador: Frederic Valentin
Áreas do conhecimento: Ciência da computação; Engenharias; Matemática
Início da vigência: 28-06-2016

Este projeto propõe analisar computacionalmente algoritmos numéricos derivados de uma nova família de métodos de elementos finitos multi-escalas chamada de MHM – Multiscale Hybrid-Mixed. Os métodos MHM são adaptados à resolução de modelos tridimensionais com múltiplas escalas ou com grandes contrastes, caracterizando-se por alta ordem de precisão (baixas taxas de erro) e por incorporar a granularidade e heterogeneidade das novas gerações de arquiteturas massivamente paralelas. Pretende-se aplicar a nova metodologia à simulação de problemas da engenharia de petróleo no âmbito dos projetos HPC4e e HOMAR, com particular interesse em modelos provenientes das áreas de sísmica e de reservatório de petróleo. O objetivo final é inferir/demonstrar a capacidade do algoritmo MHM em resolver modelos com bilhões de graus de liberdade em poucos minutos com imediato impacto na área de engenharia de petróleo. A ultima década foi marcada por um grande desenvolvimento de computadores com arquiteturas massivamente paralelas. As novas arquiteturas baseiam-se na multiplicação do número de processadores (agrupados em cores) com baixa/média velocidade e capacidade de estocagem. Esse novo paradigma implica na revisão do que se espera dos simuladores computacionais. Embora a precisão e robustez dos métodos numéricos continuem sendo atributos fundamentais para a qualidade das simulações computacionais, estes devem ser capazes de naturalmente incorporarem as características intrínsecas das novas gerações de arquiteturas, alem de serem tolerantes a falhas. De fato, falhas durante simulações computacionais de grande vulto são uma certeza neste cenário. Consequentemente, os novos métodos numéricos precisam necessariamente induzir algoritmos assíncronos e que evitem ao máximo comunicações entre processadores. Os métodos numéricos baseados na estratégia de “dividir para conquistar” preenchem tais imperativos arquiteturais, os quais não estão presentes na construção dos métodos numéricos clássicos. De fato, dividir a computação associada a simulações de “altíssimo porte” em um imenso conjunto de problemas independentes de pequeno tamanho apresenta-se como a estratégia desejável. Como resultado, limita-se o impacto das falhas de hardware e tira-se proveito da localidade temporal e espacial das simulações. O método MHM se adequa perfeitamente a esse cenário. Para tanto, dada uma partição (grossa) do domínio, o método MHM relaxa a continuidade da solução que é imposta através de multiplicadores de Lagrange (hibridização). Demonstra-se que a solução exata dos problemas de valores de contorno e/ou de valor inicial incorporam os aspectos multi-escalas e de alto-contraste através de problemas definidos elemento a elemento com condições de contorno dependentes dos multiplicadores de Lagrange. Discretizando-se esse modelo obtêm-se o método MHM, composto de uma formulação global definida no esqueleto da partição, e de uma coleção de problemas locais dirigidos pelos dados do problema e pelos multiplicadores de Lagrange aproximados por polinômios de alta ordem. Ao final, a nova família de métodos MHM possui as seguintes propriedades: (i) Estabilidade e alta ordem de aproximação dirigidos pela aproximação nas faces da partição grossa do domínio; (ii) Inclusão de processos de “upscaling” locais e independente via funções de base, sem a necessidade de “oversampling”; (iii) Produz campos localmente conversativos; (iv) Induz adaptabilidade temporal e espacial via um estimador de erro a posteriori.


Simulações computacionais ab initio em materiais nanoestruturados: propriedades estruturais, eletrônicas e de transporte (nanosimcomp)

Universidade Federal de Goiás
Instituto de Física
Coordenador: Renato Borges Pontes
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 19-09-2016

A nanociência e a nanotecnologia buscam a compreensão e o controle da matéria na escala nanométrica. Dentro da nanociência, a nanoeletrônica visa o desenvolvimento de técnicas experimentais que permitam uma manipulação controlada, bem como o entendimento das propriedades de materiais com potencial para aplicação em dispositivos eletrônicos. O desenvolvimento de poderosas técnicas experimentais, como a microscopia de varredura, tem viabilizado a obtenção destes dispositivos. Essa tecnologia está somente no seu começo, e muitos desafios ainda devem ser vencidos para que ela possa ser utilizada comercialmente. Poderíamos dizer que o seu estágio atual ainda é o da pesquisa básica para que propriedades fundamentais sejam entendidas, tais como: (i) Quais as características dos sistemas com potencial para diferentes dispositivos; (ii) Como esses sistemas interagem com os contatos; e (iii) Quais são as propriedades de transporte eletrônico destes sistemas. Adicionalmente, em escala nanométrica, aparecem fenômenos fundamentalmente novos, como a quantização da condutância. Além disso, as dimensões dos dispositivos são comparáveis ao comprimento de onda de De Broglie. Desta forma, se faz necessário um tratamento completamente quântico das propriedades físicas destes sistemas. Nesse espírito, propomos aqui um projeto de pesquisa básica teórica, focado em simulações ab initio aplicadas à sistemas nanoestruturados. O projeto visa efetuar a caracterização das propriedades mecânicas, eletrônicas e de transporte de nanoestruturas metálicas, entre elas: nanofios metálicos, junções moleculares e junções bimetálicas, o que seria um passo essencial para caracterizar eventuais aplicações tecnológicas. Com respeito as junções moleculares, com o andamento do projeto pretende-se ter um claro entendimento das seguintes perguntas: como os solventes podem alterar as condutâncias medidas? Como a geometria da molécula pode se modificar na presença de solvente? Como se dá a interação entre as moléculas numa junção molecular e o solvente? Como os efeitos de temperatura afetam os resultados? Quais as propriedades de transporte eletrônico dos sistemas considerados? Com respeito aos nanofios metálicos, a primeira parte do projeto visa o entendimento do efeito de outros metais de transição nas propriedades eletrônicas e de transporte em nanofios de Au. A segunda parte tem como objetivo central estudar as nanojunções bimetálicas. Com o desenvolvimento desta etapa teremos efetuado a caracterização das propriedades mecânicas e de transporte (inclusive o efeito dos solventes) das junções bimetálicas.


Simulações computacionais de materiais e sistemas semicondutores: propriedades termodinâmicas, eletrônicas, ópticas e de caráter topológico (GMSN-ITA)

Instituto Tecnológico de Aeronáutica
Departamento de Física, Divisão de Ciências Fundamentais
Coordenador: Lara Kühl Teles
Áreas do conhecimento: Engenharias; Física
Início da vigência: 30-05-2017

Materiais e sistemas semicondutores revolucionaram o mundo pois são a base da indústria eletrônica. No início, os dispositivos eletrônicos eram inicialmente formados apenas um único material como Si. Contudo, atualmente são complexos, formados por diversos materiais e diferentes dimensionalidades, gerando novos efeitos físicos. Além disso, cada material na maioria das aplicações é formado por diversos elementos químicos. Recentemente, uma revolução aconteceu com a síntese de materiais bidimensionais (2D) como o grafeno, abrindo uma gama de perspectivas tanto do ponto de vista de física básica quanto de aplicações. Atualmente, há uma miríade destes materiais, formada por compostos III-V, fosforeno, entre outros. Para aproximar esta biblioteca de aplicações reais e inovações para a indústria eletrônica, são necessários estudos que tratem da combinação destes materiais para controlar e investigar suas novas propriedades. Por outro lado, o entendimento fundamental destes sistemas semicondutores passa pelo desenvolvimento de aproximações em teoria quântica para sistemas de muitos corpos interagentes, tópico ainda em intenso desenvolvimento na comunidade científica. Na prática, estruturas eletrônicas realísticas não podem ser obtidas por modelos mais simples e, portanto, um modelamento numérico avançado se torna necessário. Ao mesmo tempo, a descrição das propriedades destes materiais requer o modelamento multi-escalonado, no qual as teorias correspondentes devem correlacionar a teoria da estrutura eletrônica atomística com conceitos e técnicas da termodinâmica e da mecânica estatística. Logo estes problemas teóricos se traduzem em soluções computacionais extremamente custosas. O Grupo de Materiais Semicondutores e Nanotecnologia (GMSN) do ITA atua neste universo de sistemas semicondutores, através do desenvolvimento de novas metodologias para a simulação mais realística de sistemas semicondutores. Em particular, o GMSN em colaboração com o Prof. Luiz Guimaraes Ferreira desenvolveu um método original, único na comunidade brasileira, para o cálculo de estados excitados em sólidos, o método LDA-1/2 [Phys. Rev. B78, 125116(2008), AIP Advances 1, 032119(2011)], sendo já amplamente utilizado tanto internamente, como pela comunidade internacional com excelentes resultados, contribuindo assim para o desenvolvimento da pesquisa brasileira neste ramo. O GMSN também desenvolveu diversos métodos estatísticos para o estudo de ligas semicondutoras, correlacionando resultados de cálculos ab initio com propriedades termodinâmicas de ligas. Neste projeto empregaremos diversas metodologias desenvolvidas no GMSN e também outros métodos da literatura no estudo dos seguintes sistemas semicondutores complexos: heteroestruturas de van der Waals, interação de sistemas 2D com substratos/moléculas e ligas semicondutoras, os quais todos possuem direta aplicação em novos dispositivos eletrônicos e opto-eletrônicos. Nosso principal objetivo é produzir com estes trabalhos uma caracterização completa destes sistemas do ponto de visto de suas propriedades, além do que, de forma mais avançada, estudar também suas propriedades topológicas. Umas das grandes vantagens da metodologia LDA-1/2, é permitir calcular estados excitados de forma mais rigorosa em sistemas complexos como os pretendidos. Métodos concorrentes como GW e híbridos, computacionalmente mais custosos, também são de domínio do grupo e serão utilizados, quando possível, em comparação com o método LDA-1/2. Vale ainda ressaltar que esta proposta se insere dentro do projeto PVE/CAPES (processo:88881.0683355/2014-01) e que possuímos uma colaboração nacional o grupo experimental da Profa. Cecília Silva, do MackGraphe.


Simulações computacionais do MackGraphe (mackgraphe)

Universidade Presbiteriana Mackenzie
Centro de Pesquisas Avançadas em Grafeno, Nanomateriais e Nanotecnologias
Coordenador: Leandro Seixas Rocha
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 09-12-2016

A linha de pesquisa de modelagem e simulação computacionais de materiais 2D do Centro de Pesquisas Avançadas em Grafeno, Nanomateriais e Nanotecnologias (MackGraphe), da Universidade Presbiteriana Mackenzie (UPM), consiste no estudo de propriedades eletrônicas, mecânicas, magnéticas, e ópticas de grafeno, materiais 2D e suas modificações. Esse projeto visa o desenvolvimento da ciência e tecnologia de materiais 2D para aplicações em fotônica, energia e compósitos, em consonância com o pensamento de engenharia aplicada do MackGraphe e do projeto SPEC (São Paulo Excellence Chair) Grafeno: Fotônica e Opto-eletrônica: colaboração UPM-NUS da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). As simulações computacionais atomísticas devem desenvolver a pesquisa científica de novos materiais 2D, e auxiliar os experimentos realizados no centro de pesquisa MackGraphe. Nesse projeto, devemos estudar modificações de materiais 2D, tais como: defeitos estruturais nativos; impurezas de átomos adsorvidos ou em sítios substitucionais; efeitos de superfície/borda; rotas químicas de oxidações e reduções; interações de materiais 2D com moléculas, substratos, ou outros materiais 2D; aplicações de deformações elásticas ou plásticas; e aplicações de campos elétricos externos. Esses tipos de sistemas apresentam uma complexidade de resolução que exige o uso de computação de alto desempenho (HPC) massivamente paralela. Esse projeto de pesquisa de simulações computacionais tem por objetivo cobrir as áreas de interesse do MackGraphe, calculando propriedades físicas de grafeno e outros materiais 2D. O objetivo final é desenvolver materiais 2D para aplicações como: moduladores de sinais em fibras ópticas, baterias flexíveis, catalisadores para células a combustível, supercapacitores, sensores, células solares, e materiais de alto desempenho mecânico. O MackGraphe vai colaborar com o setor produtivo brasileiro, criando soluções e inovações que possam ajudar no desenvolvimento do país. Simulações computacionais atomísticas podem acelerar esses processos, da ciência básica ao desenvolvimento tecnológico e de produtos. Em especial, esse projeto será dedicado ao estudo de propriedades eletrônicas, ópticas e energéticas de materiais 2D na presença de defeitos e/ou impurezas. Isso pode ser feito para a análise de qualidade do material 2D, ou funcionalização do material para uma aplicação específica. Uma análise detalhada desses materiais 2D com defeitos podem colaborar e até guiar desenvolvimentos tecnológicos.


Simulações Computacionais em Superfícies e Nanoestruturasn (scsn)

Universidade Estadual de Campinas
Instituto de Física Gleb Wataghin
Coordenador: Edison Zacarias da Silva
Áreas do conhecimento: Física; Química
Início da vigência: 27-09-2016

Este projeto de pesquisa utiliza métodos de estrutura eletrônica baseados na teoria do funcional da densidade para estudar propriedades eletrônicas e de transporte, assim como dinâmica molecular ab initio (DM-AI), cálculos estáticos, cálculos de dinâmica molecular tight-binding (TBMD), e dinâmica molecular (DM) com potenciais efetivos para o estudo de diversos problemas em nanociência. O projeto aqui apresentado utiliza principalmente o código VASP para o estudo de estrutura eletrônica de vários materiais com ênfase na formação de estruturas em superfícies e deposição de nanofios em superfícies. Pretendemos estudar o efeito de nanofios metálicos finitos depositados em superfícies de NiAl(110), e também o estudo de sua utilização como catalizadores no estudo da oxidação do CO. Pretendemos também estudar óxidos de tipo AgxMO4 (M= W, Cr, Mo, P) que apresentam um importante efeito de produção de nanofios e clusters de Ag formados pela exposição do material a um feixe de elétrons. Os sistemas associados as superfícies que pretendemos estudar são bem maiores que as que estudamos até o presente e estão além da capacidade computacional instalada que temos, dai a razão do presente projeto.


Simulações e análise de dados do Observatório Pierre Auger (astroparti)

Universidade de São Paulo
Departamento de Ciência Interdisciplinar
Coordenador: Luiz Vitor de Souza Filho
Áreas do conhecimento: Astronomia; Física
Início da vigência: 26-10-2016

O Observatório Pierre Auger é o maior experimento de astrofísica de partículas em operação. O Observatório vem tomando dados nos últimos 10 anos e vem produzindo uma revolução no nosso conhecimento à respeito da produção das partículas mais energéticas do Universo. Desde a sua inauguração, o Observatório já produziu mais de 80 artigos em revista científicas de alto impacto com um total de mais de 7500 citações. A colaboração brasileira que participa e contribui com estas publicações conta com mais de 20 doutores em 12 instituções de pesquisa espalhadas pelo Brasil. Nossa participação é bastante significativa no Observatório. Temos liderado várias forças tarefas na organização internacional do experimento (17 países), produzindo um número significante de doutorados e envolvido a indústria nacional. Neste quisito, várias indústrias nacionais participaram da construção de equipamentos para o Observatório agregando conhecimento e inovação ao parque industrial brasileiro. Recentemente, o acordo internacional de operação do Observatório foi extendido até 2024 e iniciamos uma etapa de melhorias das instalações dos detectores da qual as universidades e industrias nacionais continuarão participando. Os próximos 10 anos de operação do Observatório Pierre Auger não serão menos produtivos do que a última década. A análise de dados do Observatório depende de simulação detalhada de vários fenômenos físicos e dos detectores. A propagação da partícula da fonte até a Terra, a interação da partícula na atmosféra e a interação das partículas com os detectores precisam ser minuciosamente descritas para que os dados medidos possam ser interpretados. Como pode ser comprovado nos CV Lattes dos proponentes, os pesquisadores brasileiros neste projeto tem experiência no desenvolvimento de softwares para resolver esses problemas de física e transformá-los em conhecimento científico de primeira magnitude. A colaboração brasileira no Observatório Pierre Auger não possue recursos computacionais específicos para a realiação de sua pesquisa. Os resultados anteriormente conseguidos foram alcançados em pequenos conjuntos de processadores (< 50) o que demanda vários meses de processamento para resultados muitas vezes estatisticamente insatisfatórios. Por vezes, colaborações com instituções no exterior tem garantido acesso mínimo a recursos computacionais. Desta forma, apresentamos este projeto de uso do supercomputador Santos Dumont (SDumont). Acreditamos que nossa pesquisa se benificiará imensamente do acesso ao SDumont pois permitirá aos pesquisadores e alunos, atingirem um nível de precisão inédito nos seus resultados em curto período de tempo.


Simulações globais tridimensionais do interior de estrelas ao longo do diagrama HR (hrdyn)

Universidade Federal de Minas Gerais
Departamento de Física
Coordenador: Gustavo Andres Guerrero Eraso
Áreas do conhecimento: Astronomia
Início da vigência: 11-10-2016

O campo magnético é ubíquo no Universo; ele tem sido observado em objetos astrofísicos em todas as escalas, desde planetas e estrelas até aglomerados de galaxias. Acredita-se que diferentes con gurações de campo magnético existem em estrelas de todos os tipos espectrais, e que esse campo participa ativamente em todas as fases evolutivas das mesmas. Essa relação começa desde os estágios iniciais de formação estelar, onde o campo magnético é determinante para o colapso das nuvens de gás e poeira. Posteriormente, a interação das estrelas jovens com o seu disco circunstelar, berçário de possíveis sistemas planetários, é mediada através das linhas de campo magnético. Dessa forma, a evolução rotacional das estrelas é determinada pelo seu magnetismo. Finalmente, conhece-se que é através da atividade magnética que as estrelas interagem com os seus sistemas planetários, sendo o Sol, a nossa estrela mais próxima, o melhor exemplo dessa interação. Os mecanismos que geram e sustentam o campo magnético nas estrelas acontecem no seu interior e, de acordo com a teoria de dínamo, dependem dos movimentos de rotação e de convecção turbulenta. Por serem processos sub- fotosféricos, são impossíveis de serem observados diretamente. Assim, previsões teóricas e simulações computacionais se fazem necessárias para o entendimento desses processos. Com o objetivo de estudar os processos que acontecem no interior das estrelas,especi camente os uxos de matéria e a geração de campo magnético, o presente projeto visa realizar simulações computacionais que resolvem as equações da magnetohidrodinâmica. Os modelos computacionais são globais, em três dimensões e consideram todos os processos físicos necessários ( simulações “ab-initio”) adaptados as condições de estrelas em diferentes estágios evolutivos. Com o tempo requerido no presente projeto pretendemos desenvolver simulações dos seguintes objetos: a) O sol. Apesar de termos observado o sol sistematicamente por alguns centos de anos, o mecanismo de dínamo, responsável pela aparição de manchas solares, fulgurações e ejeções de massa coronal, é ainda desconhecido. Grandes avanços na compreensão da dinâmica do campo magnético solar vem se dando nos últimos anos graças à modelagem computacional de alta resolução (e.g., Guerrero et al 2013, 2016). Vale mencionar que além da sua importância cienti ca, o estudo do magnetismo solar é de grande valor para a sociedade devido às consequências da atividade solar para a terra (e.g., mudanças no clima espacial e talvez na temperatura da terra). b) Estrelas Ttauri. Este tipo de estrelas ainda não entraram na sequencia principal, são de grande relevância para entender o processo de evolução estelar e a formação de sistemas planetários. Muitas observações recentes tem sido capazes de determinar várias propriedades deste tipo de estrelas, incluindo a sua rotação e o seu campo magnético super cial. Os resultados indicam que tanto a velocidade de rotação quanto a morfologia do campo magnético variam com a idade da estrela. Pretendemos então estudar os motivos físicos dessas mudanças a partir de simulações de estrelas Ttauri em diferentes estágios evolutivos. Conhecer a evolução do campo magnético durante a vida das estrelas é fundamental nos estudos de habitabilidade em planetas fora do sistema solar.


Simulações hidrodinâmicas tridimensionais da dinâmica do gás no interior de galáxias anãs (HD3DdSph)

Universidade Cruzeiro do Sul
Núcleo de Astrofísica Teórica
Coordenador: Anderson Caproni
Áreas do conhecimento: Astronomia
Início da vigência: 06-06-2017

Galáxias esferoidais anãs estão entre os objetos do nosso universo local menos luminosos e mais maciços (dominados pela matéria escura) conhecidos até o presente momento. Uma das características mais marcantes dessas galáxias é a ausência quase completa de gás neutro em seus interiores. As causas que levaram à remoção do conteúdo gasoso nesses sistemas ao longo de sua evolução ainda são controversas na literatura científica, sendo basicamente divididas em duas grandes categorias: mecanismos internos, associados à atividade estelar nessas galáxias (supernovas, ventos, etc.), e mecanismos de origem externa, relacionados à interação do meio interestelar das galáxias com perturbadores externos a essas (por exemplo, pressão de arrasto produzida pelo meio intergaláctico, marés gravitacionais, etc.). Devido à natureza não linear na interação desses mecanismos físicos com o gás nessas galáxias, bem como a ausência de simetria espacial nessas interações, se faz necessário o uso de simulações hidrodinâmicas em três dimensões para uma descrição mais apropriada do comportamento dinâmico do gás ao longo da história de evolução desses sistemas. Nesse contexto, o objetivo principal do presente projeto é estudar, do ponto de vista hidrodinâmico, como as galáxias esferoidais anãs perderam seus respectivos conteúdos gasosos ao longo de sua história evolutiva, priorizando dois mecanismos físicos: remoção via supernovas do tipo II e Ia, e remoção por pressão de arrasto induzida pelo movimento dessas galáxias através do meio intergaláctico. O fato de analisarmos sistemas com dimensões físicas da ordem de milhares de parsecs com resoluções espaciais de apenas alguns parsecs, impõe um grande desafio numérico que pode ser superado apensas com o uso de supercomputadores como o pleiteado neste projeto.


TopSim: Um framework baseado em plugins para análise numérica em larga escala. (TopSim)

Pontifícia Universidade Católica do Rio de Janeiro
Informática
Coordenador: Waldemar Celes Filho
Áreas do conhecimento: Ciência da computação; Engenharias
Início da vigência: 17-05-2017

O principal objetivo desta pesquisa é o uso de computação híbrida, distribuída e paralela (futuramente também em GPU), aplicada à análise numérica pelo Método dos Elementos Finitos (MEF) para a solução de problemas de otimização topológica. Uma das metas é realizar a maior simulação de otimização topológica já feita até o momento, com 1 bilhão de incógnitas em um sistema linear de equações. O projeto pretende dar continuidade à colaboração com o Prof. Glaucio Paulino da Georgia Tech University, responsável por disponibilizar o supercomputador Blue Waters, onde uma primeira versão do código já foi implementada e testada, com o apoio do CNPq. Ressalta-se que a colaboração com o Prof. Paulino e sua equipe já gerou a publicação de dois trabalhos em periódicos: “Topology optimization using polytopes”, Journal of Computational Physics; e “PolyTop++: An efficient alternative for serial and parallel topology optimization on CPUs & GPUs”, Journal of Structural and Multidisciplinary Optimization. A continuação da pesquisa é fundamental para o desenvolvimento do sistema em supercomputadores, garantindo eficiência com modelos de larga escala. Uma das principais áreas de interesse deste trabalho é a solução de problemas de otimização topológica com malhas da ordem de centenas de milhões de elementos. O método de otimização topológica é usado em problemas que buscam a distribuição ótima da quantidade de material no interior de um domínio submetido a um conjunto de carregamentos e condições de contorno. Este método tem sido aplicado em diferentes áreas, tais como: bioengenharia, na qual pacientes em reconstrução facial podem fazer uma substituição óssea com sua forma e função otimizada; no projeto de asas de avião, com o mínimo de material e o máximo de resistência às condições de uso; e no projeto de peças automotivas e mecânica dos fluidos.


Uso de simulações computacionais de parâmetros espectrais de RMN como suporte a caracterização de vidros metálicos (rmnvm)

Universidade Federal de São Carlos
Centro de Ciências Exatas e de Tecnologia
Coordenador: José Pedro Rino
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 26-06-2017

O objetivo principal da pesquisa é estabelecer e validar um protocolo que permita o emprego consistente de simulações computacionais como um suporte ao estudo das estruturas atômica e eletrônica de vidros metálicos com a espectroscopia por ressonância magnética nuclear de estado sólido (RMN-ES). Existe um grande interesse tecnológico no desenvolvimento destes materiais, para os quais a caracterização estrutural em escala atômica ainda representa um obstáculo para a otimização das técnicas de produção e processamento dos mesmos. Neste âmbito, a espectroscopia por RMN-ES tem se mostrado uma ferramenta bastante promissora. No entanto, devido às interações entre os spins nucleares e os spins dos elétrons de condução, bem como à própria natureza amorfa destas ligas, o uso de simulações computacionais se faz necessário para o estabelecimento de conexões unívocas entre os picos observados nos espectros e a estrutura local subjacente. A validação da abordagem teórica será realizada fazendo uso de dados experimentais disponíveis na literatura.


Vínculos dinâmicos para a evolução primordial do Sistema Solar e de sistemas extrassolares (PLANETARY)

Observatório Nacional
Coordenação de Pesquisas em Astronomia e Astrofísica
Coordenador: Fernando Virgilio Roig
Áreas do conhecimento: Astronomia
Início da vigência: 05-06-2017

A migração planetária,ocorrida nos primórdios da formação dos sistemas planetários, tem recebido uma atenção especial nas últimas décadas, principalmente na explicação das configurações orbitais dos planetas extrassolares e tem sido de fundamental importância para melhor entender a arquitetura do nosso sistema solar. O primeiro modelo de migração radial para o sistema solar está vinculado à interação dos planetas gigantes com um disco de planetesimais remanescente do processo de formação. O intercâmbio de momento angular com o disco fez com que os planetas migrassem até atingir as suas órbitas atuais. Neste processo acontece uma fase de instabilidade, conhecida como “modelo de Nice”, causada por encontros próximos entre os planetas gigantes, levando a que a migração ocorra de forma discreta através de saltos radiais. Paralelamente, modelos de migração em discos de gás adquiriram relevância, visando explicar a arquitetura dos planetas extrassolares. A migração de um planeta num disco de gás é devida à ocorrência de torques entre o planeta e o disco que causam uma perda de momento angular e fazem o planeta migrar em direção à estrela. Ao considerar dois planetas ou mais migrando no mesmo disco, pode ocorrer captura em ressonância de períodos orbitais levando a uma eventual inversão do sentido da migração. Este cenário é conhecido no sistema solar como “modelo do Grand Tack”. O objetivo deste projeto é explorar a formação e evolução de planetas em discos de gás e de planetesimais, no âmbito dos dois modelos mencionados acima, visando responder a questões como: quais seriam as configurações orbitais possíveis dos planetas após a migração, como formar sistemas compactos de planetas terrestres, quais seriam as propriedades dos discos em que ocorre a migração, quais os efeitos da migração em populações de pequenos corpos como asteroides e cometas, como isso influencia à dinâmica de novos sistemas de exoplanetas, etc.