Projetos em andamento

Ordenar por:


Uso de simulações atomísticas no estudo e desenvolvimento de novos materiais e processos (newmatsim)

Universidade Federal do Rio Grande do Sul
Departamento de Engenharia Química
Coordenador: André Rodrigues Muniz
Áreas do conhecimento: Engenharias; Física
Início da vigência: 12-11-2018

O desenvolvimento de novas tecnologias está fortemente ligado à descoberta de novos materiais, que apresentem propriedades físicas diferenciadas e satisfaçam critérios econômicos e ambientais. Uma alternativa à busca de novos materiais, é o desenvolvimento de processos físico-químicos de modificação de materiais já existentes, visando alterar as propriedades do material original, abrindo novas oportunidades de aplicação. Neste contexto, o projeto de pesquisa (dando continuidade a um projeto anterior e ampliando seu espectro) tem como objetivo empregar diversos métodos de simulação computacional em nível atomístico (cálculos DFT, Simulações de Dinâmica Molecular e Monte Carlo) no estudo de novos materiais, visando desenvolver ou aprimorar técnicas de obtenção (seja por síntese ou modificação de materiais existentes), e determinar diversas propriedades físicas (mecânicas, eletrônicas, etc.), que permitirão avaliar possíveis aplicações práticas. Estes métodos de simulação têm se revelado grandes aliados em ciência de materiais, graças aos grandes avanços recentes no desenvolvimento de métodos teórico-computacionais e na capacidade de processamento, se mostrando imprescindíveis ao entendimento da relação entre estrutura e propriedades físicas de materiais, permitindo a obtenção de informações difíceis de serem extraídas usando técnicas laboratoriais convencionais. Mais especificamente, simulações desta natureza serão usadas no estudo de diferentes materiais e processos de interesse prático e tecnológico, como por exemplo em processos de transformação de materiais sob altas temperaturas e/ou pressões, buscando novas aplicações para materiais existentes (como na conversão de polímeros em membranas inorgânicas), e no desenvolvimento de nanoestruturas a base de nanofilamentos de diamante, que por possuírem grande resistência mecânica, leveza e alta porosidade, tem amplo potencial de aplicação, como sensores, dispositivos nanoeletromecânicos, e peneiras moleculares. Os resultados a serem obtidos permitirão uma melhor interpretação de resultados experimentais, auxiliando no aprimoramento de processos existentes para obtenção de produtos com a qualidade desejada de forma controlada, assim como motivar estudos experimentais para síntese de novos materiais.


Acelerando o estudo das interações proteína-proteína através de dinâmica molecular coarse-grained: o sistema VDAC, a sua oligomerização e a morte celular programada (labe)

Universidade Federal de Santa Catarina
Departamento de Bioquímica
Coordenador: Guilherme Razzera Maciel
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 01-10-2018

Os processos de oligomerização de proteínas em membranas são essenciais para diversas funções biológicas. Na mitocôndria encontram-se diversas proteínas de membrana que ao reconhecer parceiros são capazes de formar grandes poros oligoméricos. Os canais aniônicos dependente de voltagem (VDAC) têm desafiado a comunidade científica por décadas, pois formam canais monoméricos ativos em camadas lipídicas, assim como organizam-se em grandes sistemas multiméricos, processo este relacionado com a apoptose. O que induz ou regula essa dinâmica monômero-multímero em nível celular ainda é desconhecido. Sabe-se que o aumento da permeabilidade de membrana externa mitocondrial (MEM) é crucial, permitindo a passagem de fatores indutores da morte celular. A formação de poros a partir de oligômeros de proteínas de membrana, tais como os canais VDAC e os fatores pró-apoptóticos como Bax-Bak, ou Hexocinase, é um dos modelos mais aceitos para o aumento da permeabilidade da MEM. Neste projeto pretendemos avaliar o sistema de oligomerização e os parceiros moleculares de VDAC. Os fenômenos de oligomerização em geral ocorrem em escalas de muitos microsegundos. Um grande desafio para os estudos de dinâmica molecular é simular computacionalmente estes sistemas complexos nesta escala de tempo. Como alternativa, modelos coarse-grained (CG) oferecem capacidade de simulação viável até à escala de milissegundos. Neste projeto utilizaremos o campo de forças CG Martini, co-desenvolvido por nosso colaborador do ITQB em Portugal. Esta colaboração permitirá o uso de características otimizadas do modelo que estão ainda em fase de desenvolvimento (que constituirão a futura versão 3.0). Utilizaremos ainda métodos avançados — nomeadamente simulações metadinâmicas — para assegurar uma completa descrição das interações estudadas. Finalmente, e juntamente com o uso de CG, reconstruiremos atomisticamente os complexos que observamos serem mais relevantes, para obter maiores detalhes estruturais. Esta estratégia empregará o que há de mais recente em metodologias de simulação de grandes complexos.


Análise Computacional de proteínas consideradas alvos moleculares para o tratamento da esquistossomíase e leishmanioses (nddrug)

Universidade Federal de Juiz de Fora
Departamento de Ciência da Computação
Coordenador: Priscila Vanessa Zabala Capriles Goliatt
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Ciências da saúde; Farmácia; Química
Início da vigência: 10-07-2017

Doenças parasitárias são um dos principais problemas de Saúde Pública, porém são consideradas como doenças negligenciadas por serem endêmicas em populações de baixa renda e por apresentarem investimentos reduzidos em produção de medicamentos. Como exemplo, pode-se citar a esquistossomíase (ou esquistossomose) e as leishmanioses. A esquistossomíase é uma doença aguda ou crônica que acomete principalmente o intestino. É causada por vermes do gênero Schistosoma, destacando-se o S. mansoni, e afeta cerca de 239 milhões de pessoas no mundo, com cerca de 6 milhões de pessoas infectadas somente no Brasil. As leishmanioses, causadas por protozoários do gênero Leishmania, possuem manifestações desde lesões cutâneas até injúrias severas das vísceras, podendo levar a óbito. O CDC (do inglês, Centers for Disease Control and Prevention) considera as leishmanioses como a segunda maior causa de morte no mundo por doenças parasitárias, sendo reportados cerca de 2 milhões de novos casos/ano. As drogas usuais possuem baixa eficácia e diversos efeitos colaterais devido esses parasitas apresentarem enzimas com funções semelhantes às encontradas em seres humanos. Adicionalmente, é crescente o número de eventos de resistência a essas drogas. Portanto, a busca por enzimas ditas potencias alvos moleculares é fundamental para o desenvolvimento de drogas mais eficazes e com menos efeitos colaterais, promovendo maior adesão dos pacientes ao tratamento completo dessas doenças. Os altos custos dos estudos experimentais têm elevado o uso de ferramentas de Biologia Computacional para entender a estrutura de alvos moleculares e os mecanismos de interação entre essas proteínas e seus possíveis inibidores. O modo de interação entre essas proteínas em S. mansoni e Leishmania sp. e compostos com potencial inibitório ainda é desconhecido. Em estudos anteriores, realizamos a modelagem tridimensional da NTPDase1 de S. mansoni (SmNTPDase1), enzima considerada alvo molecular para o tratamento da esquistossomíase, e seu homólogo em humanos (HsNTPDase1 ou CD39). Através da análise comparativa entre a SmNTPDase1 e a NTPDase1, por dinâmica molecular (DM) e docking com compostos candidatos a inibidores da SmNTPDase1, verificamos que mudanças conformacionais importantes nessas proteínas levam a diferentes afinidades de interação com os inibidores. Através deste projeto, poderemos elucidar esses modos de interação, de modo a auxiliar na remodelagem desses compostos ou no desenho racional de novos fármacos mais eficazes e com menos efeitos colaterais. Atualmente, alvos em L. braziliensis e L. amazonensis estão sendo mapeados. Alvos como a tripanotiona reductase já foram modelados, estão sendo testados contra compostos candidatos à leishmanicida e deverão seguir para análises por DM. Em computadores com arquitetura multicore, as análises por DM de cada alvo podem custar até um ano de simulação. Para a análise comparativa dessas enzimas e seus homólogos humanos esse custo pode inviabilizar um projeto com financiamento de até 24 meses. Portanto, é necessário o uso de supercomputadores com GPU, sendo o SDumont um componente essencial neste projeto. Acreditamos que este projeto possa impactar na validação de compostos em estudo como antiparasitários, culminando na elaboração de patentes. Acreditamos também, que nossa pesquisa tem impacto científico relevante, cujos resultados podem representar contribuições biotecnológicas diretas em setores produtivos da sociedade.


Análise de mutações correlacionadas por Dinâmica Molecular em fosfatases de baixo peso Molecular (lmwptpdm)

Universidade Federal de Minas Gerais
Instituto de Ciências Biológicas
Coordenador: Lucas Bleicher
Áreas do conhecimento: Ciências biológicas
Início da vigência: 27-07-2016

Um dos eventos celulares de mediação química mais importantes e úbiquos nos organismos vivos é a fosforilação, cuja dinâmica ocorre devido a existência de múltiplas enzimas responsáveis por catalisar a adição (quinases) e remoção (fosfatases) de grupos fosfato em outras moléculas. Em organismos multicelulares, a fosforilação/desfosforilação de Tirosina em proteínas é especialmente importante para diversas vias de sinalização celular. Dentre os diversos ramos da ciência mundial, a Bioinformática é tida como uma área de desenvolvimento recente e de grande interdisciplinariedade, sendo imprecindível ao tratamento adequado das grandes quantias de dados biológicos obtidas pelas técnicas de Biologia Molecular atuais, assim sendo capaz de resolver inúmeros problemas de natureza biológica. Nesse estudo, utilizamos inicialmente técnicas estatísticas para a extração de possíveis correlações e anticorrelações entre amino ácidos de um alinhamento correspondente a uma família ubíqua e ancestral de tirosino-fosfatases: As Fosfatases de Baixo Peso Molecular (do inglês LMW-PTPs). Esta família de proteínas, agrupa enzimas de um padrão único de enovelamento, mas que diferem em um um grupo capaz de desfosforilar tirosina e outro cujas enzimas são responsáveis pela redução de Arsenato em Arsenito. As LMW-PTPs humanas são relacionadas a múltiplas doenças, das quais destacam-se inclusive alguns tipos de câncer. Ainda não se entende completamente quais os mecanismos moleculares que implicam em diferenças na especificidade e na atividade das proteínas desta família. Inicialmente buscamos relacionar funções biológicas a grupos de resíduos correlacionadas através de uma revisão bibliográfica e de análises em estruturas cristalográficas desta família. Estas evidenciaram o papel de vários resíduos de nossa análise, embora as funções biológicas relacionadas a algumas de nossas correlações sejam bastante elusivas. Existe portanto interesse científico na descrição dos mecanismos moleculares de especificidade, nos processos alostéricos dessas enzimas, e no desenvolvimento de possíveis inibidores as mesmas. O estudo aqui proposto destas enzimas, e do papel dos resíduos que encontramos neste trabalho por técnicas de Dinâmica Molecular será então capaz de promover um avanço no entendimento dessa família de proteínas, podendo servir como base a futuros ensaios experimentais, além de ser capaz de divulgar e gerar conhecimento científico em uma área de ponta.


Análise genomica em larga escala para identificação de mutações somáticas e germinativas associadas ao câncer (cpom)

Hospital de Câncer de Barretos
Centro de Pesquisa em Oncologia Molecular
Coordenador: Rui Manuel Vieira Reis
Áreas do conhecimento: Bioinformática; Ciências biológicas; Ciências da saúde
Início da vigência: 12-07-2018

O câncer ocorre através de um processo de múltiplas etapas que envolvem mutações somáticas e hereditárias/germinativas em genes específicos. Dessa forma, são duas as frentes principais de pesquisa relacionadas a utilização de recursos computacionais do Supercomputador Santos Dumont:1) Análises bioinformáticas do genoma para identificação de mutações somáticas (Projeto ICGC). As mutações somáticas incluem alterações específicas do tumor. Iniciativas visando a identificação de mutações somáticas incluem grandes consórcios internacionais tais como o "The Cancer Genome Atlas (TCGA)" e o "International Cancer Genome Consortium (ICGC)". Esse último trata-se de uma expansão do primeiro e, dados da última submissão do ICGC (release 26/fevereiro de 2018) apontam o número total de 28207 amostras de 50 tipos tumorais, contendo em sua totalidade mais de 2 petabytes de dados. O Hospital de Câncer de Barretos é a única instituição da América Latina a fazer parte desse consórcio e contribui, atualmente, com dados genômicos de sequenciamento de nova geração (aproximadamente 30 TB) oriundos de: - 100 pacientes de melanoma (sangue + tumor) - 105 pacientes com câncer de mama (sangue + tumor) - 78 pacientes com carcinoma renal (sangue + tumor) - 101 pacientes com câncer de pulmão (sangue + tumor) A análise para identificação das alterações genômicas (SNVs, CNVs, SVs e indels) desses dados envolve diferentes algoritmos em ambiente R. Também serão aplicados algoritmos específicos para identificação de vírus nos dados tumorais. Amostras de sangue dos mesmos pacientes também permitirá a análise de ancestralidade, visando a identificação de alterações específicas da população brasileira. 2) Análises bioinformáticas do genoma para identificação de mutações germinativas (Projeto PRONON). A identificação de mutações hereditárias do câncer é de grande relevância pois permite um diagnóstico precoce e aconselhamento genético em membros de famílias de risco no contexto do Sistema Único de Saúde (SUS). O presente projeto conta com 350 amostras de sequenciamento de nova geração do DNA (aproximadamente 15 TB) do sangue de pacientes brasileiros, visando a identificação de mutações hereditárias na nossa população. A análise em mais de 1000 amostras em questão é de importância para a compreensão dos mecanismos moleculares do câncer específicos da população brasileira.


Aplicação de novos métodos de aquisição e tratamento de dados em cristalografia de proteínas na linha MX2 (mxlnls)

Centro Nacional de Pesquisa em Energia e Materiais
Linha MX2 - Cristalografia de macromoléculas
Coordenador: Ana Carolina de Mattos Zeri
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Física; Química
Início da vigência: 10-07-2017

A cristalografia de macromoléculas constituí uma das ferramentas mais importantes da biologia estrutural e tem sido responsável por grande parte das estruturas de proteínas resolvidas. Porém, a obtenção da estrutura cristalográfica passa por diversas etapas que limitam uma maior taxa de sucesso. Além das dificuldades observadas na cristalização, um problema intrínseco da cristalografia, o problema das fases, impede a obtenção da estrutura de forma direta. Classicamente, para contornar este problema, diversas técnicas podem ser utilizadas envolvendo átomos pesados ou estruturas homólogas, porém a dificuldade de se obter cristais derivados com átomos pesados e/ou a ausência de proteínas similares com estrutura determinada muitas vezes impede a determinação da estrutura. Métodos ab initio, que derivam as fases diretamente do conjunto de dados nativo, são efetivos para pequenas moléculas, porém, geralmente, a ausência de resolução atômica (1,2 Å ou melhor) e o grande número de átomos, impedem o uso desses métodos para proteínas. Com uma nova abordagem, aplicada no programa ARCIMBOLDO, que utiliza fragmentos de hélices-α, o grupo da Profa. Isabel Usón (Espanha) resolveu estruturas de proteínas com 420 resíduos e 2 Å de resolução. Nos últimos anos, este software tem obtido sucesso no faseamento de 30 casos nos quais outros métodos falharam, ou seja, em casos difíceis e em que os dados não haviam sido coletados pensando-se no posterior faseamento ab initio. Isso revela o seu grande potencial para se tornar um método geral e, portanto, de primeira escolha para o faseamento diretamente na linha de luz, onde forem coletados dados. Assim, o objetivo deste projeto é tornar o faseamento ab initio o primeiro método de escolha através de uma estratégia integrada que consiste em estabelecer um procedimento de coleta de dados otimizado para o ARCIMBOLDO na linha de luz MX2 do Laboratório Nacional de Luz Síncrotron e as futuras linhas de cristalografia de macromoléculas do Sírius, como a MANACÁ. Ainda, em colaboração com o grupo de Profa. Isabel Usón (IBMB-CSIC, Espanha), pretende-se continuar o desenvolvimento do ARCIMBOLDO a fim de estender a sua utilização para em resoluções menores (2-3 Å), utilizando para isso os dados experimentais coletados na MX2 e outros casos-teste.


Arcabouço computacional escalável para modelagem de nicho ecológico: aplicação à avaliação de impactos das mudanças climáticas e alterações antrópicas na biodiversidade (modler)

Instituto de Pesquisas do Jardim Botânico do Rio de Janeiro
Diretoria de Pesquisas
Coordenador: Marinez Ferreira de Siqueira
Áreas do conhecimento: Ciência da computação; Ciências biológicas
Início da vigência: 14-08-2018

Ferramentas de análise e síntese de dados de biodiversidade, a exemplo da modelagem de nicho ecológico e restauração ecológica normalmente empregam diversas aplicações e bibliotecas distintas que precisam ser compostas e encadeadas durante a sua execução, sendo um caso típico para a utilização de sistemas de gerenciamento de workflows científicos. Tais processos são computacionalmentes demandantes, o que torna importante o uso de ferramentas que sejam escaláveis. Para obtenção desta escalabilidade pretende-se aplicar técnicas de computação paralela e de processamento de grandes massas de dados. Um recurso disponível para a resolução deste problema é o ambiente de análise de dados R, que apresenta várias possibilidades de automatização de processos, mas requer conhecimentos avançados de programação e otimização para a obtenção dos resultados desejados neste processo. Um dos principais objetivos deste trabalho é criar um arcabouço de modelagem, que disponibilize os processos e funções R, que permitam a execução das diversas etapas descritas no projeto, superando as barreiras mais comuns de processamento e performance, fornecendo novas abordagens para as etapas de entrada de dados, limpeza, escolha de variáveis preditoras, parametrização de algoritmos e a disponibilização de resultados em várias formatos visando a integração com várias etapas de pós-análise, tais como diferentes processos envolvendo impactos de mudanças climáticas e antrópicas na distribuição de espécies.


Árvores de Decisão Ótimas para o Ajuste de Parâmetros Baseado em Características para Resolvedores de Programação Inteira-Mista (fbpt)

Universidade Federal de Ouro Preto
Departamento de Computação
Coordenador: Haroldo Gambini Santos
Áreas do conhecimento: Ciência da computação; Matemática
Início da vigência: 20-06-2018

Um programa linear inteiro-misto (MIP) é um problema de otimização no qual uma função objetivo linear é minimizada sujeita a restrições lineares sobre variáveis de valores inteiros e reais. Um grande número de problemas relevantes podem ser modelados neste formato, desde o planejamento da produção à predição de estruturas proteicas. Os modernos resolvedores de Programação Inteira-Mista (MIP) são programas complexos, que envolvem procedimentos como planos de corte e heurísticas. Como esses procedimentos envolvem computações adicionais, sua ativação nem sempre melhora o desempenho geral do resolvedor. Assim, resolvedores MIP geralmente possuem mais de 50 parâmetros que podem ser sintonizados para melhorar seu desempenho para a resolução de diferentes problemas. O resolvedor de código aberto CBC - COIN-OR Branch and Cut solver (disponível para uso acadêmico e industrial em https://projects.coin-or.org/Cbc) é um dos mais poderosos resolvedores de código aberto, como indica um recente benchmark: http://plato.asu.edu/ftp/milpc.html. O coordenador deste projeto é membro da liderança técnica da fundação COIN-OR (Computational Infrastructure for Operations research) e desenvolvedor do CBC. O projeto CBC torna as personalizações mais comumente desejadas facilmente possíveis: pré-processamento, geração de cortes, heurísticas e estratégias de branch-and-bound. Além de resolver problemas de programação linear inteira, ele é usado também para resolução de subproblemas de resolvedores mais complexos, como o resolvedor de programação não linear BONMIN (Basic Open-source Nonlinear Mixed Integer Programming). Os principais impactos esperados são: (i) melhoria significativa do desempenho e estabilidade do resolvedor CBC e (ii) obtenção de conhecimento sobre as características que diferenciam os problemas de programação inteira e como elas podem ser usadas para uma sintonização mais inteligente de parâmetros através da construção de árvores de decisão ótimas. Entre os resultados esperados está o melhoramento de formulações e algoritmos para a construção de árvores de decisão ótimas para ajuste de parâmetros baseado em características dos problemas, tema em que o proponente é pioneiro e que explorações mais detalhadas dependem de maior poder computacional. Além disso, acreditamos que esta ferramenta poderá ser usada para resolver outros problemas de classificação, como por exemplo utilizando bases de dados relacionadas à doenças como o câncer.


Ativação e vias de sinalização do receptor mu-opióide (avsmor)

Universidade Regional do Cariri
Departamento de Química Biológica
Coordenador: Diniz Maciel de Sena Junior
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 20-09-2016

Os receptores acoplados à proteína-G (GPCRs) de classe A (semelhante à rodopsina) são o alvo de quase 1/3 dos medicamentos aprovados pela FDA (Food and drug Administration agency). Eles podem ser ativados por ligantes moleculares, que modulam o equilíbrio entre diferentes conformações, promovendo diferentes vias de sinalização que correspondem à perfis farmacológicos diversos. A capacidade de promover uma determinada via em detrimento de outra é conhecida como tendência de ligante (ligand bias). Este fenômeno é evidente no caso do receptor mu-opióide, principal alvo de analgésicos opióides, como a morfina. Suas vias de sinalização são por meio da proteína-G ou da beta-arrestina; a primeira é associada à analgesia, enquanto a última aos efeitos colaterais (constipação, depressão respiratória, dependência, etc). Recentemente foram relatados casos de ligantes capazes de promover a analgesia com uma redução significativa dos efeitos colaterais, um deles inclusive está em fase de testes clínicos. Apesar disso os mecanismos moleculares, que determinan tanto a ativação quanto o ajuste fino de seleção da via de sinalização, ainda não foram desvendados. Com as estruturas cristalográficas do receptor mu-opióide nas formas inativa (pdb: 4DKL) e ativa (5C1M) disponíveis, estudos computacionais podem ser empregados para elucidar os mecanismos envolvidos na ativação com uma maior fidelidade. Trabalhos anteriores utilizando dinâmica molecular investigaram a evolução do sistema formado pelo receptor (na forma inativa) e diferentes ligantes (agonistas e antagonistas) na escala de até 1 microsegundo. Nenhuma transição para o estado ativado foi observada, sugerindo que a amostragem da superfície de energia não foi suficiente. A utilização de um método aprimorado de amostragem (REST2, replica exchange with solute tempering) tornou possível a observação da conformação ativa de um mutante do receptor na forma apo, sugerindo sua utilização para as simulações feitas anteriormente com o método usual. Neste método, o sistema é replicado em vários estados dentro de uma determinada faixa de temperatura, e uma troca dos estados é realizada periodicamente, permitindo que as barreiras de energia sejam ultrapassadas mais facilmente. Na configuração de teste foram utilizadas 64 réplicas, na faixa de 300 a 550K, rodando em 384 núcleos de processamento. A capacidade de processamento oferecida pelo SDumont permitirá o estabelecimento desta linha de pesquisa no Brasil, ajudando a desvendar o mecanismo de ação dos opióides, e contribuindo para o desenvolvimento de fármacos mais eficientes e seguros.


Atomistic Simulations of Material’s interfaces for solar energy devices (asmsol)

Universidade Estadual Paulista Júlio de Mesquita Filho
Instituto de Física Teórica
Coordenador: Alexandre Reilly Rocha
Áreas do conhecimento: Química
Início da vigência: 28-09-2016

This project aims to provide accurate predictions at atomic and molecular level of the interfaces of solar energy devices, which would be used for experimentalist in the seeking of new materials for designing novel solar energy devices. Our research proposal involves state of art simulations, which play a key role in predicting physical and chemical properties at atomistic scale, for studying the charge-transfer (CT) processes occurring at the interfaces of OPCs. Special attention will be given in seeking different blend of donor/acceptor materials based: on graphene nanoribbons and organic semiconductors. In particular, we will tailor the energy levels of GNRs by functionalization and doping, in order to explore its role over the CT states to obtain heterojunctions with improved properties. To this aim, the methodology will be based on the many-body perturbation theory, which have been successfully used in describing excited states of several molecular systems. Thus, within the so-called GW approximation, we will be able to correct the Kohn-Sham (DFT) energy levels at the interfaces of the blend of donor/acceptor. Furthermore, by using these corrected energies and by solving the Bethe-Salpeter equation (BSE), we will be able to simulate accurately the optical properties, energy-loss spectra and the charge-transfer process at the interfaces of OPCs as well as their implications for designing more efficient devices. We also want to understand the electrodes, which are used to harvest the electrons and holes generated by light adsorption. In this case we need to understand the transport properties of this materials, which typically contain impurities. Understanding the effects of these impurities is tantamount for the design of good electrodes.


Attention Is All You Need For Classification (ml_nlp)

Universidade de Brasília
Departamento de Economia
Coordenador: Daniel Oliveira Cajueiro
Áreas do conhecimento: Ciência da computação; Economia; Engenharias
Início da vigência: 14-01-2019

O projeto de pesquisa consiste em desenvolver algoritmos usando técnicas de aprendizado de máquina, em especial "deep learning", para a classificação de textos. Textos eram representados como um vetor [1], sendo cada posição do vetor uma palavra. Atualmente, as palavras são representadas por vetores no espaço [2], e o texto é uma lista ordenada destes vetores. Existem diversas técnicas que consideram esta nova configuração, sendo a maior parte delas usando redes neurais recorrentes [3], mas também pode-se encontrar redes de convolução [4]. Porém, elas são muito difíceis de serem treinadas (dependências longas, que é o caso de textos, geram muitos problemas no gradiente). Estudos recentes indicam que parte deste problema pode ser resolvido usando mecanismos de atenção, dando pesos maiores apenas nas palavras importantes. Assim, aos poucos a pesquisa está conseguindo que um algoritmo começe a ter a capacidade de aprender por meio de textos e inferir. A Universidade de Stanford recentemente mostrou que estas técnicas possuem uma precisão superior à humana no que se refere a análise de contratos (https://canaltech.com.br/ciencia/robos-vencem-advogados-em-desafio-de-avaliacao-de-contratos-legais-109464/). Portanto, o projeto possui bastante relevância no contexto da pesquisa brasileira, pois poderia ser utilizado por nosso sistema judiciário para propor sentenças automáticas que tivessem uma probabilidade maior que 99%, por exemplo. As técnicas supracitadas normalmente estão associadas à tradução de textos. A inovação proposta refere-se a utilizar arquiteturas tipicamente usadas em traduções para classificações. Os aspectos transformadores referem-se a quantificar um conhecimento que não é tipicamente quantificável (textos). O impacto científico esperado é trazer para a pesquisa brasileira a variável da subjetividade do texto (que pode ser encarada como uma percepção dos autores de cada texto) de forma quantificada, no contexto de finanças, economia, etc. Atualmente, somente grandes empresas como Google e Facebook detém este tipo de conhecimento, principalmente porque exigem um grande poder computacional. Aplicações práticas são todas aquelas que envolvem classificação de documentos, como a geração de sentimentos a partir de notícias, categorização de textos, similaridade entre textos, etc. [1] Baeza-Yates, Berthier. Modern Information Retrieval , 2008, 2 ed.[2] "Distributed Representations of Words and Phrases and their Compositionality". 2013. Disponível em https://arxiv.org/abs/1310.4546 [3] “Recent Advances in Recurrent Neural Networks”. 2017. Disponível em https://arxiv.org/abs/1801.01078. [4] “Character-level Convolutional Networks for Text Classification”. 2015. Disponível em http://arxiv.org/abs/1509.01626.


Bioenergética molecular computacional (bmc)

Universidade de São Paulo
Instituto de Química
Coordenador: Guilherme Menegon Arantes
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 05-07-2016

Simulação computacional tem crescente importância nas áreas de Química e Bioquímica como atestado pelo recente prêmio Nobel em Química agraciado em 2013 para o desenvolvimento de métodos híbridos de simulação molecular. A proposta apresentada aqui nesta área de pesquisa é encabeçada pelo laboratório de Bioquímica e Biofísica Computacionais instalado no Instituto de Química da USP (IQ-USP). O laboratório e este projeto já contam com financiamento regular em vigência concedido pela FAPESP. Propomos estudar detalhadamente o mecanismo molecular de atividade de proteínas fundamentais para processos energéticos celulares. O objetivo é a investigação do ciclo catalítico em diferentes condições dos três principais complexos proteicos envolvidos na cadeia de transporte de elétrons da respiração celular, os chamados Complexos I, II e III, embebidos na membrana mitocondrial. Em particular, propomos utilizar duas técnicas de simulação computacional de alto desempenho: dinâmica molecular e potenciais híbridos de química quântica e mecânica molecular (QC/MM). Nosso grupo de pesquisa possui larga experiência na aplicação e no desenvolvimento de ambas metodologias. O estudo dos complexos proteicos respiratórios propostos por simulação molecular apresenta dois grandes desafios. Um é o enorme tamanho dos sistemas.


Brazilian Earth System Model: seasonal to centenial climate prediction (BESM-S2C)

Instituto Nacional de Pesquisas Espaciais
Centro de Previsão do Tempo e Estudos Climáticos
Coordenador: Paulo Nobre
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Matemática; Meteorologia; Oceanografia; Probabilidade e estatística; Química
Início da vigência: 07-03-2017


Buscando o mínimo global dos métodos quânticos semiempíricos NDDO (rm2)

Universidade Federal de Pernambuco
Departamento de Química Fundamental
Coordenador: Alfredo Mayall Simas
Áreas do conhecimento: Química
Início da vigência: 15-07-2016


Cálculo de coeficientes de transporte de alcanos de cadeia longa por simulações de dinâmica molecular (mdalkn)

Universidade Federal do Rio de Janeiro
Instituto de Química
Coordenador: Bruno Araújo Cautiero Horta
Áreas do conhecimento: Química
Início da vigência: 14-03-2019

Propriedades de transporte de misturas de hidrocarbonetos, a exemplo do coeficiente de difusão e condutividade térmica, são de fundamental importância para aplicações em química, física e engenharia. O destaque para os hidrocarbonetos e suas misturas é importante para diversas indústrias, a exemplo das aplicações em óleo e gás. O uso de técnicas computacionais como Monte Carlo e Dinâmica Molecular são cada vez mais importantes para o cálculo destas propriedades em misturas de interesse científico e industrial. Entretanto, ainda existem desafios computacionais para o cálculo de hidrocarbonetos de cadeia longa, em função do grande número de interações a serem consideradas, métodos atuais frequentemente. Este projeto tem por objetivo testar e estabelecer metodologias de Dinâmica Molecular para o cálculo de coeficientes de difusão de hidrocarbonetos de cadeia longa (de 12 a 60 átomos de carbono) em diferentes condições de temperatura para estudar posteriores aplicações práticas das misturas e contribuir para o conhecimento de eventos físico-químicos presentes nestas misturas. Também pretende-se verificar a exatidão de campos de força do tipo United-Atom existentes e avaliar posteriormente técnicas de Coarse-Graining para o mesmo propósito, visto que técnicas de coarse-graining para hidrocarbonetos de cadeia longa ainda são incipientes na literatura e necessitam de mais estudos e parametrizações para que alcancem a exatidão e precisão desejadas, assim, este projeto tem por objetivo também esta avaliação.


Caracterização do processo de N-glicosilação e seu impacto na função e engenharia de proteínas (pgl)

Universidade Federal do Rio Grande do Sul
Departamento de Biologia Molecular e Biotecnologia
Coordenador: Hugo Verli
Áreas do conhecimento: Ciências biológicas
Início da vigência: 28-06-2016

A glicosilação de proteínas é um fenômeno comum na natureza. Em humanos e demais eucariotos, estima-se que em torno de 2/3 de todas as proteínas sejam glicosiladas. Esta adição de carboidratos a uma dada proteína pode ser essencial para o seu enovelamento e propriedades derivadas deste. Ainda, a parte sacarídica de glicoproteínas pode estar diretamente envolvida na função de proteínas e, por conseguinte, em processos patológicos (como na inflamação e em diversos tipos de câncer), apresentando grande impacto potencial no desenvolvimento de novos fármacos (sintéticos ou biológicos). Infelizmente, a compreensão destes aspectos é ainda limitada, assim como dos processos enzimáticos que os determinam. Sabemos muito pouco sobre as causas que estabelecem uma cadeia sacarídica de determinada extensão, composição e ramificação, ligadas a posições específicas de proteínas. Similarmente, há uma grande limitação em estratégias e algoritmos capazes de prever o papel biológico destas estruturas. Tal cenário é em parte produzido pela enorme dificuldade de ferramentas experimentais, como cristalografia de raios-X e ressonância magnética nuclear, em resolver estruturas contendo carboidratos, criando uma grande demanda e oportunidade por técnicas computacionais que nos auxiliem neste processo. Assim, o presente projeto busca contribuir na elucidação das bases moleculares para a N-glicosilação de proteínas, abordando alguns de seus componentes enzimáticos no organismo modelo Campilobacter spp (isso é, as enzimas Pgl B, D, E, J e K) e as respectivas especificidades (isto é, quais carboidratos são adicionados, em quais quantidades e posições). As enzimas Pgl D, E e J estão envolvidas na síntese de um oligossacarídeo, que é translocado através da membrana pela flipase PglK e transferido para a proteína nascente pela oligossacariltransferase PglB. Na ausência das respectivas estruturas 3D dos homólogos em humanos, espera-se que as informações obtidas para este organismo possam ser extrapoladas para humanos, contribuindo no entendimento de processos como a resistência a fármacos antibióticos e antitumorais (envolvendo transportadores ABC, homólogos da enzima PglK), assim como no planejamento de novas estratégias terapêuticas (proteínas terapêuticas são frequentemente glicosiladas, criando grandes dificuldades para sua produção comercial). Adicionalmente, espera-se que estes resultados contribuam na construção racional de novas enzimas, capazes de suportar o emprego biotecnológico de carboidratos e glicoconjugados no setor farmacêutico ou industrial.


Caracterização estrutural e conformacional da proteína Nek1 e de novos inibidores pirimidinicos com potencial terapêutico no tratamento de glioblastoma (nek1)

Universidade Federal de Ciências da Saúde de Porto Alegre
Laboratório de Genética Toxicologica
Coordenador: Dinara Jaqueline Moura
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 22-11-2018

Os gliomas são tumores cerebrais primários responsáveis por 80% de todos os tumores malignos do Sistema Nervoso Central. A cirurgia, a radioterapia e a quimioterapia à base de temozolomida (TMZ) são opções de tratamento fundamentais no manejo clínico. No entanto, a maioria dos gliomas são cirurgicamente irresecáveis e, quando diagnosticados em estágio avançado, como os glioblastomas, o nível de resistência à quimioterapia convencional aumenta. Nek1 é uma das proteínas que já foi associada com resistência tumoral em células de gliomas. Devido sua alta expressão em gliomas e sua relação com a agressividade do tumor, à proliferação e à resistência quimioterápica, a proteína Nek1 pode representar um alvo terapêutico com elevado potencial no tratamento de glioblastomas. A estrutura elucidada da proteína Nek1 complexada ao inibidor com estrutura similar a molécula do ATP, permitiu a escolha de compostos pirimídicos como possíveis inibidores dessa enzima. Esses compostos, tem demonstrado frequentemente uma potencial bioatividade. As dihidropirimidinonas (DHPMs), por exemplo, são moléculas que tem se destacado nas últimas décadas por apresentarem bioatividade, tais como antiviral, anti-inflamatória, anti-bacteriana, anti-hipertensiva e antitumoral. Tendo em vista a dificuldade no tratamento de gliomas, o presente estudo propõe a busca de novo(s) inibidor(es) derivado(s) de DHPMs, tendo como o alvo a proteína Nek1, através de ferramentas computacionais. O uso de ferramentas computacionais para identificação de novos candidatos à fármacos tem fornecido informações substanciosas em relação ao reconhecimento molecular na formação do complexo receptor-ligante. A utilização de métodos computacionais é de suma importância para a descoberta de um alvo molecular com bioatividade.


Caracterização in silico de alvos de medicamentos para Zika e Dengue (VICBF01)

Universidade Federal de Pernambuco
Departamento de Química Fundamental
Coordenador: Gustavo de Miranda Seabra
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 08-11-2016

Este é um trabalho sendo desenvolvido em colaboração com o prof. Sergio Pantano, do Group of Biomolecular Simulations, Institut Pasteur de Montevideo (Uruguay). A atual epidemia de Zika e outros flavivírus no Brasil e na América Latina aumentou em todo mundo a preocupação da saúde publica por causa das implicações médicas e sócio econômicas. Consequentemente, um grande esforço começou a ser dedicado para enfrentar esse problema. Nesses contexto, simulações de dinâmica molecular compõem uma importante alternativa para prover informações confiáveis para o Design racional de ferramentas terapêuticas. Além disso, instalações de supercomputadores permitem a triagem de um grande número de condições (i.e., mutações, concentrações, temperatura, pH, etc.) ajudando na aceleração, racionalização ou até mesmo evitando o consumo excessivo de tempo de trabalho experimental. Neste projeto nos propomos um colaboração internacional com foco em dois alvos de design de drogas: i) A proteína NS3 protease/helicase; e ii) a proteína de envelope. A proteína NS3 do vírus Zika possui grande identidade de sequencia com a mesma proteína em outros flavivirus, como o Dengue. Essa proteína possui dois domínios, protease e helicase, e é essencial no processo de replicação viral. Na realidade, alguns medicamentos antivirais já existentes no mercado, para HIV e Hepatite C, se baseiam na inibição da atividade desta proteína. Pretendemos utilizar o programa PMEMD, do pacote Amber16, para simular as etapas envolvidas na função da NS3 helicase, responsável pelo desenovelamento do RNA viral, para identificar sítios passíveis de ataque. Quanto ao domínio protease, pretendemos estudar a reação catalisada por esse domínio através de cálculos QM/MM, para identificar o mecanismo e as estruturas importantes, que podem também oferecer alvos para novos medicamentos. A segunda proteína é também um dos principais alvos, assim como a primeira no reconhecimento pela célula hospedeira. Recentemente, nós desenvolvemos e aplicamos um método de simulação Coarse Grained (Darré L, Machado MR, Brandner AF, Ferreira S, Gonzalez HC, Pantano S. SIRAH: a structurally unbiased coarse-grained force field for proteins with aqueous solvation and long-range electrostatics. JCTC, 2015, 11:723.) proposto de multi-escala para estudar a flexibilidade de estruturas recém-publicadas do envelope do Zika (Sirohi, D.; Chen, Z.; Sun, L.; Klose, T.; Pierson, T. C.; Rossmann, M. G.; Kuhn, R. J. Science The 3.8 A resolution cryo-EM structure of Zika virus: 2016, 352, 467-470). A introdução de mutações pontuais na estirpe Africana revela a estabilização estrutural do envelope do vírus (Machado et al, submetido ao JCTC), que acontece apenas a nível da estrutura quaternária. Nós usaremos a estrutura do vírus do Zika junto com a modelagem molecular e simulações multi-escala para gerar um conjunto completo de estruturas (aproximadamente 50 diferentes variantes com identidade ~90%, http://www.ianlogan.co.uk/zikapages/zika-current.htm). Isto proverá informações preciosas sobre a acessibilidade dos epítopes e sua estrutura, bem como a variabilidade dinâmica de diferentes variantes que circulam no Brasil. Nós planejamos gerar 1 microssegundo de simulações de dinâmica molecular de cada variante para gerar um imprescindível banco de dados que será disponibilizado para a comunidade cientifica por meio de websites com o objetivo de ajudar os biólogos computacionais que trabalham ao lado dos experimentalistas para antecipar o impacto de novas mutações.


Caracterização in silico das estruturas e funcionamento de proteínas quanto a sua glicosilação (glycolectin)

Universidade Federal de Pelotas
Centro de Desenvolvimento Tecnológico
Coordenador: Luciano da Silva Pinto
Áreas do conhecimento: Biodiversidade; Ciência da computação; Ciências biológicas; Física; Química
Início da vigência: 04-09-2018

O aumento no interesse científico e comercial por proteínas recombinantes fez com que houvesse uma grande demanda pela sua produção. Entretanto, devido à modificações pós-traducionais de certas classes de proteínas, alguns sistemas heterologos de expressão não são capazes de produzir de forma funcional algumas proteínas de interesse. A glicosilação é uma modificação pós-traducional presente em mais de 50% dos organismos eucariotos, sendo a correta glicosilação de algumas proteínas necessária para a sua atividade biológica. Entretanto, sistemas de expressão como Escherichia coli não realizam a glicosilação de proteínas, fazendo com que essas glicoproteínas, quando obtidas de forma recombinante, não exerçam sua função biológica. O presente trabalho busca analisar, in silico, o comportamento dessas glicoproteínas quanto a presença ou ausência do seu glicano através da abordagem de dinâmica molecular. Quatro proteínas foram selecionadas para essa análise, todas pertencentes a classe das lectinas. Suas formas com e sem o glicano serão submetidas a 100 nanosegundos de dinâmica molecular utilizando o programa GROMACS, cada uma delas em triplicata com velocidades iniciais diferentes, sendo as estruturas posteriormente clusterizadas e analisadas.


Charm++ e AMPI (charm)

Instituto Nacional de Pesquisas Espaciais
Laboratório Associado de Computação e Matemática Aplicada
Coordenador: Celso Luiz Mendes
Áreas do conhecimento: Ciência da computação; Engenharias
Início da vigência: 04-07-2016

Este projeto visa implementar, na máquina Santos Dumont, o toolkit de programação paralela Charm++, com seus diversos componentes básicos, tais como AMPI (uma implementação de MPI baseada em Charm++), Projections (ferramenta de análise de desempenho) e outros. O Charm++ é um toolkit que vem sendo desenvolvido há mais de duas décadas no Laboratório de Programação Paralela (PPL) da Universidade de Illinois, EUA, (http://charm.cs.uiuc.edu/), com o objetivo de facilitar a programação de aplicações para supercomputadores com alto desempenho e prover portabilidade de desempenho entre máquinas diferentes. O principal paradigma no qual Charm++ está baseado é a técnica de objetos migráveis entre processadores. Através dessa técnica, é possível ao programador construir seu programa ao nível de objetos que processam dados e invocam ações em outros objetos. A alocação destes objetos nos processadores físicos da máquina é realizada, em tempo de execução, pelo runtime do Charm++. Este paradigma tem se mostrado bem adequado à construção de aplicações altamente paralelas, executadas com sucesso em centenas de milhares de processadores, tais como NAMD (dinâmica molecular), ChaNGa (cosmologia computacional), OpenAtom (química computacional) e outras. No projeto aqui proposto, o principal objetivo é permitir a implementação básica de Charm++ e de suas principais ferramentas na máquina Santos Dumont. Dentro do projeto, espera-se que seja possível criar contas para acesso não só dos proponentes, mas também de alguns membros principais do PPL, que possam auxiliar nas tarefas de depuração e otimização das várias ferramentas a serem instaladas. Embora já exista um significativo conjunto de aplicações científicas baseadas em Charm++, este projeto não visa a execução em produção destas aplicações; ao invés disso, busca-se apenas instalar e otimizar as funcionalidades básicas de Charm++ na máquina Santos Dumont. Para tal, pode-se até executar algumas das aplicações completas, mas por períodos curtos, de modo a testar a escalabilidade das funcionalidades implementadas em Charm++. Espera-se que, no futuro, utilizando as facilidades criadas por este projeto, algumas destas aplicações possam ser exploradas de forma mais aprofundada e específica, através de uma alocação da modalidade Premium. Por outro lado, com o presente projeto, deseja-se criar um ambiente comum que seja propício a colaborações entre proponentes, membros do PPL, e pesquisadores da comunidade do LNCC de modo geral. Um exemplo destas colaborações seria a Escola de Verão 2016 do LNCC.


Derivação, otimização e implementação de parâmetros para boro, estanho e platina nos campos de força MMFF94S e AMBER, com potencial para o desenho de novas drogas (mmffdbsnpt)

Universidade Federal Fluminense
Instituto de Química
Coordenador: Luciano Tavares da Costa
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 12-07-2018

Compostos químicos contendo Pt , B ou Sn exibem potencial para fármacos antineoplásicos. Diversos complexos de Pt têm sido estudados como agentes antiproliferativos desde a aprovação do uso clínico da cisplatina, cis-[PtCl2(NH3)2], pelo FDA (Food and Drug Administration), no final da década de 1970. Cisplatina ainda é, hoje em dia, o principal anticancerígeno com Pt. Também é crescente o interesse na atividade biológica de moléculas com boro. Elas têm sido investigadas com o agentes anticancerígenos e antimicrobianos. Bortezomib é um medicamento antineoplásico contendo um ácido borônico , [R-B(OH)2], como princípio ativo. Alguns complexos de Sn exibem atividade antiproliferativa maior que aquela observada para cisplatina ou outras drogas inorgânicas. Por isso, a procura por a gentes anticancerígenos com Sn, sobre tudo organoestânicos(IV), tem crescido nas últimas décadas. Fármacos com Pt, B e Sn exibem, geralmente, vários efeitos colaterais. Portanto, ainda existe a necessidade do desenvolvimento de fármacos que causem menos efeitos secundários e consigam contornar mecanismos de resistência tumoral. O desenho racional e o desenvolvimento de novas drogas utilizam-se do atracamento molecular (docking), que busca avaliar a afinidade de um ligante pelo sítio de ligação da proteína-alvo, seja ele ortostérico ou alostérico. DockThor é um programa de atracamento molecular com portal web acoplado ao uso do supercomputador SDumont para triagem virtual em larga escala (http://www.dockthor.lncc.br). Ele adota uma função de avaliação baseada no campo de força MMFF9 4 S. Nele, não há parâmetros para moléculas com Pt, B ou Sn. Este projeto, portanto, visa à obtenção de parâmetros intra e intermoleculares, incluindo constantes de força e cargas atômicas, baseados nesses elementos em compostos biologicamente ativos, empregando cálculos HF, MP2 e DFT, e à implementação desses parâmetros nos campos de força MMFF9 4 S e AMBER. Esta proposta objetiva o desenvolvimento de uma versão do DockThor capaz de avaliar poses para compostos de Pt, B ou Sn, ampliando a sua capacidade preditiva, e aprovisão de parâmetros que permitam simulações clássicas usando AMBER. Nesta proposta, visando à derivação de novos parâmetros para ambos campos de força, está prevista a análise de cerca de 2700 moléculas. Isso viabilizaria o uso conjunto de docking e DM para o desenho de novas drogas com Pt, B e Sn.


Desenho de novos inibidores azólicos de corrosão de metais (chaer2sd)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Marco Antonio Chaer do Nascimento
Áreas do conhecimento: Ciência dos materiais; Química
Início da vigência: 02-06-2017

A corrosão é um problema severo na indústria, responsável por perdas de bilhões de dólares por ano. Os gastos com corrosão nos Estados Unidos chegaram a cerca de 400 bilhões de dólares, o equivalente a 3 % do PIB do país, enquanto que no Brasil os gastos correspondem a 3,5 % do PIB. Em consequência disso, há uma grande atividade de pesquisa na área de corrosão, principalmente na busca por bons inibidores, já que este é o meio mais efetivo, econômico e flexível de controle da corrosão interna. Entretanto, a grande maioria das pesquisas nesta área é conduzida de forma empírica, na base da “tentativa e erro”, ou quando muito explorando relações do tipo estrutura do inibidor e sua eficiência. Esses procedimentos, além de muito caros e lentos, pouco contribuem para o entendimento da natureza do problema, ou seja, do mecanismo de corrosão, e consequentemente para o desenvolvimento de novos e mais eficientes inibidores de corrosão. Neste trabalho propomos uma abordagem teórico-experimental para entender o mecanismo de ação dos inibidores já conhecidos e projetar novos inibidores, mais eficientes e ambientalmente corretos. O mecanismo de adsorção será estudado através de cálculos quanto-mecânicos, periódicos e não periódicos, que nos permitirão entender de que forma o inibidor interage com a superfície metálica e o mecanismo de proteção da superfície. Esses estudos permitirão também determinar se há formação de filmes superficiais e as características desses filmes, dados importantes para a determinação do grau de recobrimento da superfície e, portanto, da concentração do inibidor a ser usada. As moléculas mais promissoras serão sintetizadas e testadas experimentalmente, quanto à sua eficiência de inibição, por meio de técnicas convencionais de perda de massa, medida de potencial de corrosão, e por técnicas eletroquímicas mais sofisticadas, tais como diagramas de impedância eletroquímica e microscopia eletroquímica de varredura. Os cálculos serão feitos em nível DFT, com condições periódicas de contorno, base de ondas planas e pseudopotenciais, utilizando o programa Quantum Espresso para realizar o estudo da interação das moléculas com as superfícies em diferentes graus de oxidação (Figura 4). Para cada potencial inibidor será feito um estudo sistemático para verificar como uma molécula se adsorve preferencialmente na superfície, como o processo de adsorção varia com o número de moléculas adsorvidas, o grau de recobrimento máximo que pode ser obtido com cada potencial inibidor e a distribuição das moléculas na superfície no regime de recobrimento máximo (formação de filme, empilhamento etc.) Essas informações guiarão as sínteses para obtenção e testes dos potenciais inibidores. Em cada caso, a estabilidade da camada protetora será testada adicionando-se algumas poucas moléculas de água ao sistema. As seguintes moléculas e seus derivados serão considerados no presente estudo: imidazol, imidazolina, imidazolidina e pirrolidina. O estudo da interação de uma única molécula de cada espécie com a superfície (001) de Fe já foi concluído.


Desenvolvimento de fármacos contra infecções fúngicas sistêmicas (drugdiscovery)

Universidade Estadual de Maringá
Departamento de Tecnologia
Coordenador: Flavio Augusto Vicente Seixas
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 28-11-2018

A paracoccidioidomicose (PCM) é uma infecção sistêmica causada por fungos do gênero Paracoccidioides (Pb). É endêmica na América Latina, onde o Brasil apresenta uma das maiores taxas de mortalidade com aproximadamente 51,2% das mortes. Além disso, a PCM tem um alto custo social e econômico, pois pode deixar seqüelas importantes em indivíduos durante sua idade produtiva. Por afetar trabalhadores rurais de regiões pobres é considerada uma doenças negligenciada pois não há interesse da indústria farmacêutica em investir no desenvolvimento de medicamentos específicos contra PCM. Em função disso, na prática clínica, três medicamentos são comumente utilizados para o tratamento da PCM: derivados azólicos, sulfanilamidas e polienos. Por serem inespecíficos, o tratamento pode variar de vários meses a um ano, dependendo da condição. Assim, as limitações para o tratamento da PCM estão ligadas a poucas opções terapêuticas, interações medicamentosas, eventos relacionados à infusão, nefrotoxicidade e tratamento prolongado. Uma estratégia promissora tem sido explorar a inibição de alvos essenciais para o patógeno, mas ausentes em humanos. Nesse sentido, a via do chiquimato é um alvo presente em bactérias, fungos, plantas e parasitas apicomplexos, mas ausente em mamíferos. A enzima chorismate sintase (CS) é a sétima enzima desta via, e é responsável pela síntese do corismato, o ponto de ramificação na biossíntese de moléculas aromáticas importantes, incluindo aminoácidos aromáticos, folato, naftoquinonas e menaquinonas. Essa enzima catalisa a conversão do 5-enolpiruvilchiquimato-3-fosfato (EPSP) em corismato na presença de FMNH2. Nosso grupo de pesquisa já modelou a estrutura da PbCS e a utilizou em trabalhos de simulações de varredura virtual, onde identificamos a molécula CP1 a qual teve patente depositada por demonstrar excelente atividade fungicida in vitro e in vivo. A partir destes resultados promissores será possível montar uma nova biblioteca de moléculas com as características farmacofóricas do CP1, bem como varrer novas bibliotecas para identificar outras substâncias capazes de inibir este alvo validado. Os resultados desta pesquisa poderão identificar novas moléculas candidatas a medicamentos contra a PCM. As etapas de simulação computacional desta proposta estão previstas em projetos financiados por agência de fomento no PR.


Desenvolvimento de funcionalidades, aumento da escalabilidade e estudos numéricos com modelos atmosféricos de alta resolução: BRAMS e OLAM (bramsolam)

Universidade de São Paulo
Instituto de Astronomia, Geofísica e Ciências Atmosféricas
Coordenador: Pedro Leite da Silva Dias
Áreas do conhecimento: Meteorologia
Início da vigência: 28-06-2016

O modelo meteorológico regional utilizado nesse trabalho de equipe partiu do Regional Atmospheric Modeling System, inicialmente desenvolvido na Colorado State University, e passou por drásticas modificações, visando o paralelismo massivo, novas funcionalidades que melhor representam os fenômenos meteorológicos tropicais e acoplamento com a biosfera, oceanos, áreas inundadas, efeitos da emissão de aerossóis urbanos e por queimadas, química da atmosfera, com ênfase nos efeitos urbanos, emissões biogênicas etc. (Freitas et al. 2009). Somente como referência, foi o esforço brasileiro que elevou a escalabilidade da versão americana (RAMS) de algumas poucas centenas de núcleos para mais de 10.000 cores na versão brasileira denominada BRAMS – Brazilian Developments on the Regional Atmospheric Model (Souto et al. 2015). Mais recentemente, uma iniciativa nos EUA levou ao desenvolvimento de um modelo de domínio global, com núcleo dinâmico inovador, baseado em discretização por volumes finitos, e com toda a formulação dos processos físicos do RAMS/BRAMS, incluindo soluções numéricas e computacionais para garantir maior escalabilidade em plataformas computacionais de processamento massivamente paralelo. Esta versão é denominada OLAM – Ocean Land Atmosphere Model (Walko et al. 2008). Hoje, no Brasil, é feito um esforço integrado entre CPTEC/INPE, IAG/USP, LNCC, IME/USP, UFCG, UFSC e EMBRAPA de desenvolvimento do modelo e com uso para validação e operação na FUNCEME, UFRJ, UFSM, UFPA, INPA, UEA e vários centros regionais de Meteorologia através de um projeto de encomenda do MCTI. A proposta de uso do Santos Dumont no projeto BRAMS/OLAM tem os seguintes focos: 1. Paralelização: (a) OLAM - trabalho desenvolvido principalmente no LNCC com a participação do Dr. Jairo Panetta (ITA) que visa aumento de escalabilidade e migração de algumas partes do modelo para GPU e XEON-PHI e (b) BRAMS – trabalho desenvolvido principalmente pelo Dr. Jairo Panetta do ITA com parceira do CPTEC, LNCC e IAG, também visando o aumento da escalabilidade com foco nas aplicações operacionais do modelo. 2. Utilização do BRAMs/OLAM nas seguintes linhas de pesquisa: 2.1 Assimilação de dados de microfísica da precipitação no BRAMS 2.2 Acoplamento do BRAMS a um sistema de assimilação de dados convencionais e de satélite através do sistema GSI 2.3 Circulações locais na Amazônia e organização da precipitação com malhas de alta resolução no OLAM com ênfase no efeito das áreas alagadas: 2.4 Análise dos erros de previsões de tempo com alta resolução no BRAMS e OLAM do campo de vento para aplicações no gerenciamento de parques eólicos 2.6 Melhorias da funcionalidade do acoplamento com aerossóis e gases traço no BRAMS 2.7 Acoplamento do BRAMS com processos oceânicos 2.8 Efeito do acoplamento troposfera/estratosfera através do ozônio no OLAM.


Desenvolvimento de metamodelos para avaliação do desempenho termoenergético de edificações brasileiras (prjeeesd)

Universidade Federal de Santa Catarina
Departamento de Engenharia Civil
Coordenador: Roberto Lamberts
Áreas do conhecimento: Engenharias
Início da vigência: 13-09-2016

Muitos países vêm percebendo a importância de construir de forma sustentável, buscando elaborar normas e regulamentos de desempenho termo energético os quais aumentem a eficiência das suas edificações. Atualmente, muitas das normas e regulamentos adotam o uso de simulação computacional de edificações para a sua avaliação energética. Os programas de simulação têm sido cada vez mais utilizados em pesquisas relacionadas ao desempenho termo energético, pois permitem obter o consumo energético da edificação, e estimar as condições ambientais da edificação. Apesar da crescente utilização, as ferramentas computacionais para simulação termo energética de edificações demandam um domínio avançado dos fenômenos físicos que ocorrem na edificação, e conhecimentos específicos dos programas utilizados para a simulação. Por outro lado, métodos estatísticos de funções de inferência baseadas em amostras são mais rápidos e simples de serem utilizados. Para combinar as funcionalidades principais de simulações computacionais com o poder das predições estatísticas, existem os modelos híbridos, chamados metamodelos. O objetivo do projeto é o desenvolvimento de metamodelos para a avaliação do desempenho termo energético de edificações. O metamodelo será desenvolvido com base nos dados de entrada e saída de simulações computacionais realizadas no programa EnergyPlus. O desempenho termo energético das edificações é influenciado por vários fatores, como: as características arquitetônicas, as propriedades termo físicas dos materiais; os equipamentos; os sistemas de iluminação e de condicionamento artificial; a ventilação natural; as variáveis ambientais e o comportamento dos usuários. Para cada parâmetro, será necessário simular uma diversidade de condições, garantindo a simulação de todas as possíveis combinações. Permitindo, desta forma, que o metamodelo represente diferentes condições encontradas no universo das edificações. O projeto busca expandir os conhecimentos científicos relacionados ao desempenho termo energético de edificações, e auxiliar os arquitetos e projetistas com recomendações construtivas adequadas para os climas brasileiros. Com os resultados, será possível quantificar o potencial de economia de energia com a adoção de estratégias passivas de operação da edificação. Dentre os benefícios para a sociedade, destacam-se o aumento do conforto térmico e a redução do consumo de energia para o condicionamento artificial das edificações.


Desenvolvimento de Métodos Teóricos para o estudo da relação estrutura-funcionalidade em Biomoléculas (dynemol_ufsc)

Universidade Federal de Santa Catarina
Departamento de Física
Coordenador: Luís Guilherme de Carvalho Rego
Áreas do conhecimento: Ciência da computação; Física; Química
Início da vigência: 17-12-2018

O objetivo geral deste projeto é estudar os mecanismos microscópicos responsáveis pelo transporte de carga e energia em biomoléculas e proteínas, bem como desenvolver métodos teórico/computacionais para elucidar o papel das coerências clássicas e quanticas na funcionalidade de sistemas biofísicos. Uma das perguntas centrais que pretendemos responder com essa pesquisa é: De que modo a energia de um fóton, ou de uma ligação química, é convertida em energia útil para o funcionamento de um organismo vivo? Em muitos casos, a absorção de um fóton desencadeia uma sequência de processes ultra-rápidos de transferência eletrônica, como ocorre nos primeiros estágios da fotossíntese, por exemplo. A energia potencial dos fragmentos oxidados ou reduzidos pela transferência eletrônica, por sua vez, induz transporte de ions e a formação de novos compostos. Tais processos de transferência eletrônica, em muitos casos, envolvem o movimento coordenado de elétrons e núcleos e o tunelamento eletrônico entre centros doadores e aceitadores localizados na proteína. O tunelamento eletrônico é facilitado pelo fenômeno de super-exchange (tunelamento através de estados virtuais) pois a proteína é essencialmente isolante. Um dos desafios centrais desse campo de pesquisa é entender como a estrutura da proteína, que circundeia os estados doador e aceitador, assim como sua dinâmica influenciam a transferência eletrônica de longo alcance nas proteínas. Dentre os problemas de interesse estão: (1) transferência de carga e energia em sistemas moleculares, (2) transdução fotoinduzida em sistemas moleculares, (3) efeitos quânticos em dinâmica molecular, (4) coleta e conversão de energia luminosa em sistemas naturais e sintéticos. O grupo Dinemol desenvolvemétodos híbridos do tipo QMMM (Quantum Mechanics/Molecular Mechanics) capazes de descrever efeitos de acoplamento elétron-núcleo em sistemas moleculares complexos. Os métodos computacionais desenvolvidos pelo grupo estão implementados no programa Dynemol, de livre acesso em https://github.com/lgcrego/Dynemol. O programa faz uso intenso de processamento paralelo através dos protocolos openMPI e MPI, além de GPU.


Desenvolvimento de um tradutor semanticamente referenciado com base em redes neurais para o Português Brasileiro (mknob)

Universidade Federal de Juiz de Fora
Departamento de Letras, Faculdade de Letras
Coordenador: Tiago Timponi Torrent
Áreas do conhecimento: Linguística, letras e artes
Início da vigência: 30-05-2017

O projeto se insere numa iniciativa maior, a da FrameNet Brasil (FN-Br), que objetiva o desenvolvimento de bases de conhecimento semanticamente referenciadas para a compreensão de língua natural por máquina. A FN-Br é o braço brasileiro de uma inciativa global, a FrameNet (http://framenet.icsi.berkeley.edu), sediada no International Computer Science Institute, em Berkeley, EUA. No âmbito deste projeto, objetiva-se desenvolver um tradutor semanticamente referenciado na base de dados linguísticos da FN-Br, a partir da hibridização de um modelo de tradução por máquina fundado em redes neurais disponibilizado em modalidade open source pela Harvard University (http://opennmt.net). Como case, serão utilizadas as porções da base de dados linguísticos referentes ao Turismo e aos Esportes, no desenvolvimento de um tradutor Português Brasileiro – Inglês de domínio específico. A importância do projeto se assenta em três pilares: (i) trata-se da primeira iniciativa de desenvolvimento de um tradutor neural semanticamente referenciado para o Português do Brasil; (ii) trata-se de uma contribuição inovadora para a área de Linguística Computacional, na medida em que se busca, pioneiramente, incorporar bases semânticas cognitivamente referenciadas ao processamento de língua natural por máquina; (iii) trata-se de iniciativa que alia o desenvolvimento de soluções em Linguística Computacional à criação de recursos Terminográficos, fundamentais em um mundo cada vez mais internacionalizado em que a produção de terminologias específicas para cada área em diversas línguas tem papel fundador. O projeto possui grande potencial de impactar a pesquisa em tradução por máquina, na medida em que, aliado ao processamento estatístico, as propriedades semânticas das palavras seriam consideradas na busca por uma equivalência de tradução situada no contexto de produção da sentença. Em termos de aplicações práticas, o projeto pode levar ao melhoramento de produtos como softwares de auxílio à tradução, tradutores automáticos, dicionários eletrônicos e memórias de tradução.


Detecção de plágio multilíngue em artigos biomédicos (dpm)

Universidade Federal do Rio Grande do Sul
Engenharia de Produção
Coordenador: Michel Jose Anzanello
Áreas do conhecimento: Ciência da computação; Engenharias; Linguística, letras e artes
Início da vigência: 21-06-2018

Plágio é a utilização do trabalho de uma terceira pessoa sem o devido reconhecimento ou citação, sendo um dos principais problemas na academia e na ciência. Este comportamento antiético está crescendo rapidamente, alimentado especialmente pela facilidade em compartilhar e recuperar informações através da internet. O desenvolvimento de soluções para detecção automática de plágio (PD) pode auxiliar humanos na identificação de conteúdos possivelmente copiados, além da sua fonte, mas também devem ser capazes de identificar casos de plágio multilíngue, o qual está se tornando recorrente, especialmente pelo fato de ferramentas de tradução automática atuais atingirem performance excepcional. Esta proposta de pesquisa vise desenvolver novas abordagens para detecção de plágio multilíngue em artigos biomédicos, dado que esta área científica em alto crescimento pode beneficiar-se de métodos que levem em consideração as características e terminologias não usualmente vistas em outras áreas científicas. Inicialmente, esta pesquisa irá focar no uso de ferramentas de tradução neural para derivar word embeddings, os quais serão utilizados para computar a similaridade semântica textual entre segmentos. O principal output no estágio inicial será a criação de modelos de tradução utilizando deep learning. Tais modelos tem cada vez mais se mostrado superiores aos tradicionais métodos estatísticos, porém requerem alto poder computacional. Atualmente não existe modelo de tradução já treinado para área biomédica, além dos tradutores disponíveis (ex: Google e Bing) não terem API gratuita.


Dinâmica de spin em sistemas nanoestruturados (dinspinnano)

Centro Federal de Educação Tecnológica Celso Suckow da Fonseca
Departamento de Engenharia Mecânica da Unidade Itaguaí-RJ
Coordenador: Daniel Lourenço Roberto Santos
Áreas do conhecimento: Física
Início da vigência: 23-07-2018

A spintrônica tem, recentemente, se tornado uma das alternativas a eletrônica tradicional. Os diversos processos lógicos e sistemas de armazenamento baseados em processos eletrônicos tem sido substituídos por mecanismos baseados nas interações magnéticas. Para descrever tais interações, um dos processos mais importantes é entender como estes momentos magnéticos se comportam quando sujeitos às mais diversas interações magnéticas, que vão desde campos externos, interações spin-órbita como as interações dentro do próprio material. Estes processos dinâmicos em sistemas nanoestruturados com momento magnético relevante, ou não, além das interações mediadas por outras quase-partículas, como o phonon, por exemplo, tem sido nosso principal objeto de estudo. Atualmente temos nos dedicado a descrever esses processos de relaxação através do cálculo da susceptibilidade dinâmica transversa, aplicada essencialmente a sistemas multicamadas, com a presença de materiais magnéticos bem como materiais paramagnéticos isolados, que podem revelar excitações do tipo ferromagnética quando obedecem certos critérios. Outra abordagem que tratamos é como estas relaxações que podem ser associadas a quase-partículas denominadas magnons se comporta quando interagem com elétrons ou fônons. Para uma descrição precisa das propriedades dinâmicas é necessário uma descrição da estrutura eletrônica com o máximo de detalhes. Vemos na literatura que uma melhor descrição da estrutura eletrônica pode nos levar a resultados com maior grau de acurácia quando comparados com resultados experimentais. Para isto, nós fazemos cálculos de primeiros princípios que nos permite extrair parâmetros para o sistema que será estudado. Para estes cálculos de primeiros princípios, muitas das vezes, são necessários a descrição a partir de uma célula unitáriacom centenas de átomos, que um cálculo preliminar de relaxação estrutural pode levar uma semana utilizando 32 processadores em paralelo. Além deste cálculo inicial os cálculos de phonons são também muito demorados, levando até semanas. Os nossos cálculos empíricos também se utilizam de bastante memória e tempo de processamento. Um cálculo típico, com spin-órbita para cálculo da susceptibilidade dinâmica também pode demorar dias. Nesse nosso trabalho podemos explicar fenômenos que estão hoje sendo observados experimentalmente e que até pouco tempo não poderiam ser observados. Outro ponto é a proposta para novos experimentos que podem elucidar a natureza dinâmica das interações magnéticas sem materiais nanoestruturados.


DockThor-VS: Web Server para Triagem Virtual de Fármacos em Larga Escala (dockthorvs)

Laboratório Nacional de Computação Científica
Coordenação de Mecânica Computacional
Coordenador: Laurent Emmanuel Dardenne
Áreas do conhecimento: Ciências biológicas
Início da vigência: 17-08-2016

Técnicas computacionais, conhecidas como atracamento molecular (do inglês, molecular docking), que sejam capazes de prever o modo de ligação e os detalhes do tipo de reconhecimento molecular proteína-ligante, assumem cada vez mais um papel fundamental em áreas estratégicas de pesquisa associadas à saúde e à biotecnologia, que podem envolver centenas de milhões de dólares. Cada vez mais, indústrias farmacêuticas e grupos de pesquisa, que trabalham na busca de novas moléculas candidatas a fármacos, necessitam de metodologias mais rápidas, eficazes e de baixo custo. Neste cenário, a triagem virtual em larga escala baseada na estrutura tridimensional do receptor tem se destacado como uma importante ferramenta na busca de compostos protótipos. A triagem virtual baseada em estrutura consiste em analisar computacionalmente uma grande quantidade de ligantes com o objetivo de selecionar, de acordo com os modos de ligação e as afinidades de ligação previstos, compostos provavelmente mais ativos farmacologicamente para determinada doença. Nos últimos doze anos o Grupo de Modelagem Molecular de Sistemas Biológicos do Laboratório Nacional de Computação Científica (LNCC) tem desenvolvido o programa DockThor para predição de complexos moleculares receptor-ligante. Mais recentemente foi lançado em nível nacional, na 65a Reunião Anual da Sociedade Brasileira para o Progresso da Ciência (SBPC), o Portal web DockThor (www.dockthor.lncc.br), disponibilizando gratuitamente para a comunidade acadêmica o primeiro programa brasileiro (e possivelmente de todo o hemisfério sul) de atracamento molecular receptor-ligante. O portal está acoplado às facilidades de computação de alto-desempenho do SINAPAD. Desde o seu lançamento o portal DockThor foi acessado por mais de 3.500 visitantes únicos e teve cerca de 3500 jobs submetidos. Com a instalação do supercomputador brasileiro Santos Dumont abre-se uma oportunidade excepcional para o desenvolvimento de uma plataforma computacional, envolvendo metodologias e programas próprios, para triagem virtual em larga escala de compostos candidatos a fármacos que possa ser utilizada por grupos de pesquisa e empresas brasileiras atuantes nas áreas de química medicinal e biotecnologia. O presente projeto objetiva implementar a primeira etapa do desenvolvimento do portal web DockThor-VS (VS de virtual screening) para triagem virtual em larga escala acoplado ao Santos Dumont. A versão atual do portal DockThor permite apenas realizar experimentos computacionais envolvendo um ligante e um receptor por vez. No DockThor-VS será possível investigar bibliotecas de ligantes contendo milhões de moléculas contra dezenas ou até mesmo centenas de alvos moleculares. É importante ressaltar que pesquisadores ligados a este projeto são membros do INCT-INOFAR (Instituto Nacional de Ciência e Tecnologia de Fármacos e Medicamentos - http://www.inct-inofar.ccs.ufrj.br/) onde desenvolvem pesquisas aplicadas de desenho racional de fármacos através de fortes colaborações com grupos de pesquisa e instituições relevantes na área de desenvolvimento de novos fármacos para o tratamento de doenças negligenciadas, Alzheimer e inflamatórias crônicas.


e-Biodiversidade: Análise e Síntese de Dados de Biodiversidade (ebiodiv)

Laboratório Nacional de Computação Científica
Coordenação de Métodos Matemáticos e Computacionais
Coordenador: Luiz Manoel Rocha Gadelha Junior
Áreas do conhecimento: Biodiversidade
Início da vigência: 03-07-2017


Efeito da estrutura da paisagem no impacto da variabilidade climática na disponibilidade hídrica de bacias. (HIDROLAND)

Instituto Nacional de Pesquisas Espaciais
Centro de Ciência do Sistema Terrestre
Coordenador: Daniel Andres Rodriguez
Áreas do conhecimento: Geociências
Início da vigência: 08-06-2017

A expansão das atividades antrópicas sobre os ecossistemas naturais tem intensificado as pressões sobre as áreas de florestas. As conversões de uso do solo alteram a estrutura da paisagem, como resultado das complexas interações entre forças físicas, biológicas, políticas, econômicas e sociais, caracterizando uma estrutura fragmentada por usos distintos. Estudos prévios demonstram que mudanças do uso e cobertura da terra de origem antropogênica tem efeitos sobre o clima regional modificando as propriedades da superfície e alterando o ciclo de carbono. A vegetação controla propriedades físicas da superfície (por exemplo, albedo, profundidade radicular, e rugosidade), afetando as trocas de água e energia entre a atmosfera e a superfície. A resposta dos ecossistemas terrestres às mudanças de origem antropogênica podem induzir mecanismos de retroalimentação positivos ou negativos com o sistema climático, magnificando ou reduzindo os impactos da variabilidade climática. Apesar destas evidências, existem poucos estudos numéricos dos efeitos das mudanças no uso e na cobertura do solo na resposta hidrológica que considerem as componentes atmosféricas e hidrológicas de uma maneira acoplada. Um dos motivos para estas limitações se relacionam com a baixa resolução espacial dos modelos climáticos, o que não permite capturar os processos de pequena escala induzidos pela heterogeneidade na cobertura vegetal ou mesmo pela fragmentação da paisagem induzida pela ocupação humana. Consequentemente, propõe-se estudar o impacto da estrutura natural da paisagem na resposta à variabilidade climática através de modelagem hidrometeorológica. Para tal fim, propõe-se aprimorar ferramentas de modelagem através da parametrização de processos que afetam a geração de escoamento e a evapotranspiração. Os experimentos de modelagem terão por foco bacias representativas nas Regiões Norte e Sudeste do país. O motivo desta escolha se apoia no fato de que: - A Região Norte apresenta maior potencial de recursos hídricos não explorados, e vem sendo afetada por pressões antrópicas relativamente recentes, o que permite estudar o efeito das mudanças do uso e cobertura da terra dentro do período de existência de observações hidroclimáticas sistemáticas na região. Ainda, nas próximas décadas esta região será impactada por intensas mudanças do uso da terra em decorrência de aumento da ocupação humana, cujos efeitos irão se superpor às mudanças climáticas de escala global. Como caso área de estudo na região será utilizada a bacia do Ji-Paraná, em Rondônia. - A Região Sudeste concentra as bacias mais antropizadas do país, onde os recursos hídricos estão perigosamente próximos de seu limite sustentável, pelo qual as mudanças climáticas futuras juntamente com o desenvolvimento de novas atividades agroflorestais, em particular a expansão de plantações de eucalipto, poderão comprometer a sustentabilidade ambiental e econômica dos maiores centros urbanos do país. Como caso de estudo será utilizada a bacia do Paraíba do Sul. Dada a importância da relação entre o uso e cobertura do solo e a gestão de bacias, o desenvolvimento de ferramentas de simulação hidrológica e atmosférica que incorporem explicitamente mudanças presentes e futuras dos usos da terra permitirá o desenvolvimento de cenários mais confiáveis da disponibilidade hídrica, permitindo o planejamento de ações que reduzam os riscos de colapso hídrico. Ainda, a proposta está integrada aos trabalhos desenvolvidos nos projetos CAPES 88887.115869/2015-01 e CNPq 442890/2014-1, incluindo a formação de recursos humanos especializados através do desenvolvimento de estudos de pós-graduação.


Efeito do solvente em complexos dinucleares de platina(III) via dinâmica molecular ab initio e cálculos de tensores blindagem e constante de acoplamento spin-spin (aimdsolv)

Universidade de São Paulo
Instituto de Química
Coordenador: Lucas Colucci Ducati
Áreas do conhecimento: Física; Química
Início da vigência: 25-06-2018

Complexos de diplatina platina (Pt-Pt) e derivados vem sendo investigados para potenciais aplicações como drogas antitumorais devido às suas baixas associaçõescom nefrotoxicidade. Estes compostos apresentam relevâncias tecnológicas, como propriedades magnéticas, ópticas, quantum dots, bem como, processos industriais catalíticos. No entanto, a compreensão estrutural e espectroscópica destes compostos é ainda muito limitada em solução, o que carece de novas metodologias que forneçam melhores informações, principalmente em solução, onde grande parte dos complexos são sintetisados, acarretando melhor entendimento para futuras aplicações tecnológicas. A Ressonância Magnética Nuclear (RMN), a técnica mais poderosa para determinação estrutural em solução, tem em seus parâmetros tensor blindagem (σ)/deslocamento químico (δ), e as constantes de acoplamento (J) fontes de informação para determinação inequívoca da estrutura molecular, dependendetes da estrutura molecular e eletrônica que é fortemente perturbada pela sovatação. Para melhor elucidar a dinâmica da estrutura soluto solvente e como muda a densidade eletrônica dos complexos Pt-Pt, cálculos de dinâmica molecular ab initio e da teoria do funcional de densidade serão aplicados neste estudo, para simulação das espécies em solução. Estudos prévios com solvatação implícita anteriores sugerem que a descrição explícita do sistema soluto-solvente de forma dinâmica, possibilitará a descrição mais realista das condições experimentais, melhorando a precisão dos valores de σ, δ e J com geometrias estáticas em nível DFT, com inclusão de efeito de solvente implícito e Hamiltoniano com correção relativística, superestimam os valores experimentais em cerca de 100% para a maioria dos compostos. Para isso, a dinâmica molecular de Kohn-Sham (KS) Car-Parrinello (CPMD) e cálculos KS híbridos de propriedades magnéticas, com e sem efeito de solvente, serão utilizados. Este projeto propõe uma nova aplicação estado da arte no estudo dos parâmetros espectroscópicos e da dinâmica soluto solvente e estruturais em solução, o que auxiliará na elucidação do comportamento catalítico e outras propriedades em que o papel do solvente é fundamental.


Efeito do Solvente em Parâmetros Espectroscópicos de RMN por Dinâmica Molecular ab initio (nmrmd)

Universidade de São Paulo
Instituto de Química
Coordenador: Lucas Colucci Ducati
Áreas do conhecimento: Física; Química
Início da vigência: 03-08-2018

Ressonância Magnética Nuclear (RMN) é a técnica mais poderosa para determinação estrutural em solução. Os parâmetros como tensor blindagem (σ)/deslocamento químico (δ), e as constantes de acoplamento (J) são as fontes mais importantes de informação para determinação inequívoca da estrutura molecular e conformação adotada por uma molécula em solução. δ e J dependem da estrutura molecular e eletrônica, e serão suportados por valores calculados através da mecânica quântica. Nesta proposta são avaliados o efeito de sovatação da água e, principalmente, a contribuição da ligação de hidrogênio entre solvente-soluto no δ de 14N de compostos nitrogenados. Estudos teóricos usando modelos de solvatação implícita anteriores sugerem o uso de solvatação explícita e a descrição do sistema soluto-solvente de forma dinâmica, a fim de obter uma descrição mais realista das condições experimentais, melhorando a precisão dos valores estimados. Além disso, influência da coordenação do solvente (água) sobre o σ, δ e J de complexos Pt-Pt, precursores dos sais de Magnum, também será alvo de estudo. Esses complexos se encontram em equilíbrio em meio aquoso, sendo necessário o uso de sovatação explícita e uma descrição do sistema soluto-solvente de forma dinâmica. Os valores teóricos de σ, δ e J com geometrias estáticas em nível DFT, com inclusão de efeito de solvente implícito e Hamiltoniano com correção relativística, superestimam os valores experimentais em cerca de 100% para a maioria dos compostos. Para isso, a dinâmica molecular de Kohn-Sham (KS) Car-Parrinello (CPMD) e cálculos KS híbridos de propriedades magnéticas, com e sem efeito de solvente, serão utilizados. Esta nova técnica computacional, aliando KS-CPMD e cálculos KS-DFT híbridos para determinação de propriedades magnéticas, foi proposta e desenvolvida durante os últimos 2 anos durante o estágio de pesquisa deste proponente no exterior, e tendo sido aplicada com sucesso para compostos de metais de transição Tl-Pt. Este projeto propõe uma nova aplicação desse tipo de estudo de parâmetros espectroscópicos em solução, com o intuito de consolidar uma nova linha de pesquisa, inédita no país, bem como melhorar a formação em alto nível dos alunos. Há uma forte colaboração com grupos experimentais do IQ/USP e um do exterior.


Efeitos de processos não-hidrostáticos na convecção tropical utilizando o modelo Global Eta Framework (gef)

Instituto Nacional de Pesquisas Espaciais
Centro de Previsão do Tempo e Estudos Climáticos
Coordenador: Chou Sin Chan
Áreas do conhecimento: Meteorologia
Início da vigência: 10-07-2017

O objetivo deste projeto é avaliar os efeitos de inclusão da componente não-hidrostática no sistema de equações do modelo global atmosférico, na simulação de convecção em regiões tropicais, com foco na região dea Amazônia. O modelo utilizado é o Global Eta Gramework (GEF) (Zhang e Rancic, 2007)*, que possui a versão de grade cúbica quase uniforme. A componente não-hidrostática está sendo implementada no modelo, utilizando a metodologia de Janjic et al (2001)**, o mesmo método aplicado na versão não-hidrostática do modelo regional Eta, que é um dos modelos operacionais para previsão de tempo e clima do CPTEC/INPE. A dinâmica não-hidrostática do modelo será implementada somente como um módulo que permitirá facilmente a comparação das versões hidrostática e não-hidrostática do mesmo modelo. Após aplicar os ajustes necessários, principalmente nos esquemas de parametrização de convecção, serão realizados testes do modelo com resolução horizontal entre 5 km e 8 km. Dados de reanálise ERA-Interim serão utilizados como condições iniciais do modelo. Serão realizadas várias rodadas para os anos 2009 e 2012, com ambas versões do modelo, em modo hidrostático e não-hidrostático. A proposta tem por objetivo investigar a contribuição dos processos não-hidrostáticos no desenvolvimento da convecção profunda na Amazônia. Os efeitos dos processos não-hidrostáticos, na simulação do início da estação chuvosa e do ciclo diurno serão estudados nos anos extremamente chuvosos. Para avaliar a estabilidade do modelo, pretende-se realizar pelo menos uma rodada de longa duração com baixa resolução. Para validar as simulações, serão realizadas comparações com os dados de reanalise do ERA INTERIM e dados observados disponíveis, como por exemplo, dados de satélite, GPCP, CMORPH, TRMM e dados de projetos e campanhas de campo, como, por exemplo, LBA, CHUVA, GOAMAZON. Um resultado deste projeto será o desenvolvimento de um modelo atmosférico global e não-hidrostático, em alta resolução, que se destaca pela sua economia no uso de recursos computacionais, estabilidade numérica etc.


Efeitos isotópicos sobre as propriedades elétricas de isotopólogos moleculares: aplicações em astroquímica e nanociência (isotope)

Centro Federal de Educação Tecnológica de Minas Gerais
Coordenação de Área de Ciências
Coordenador: Antônio Francisco Cruz Arapiraca
Áreas do conhecimento: Astroquímica; Física; Química
Início da vigência: 25-01-2019

Neste projeto pretendemos realizar um estudo teórico e computacional, utilizando cálculos ab initio e de teoria do funcional densidade, do efeito isotópico sobre propriedades elétricas de diversos sistemas de isotopólogos moleculares de larga escala como hidrocarbonetos aromáticos policíclicos (PHA), fulerenos funcionalizados e complexos endoedrais. O estudo destas propriedades será feito na perspectiva de aplicações nos contextos de astroquímica e nanociência. No caso astroquímico, por exemplo, intensidades de transições do espectro rotacional puro, de modo a prover informações que auxiliem observações via radiotelescópios, podem ser obtidas a partir dos momentos dipolares calculados para um conjunto de hidrocarbonetos aromáticos policícliclos deuterados (PAD) e fulerenos funcionalizados com hidrogênios e deutérios. Na seara da nanociência, além do efeito isotópico sobre os momentos dipolares de complexos de fulerenos endoedrais, pretendemos quantificar o efeito de blindagem devido à polarização dipolar que o sistema hospedeiro sofre devido à presença do sistema hóspede polar. Para tal estudo utilizaremos uma correção adiabática variacional de uso generalizado, que tem capacidade de computar os efeitos de massa nuclear finita que implicam em quebra de simetria por substituição isotópica, em conjunto com uma metodologia perturbativa que leva em conta correções vibracionais que consideram o campo de força anarmônico e os desvios da linearidade das propriedades moleculares. Essa metodologia já fio capaz de calcular, com boa acurácia na comparação com dados experimentais, os momentos dipolares para uma gama considerável de moléculas poliatômicas.


Engenharia de Proteínas e Biomiméticos com Potencial em Diagnóstico e Vacinal para os Vírus Dengue e ZIKA (biomat)

Centro de Pesquisas Aggeu Magalhães, Fundação Oswaldo Cruz
Departamento de Virologia
Coordenador: Roberto Dias Lins Neto
Áreas do conhecimento: Ciências biológicas; Química
Início da vigência: 11-07-2016

A detecção de antígenos e anticorpos específicos de patógenos é um dos métodos mais utilizados em diagnóstico clínico. Tal procedimento é utilizado no diagnóstico de câncer, doenças infecciosas, autoimunes, etc. Além disso, as moléculas de anticorpos constituem o mecanismo de proteção biosintética mais efetivo. Um aspecto crítico e até mesmo limitante para a síntese de anticorpos altamente específicos é o fato de que alguns epítopos podem se apresentar de forma transiente, expondo-se apenas quando o vírus se liga ao receptor. Uma alternativa para tal problema é a engenharia de estruturas moleculares (proteínas naturais ou biomiméticos) que possam servir de suporte para tais epítopos. De natureza multidisciplinar, métodos de simulação computacional serão sinergisticamente associados a técnicas experimentais de biologia molecular, imunologia e biofísica molecular para o desenvovimento de moléculas potencialmente imunorreativas. Especificamente, este projeto tem por objetivo o desenho racional e a caracterização das bases moleculares de proteínas e biomiméticos de interesse imunológico (diagnósticos e vacinais) que tem como alvo os vírus Dengue e ZIKA. O desenvolvimento dessas novas moléculas podem contribuir não apenas na área de saúde publica, mas também para a redução da nossa dependência tecnológica, a partir da produção de insumos com tecnologias estritamente nacionais.


Espectroscopia de RMN: Além da determinação estrutural (nmrspec)

Universidade Estadual de Campinas
Instituto de Química
Coordenador: Claudio Francisco Tormena
Áreas do conhecimento: Química
Início da vigência: 18-05-2017

Ressonância Magnética Nuclear (RMN) é a técnica mais poderosa para determinação estrutural em solução. Os parâmetros fundamentais, tais como deslocamentos químicos (delta), e as constantes de acoplamento (J) são as fontes mais importantes de informação para determinação inequívoca da estrutura molecular. Estes dois parâmetros também podem ser aplicados para determinar a conformação adotada por uma molécula em solução. Os deslocamentos químicos e as constantes de acoplamento são dependentes da estrutura molecular e eletrônica, sendo que as medidas experimentais podem ser utilizadas como uma sonda para avaliar pequenas alterações na estrutura eletrônica, mas para estes fins, os parâmetros experimentais de RMN (delta e J) têm de ser suportados pelos valores calculados teoricamente através de cálculos mecânico quântico. Nesta proposta são sugeridos alguns projetos, tais como: avaliação de preferência conformacional para pequenas moléculas orgânicas; a influência da interação estereoeletrônica no deslocamento química de 13C para moléculas contendo átomos pesados, tais como o iodo; influência da interação estereoeletrônica em constantes de acoplamento spin-spin; avaliação do mecanismo de reação orgânica e determinação da estereoquímica dos produtos dessas reações por acoplamento 3JCH. De forma geral o desenvolvimento da presente proposta irá fornecer uma melhor compreensão dos parâmetros fundamentais da RMN (delta e J), bem como a formação em alto nível de alunos de doutoramento e pós-docs em RMN, o que é muito importante para uma grande parte da comunidade química brasileira, pois RMN é uma ferramenta muito importante para o desenvolvimento da ciência nacional, sendo que o número de doutores formandos nessa área ainda é escasso tanto nas Universidades como na indústria


Estimação Não Invasica de Reserva Fracionada de Fluxo Coronário FFR (hmlffr)

Laboratório Nacional de Computação Científica
Coordenação de Ciência da Computação
Coordenador: Pablo Javier Blanco
Áreas do conhecimento: Ciências da saúde; Engenharias
Início da vigência: 28-06-2016

O objetivo do presente projeto é pesquisar e desenvolver técnicas de modelagem computacional e simulação numérica na área de hemodinâmica computacional do sistema cardiovascular humano com ênfase no cálculo numérico de reserva fracionada de fluxo coronário. Isto compreende o desenvolvimento de métodos numéricos para análises fluidodinâmicas visando estimar índices hidrodinâmicos associados à oclusão de artérias coronárias e seu impacto no risco de isquemia miocárdica. Em primeiro lugar, serão desenvolvidos modelos orientados para pacientes específicos para simular a circulação na árvore coronariana podendo considerar presença de estenoses, colateralização de fluxo sanguíneo e efeito de vasodilatadores. A anatomia vascular coronária de cada paciente será obtida a partir do processamento e segmentação de imagens de tomografia computadorizada. Em segundo lugar, estes modelos serão empregados para estimar índices cardiovasculares de interesse médico e avaliar o risco de isquemia em pacientes com doença coronária em tempos compatíveis com a aplicação clínica. Todos os modelos e técnicas serão validados tanto com imagens de ultrassom intravascular assim como com medições invasivas da reserva fracionada de fluxo realizadas em procedimentos de cateterismo. Espera-se que os resultados alcançados com este trabalho venham a fornecer ferramentas não invasivas, com grau de confiabilidade equivalente às técnicas invasivas, que auxiliem na avaliação de risco de isquemia de miocárdio em pacientes com doença coronária.


Estrutura de galáxias em grande escala: explorando a natureza da energia escura (EGGELINEA)

Observatório Nacional
Laboratório Interinstitucional de e-Astronomia
Coordenador: Luiz Alberto Nicolaci da Costa
Áreas do conhecimento: Astronomia
Início da vigência: 07-08-2017

Um grande desafio da física moderna é explicar a natureza da misteriosa força responsável pela expansão acelerada do Universo, a chamada energia escura que representa da ordem de 70% da composição do universo. Enquanto a natureza da matéria escura é estudada pelo Grande Colisor de Hádrons (LHC), o estudo da energia escura é feita por grandes levantamentos astronômicos, como o Dark Energy Survey (DES) e o Large Synoptic Survey Telescope (LSST), incluindo pesquisadores brasileiros. Estes levantamentos fotométricos têm por finalidade imagear regiões do céu em diferentes filtros gerando grandes volumes de dados que precisam ser reduzidos e analisados. Isto exige o desenvolvimento de uma infraestrutura de hardware/software para a transferência, armazenamento, processamento, distribuição e a análise eficiente desses dados. Para este fim, foi criado o Laboratório Interinstitucional de e-Astronomia (LIneA), envolvendo o ON, LNCC, e RNP, que ao longo dos últimos anos procura soluções para os problemas de Big Data em astronomia. Entre eles, estão: 1) a transferência de dados com a instalação da solução DMZ sugerida pela RNP, com monitoramento da rede e testes com diferentes algoritmos de transferência; 2) o desenvolvimento de um portal científico, que concatena uma variedade de processos necessários à preparação de catálogos de objetos prontos para análises científicas (e.g., identificação de galáxias satélites, detecção de aglomerados de galáxias, análise da estrutura em grande escala do Universo); 3) o desenvolvimento de um sistema de banco de dados paralelizado em colaboração com o grupo do LSST baseado no Stanford Linear Accelerator Center (SLAC); 4) a integração de workflows científicos que utilizam catálogos produzidos para aplicações científicas, entre as quais, estimar os parâmetros que descrevem o Universo observado. O portal serve para blindar o pesquisador da tarefa de movimentar os dados e, preservar a memória dos processos executados permitindo determinar como cada produto final foi obtido. Tudo isto é testado num cluster (SGI Altix XE 1300) com 912 núcleos. Certas etapas do processo de criação de catálogos consomem um grande número de horas de processamento e representam um importante gargalo para a exploração científica dos dados. Um passo importante para tornar as nossas soluções adequadas, não só para o DES, mas principalmente para o LSST, é a possibilidade de certas tarefas serem despachadas para outras plataformas de processamento resolvendo o problema de escalonamento. Entre as possibilidades, está o supercomputador SDumont. O objetivo deste projeto é avaliar como isto será feito, primeiramente, de forma não automatizada, com o intuito de, eventualmente, desenvolver uma interface que permita a integração do portal ao supercomputador. Este projeto tem o apoio do INCT do e-Universo cujo objetivo é apoiar grandes levantamentos como o DES e o LSST, lembrando que o último será da ordem de 30 vezes maior do que o DES sendo atualmente analisado pelo grupo DES-Brazil com o apoio do LIneA, contendo mais objetos (18 bilhões ao invés de 400 milhões) devido a maior área e profundidade, e 6 ao invés de 5 filtros. O problema de escalabilidade é, portanto, central no nosso planejamento.


Estrutura Eletrônica de Íons Moleculares com Interesse Astroquímico (astrochem)

Universidade Federal do Rio de Janeiro
Observatório do Valongo
Coordenador: Heloisa Maria Castro Boechat
Áreas do conhecimento: Astronomia; Física; Química
Início da vigência: 27-02-2019

Astroquímica é o ramo da astronomia que estuda as transformações da matéria - átomos ou moléculas, neutras ou ionizadas - nos diferentes ambientes e estágios evolutivos de objetos astrofísicos no universo. Devido à sua grande abrangência e complexidade, o estudo da astroquímica requer o uso conjunto de ferramentas experimentais, observacionais e teóricas. Tais técnicas permitem elucidar as condições físicas e químicas que promovem a formação de moléculas simples e complexas, além de inferir sobre os diferentes mecanismos de reação frente a processos de interação da matéria com a radiação. Adicionalmente, o fluxo e natureza dos campos de radiação comumente presentes em ambientes astrofísicos podem levar moléculas a diferentes estados excitados, ativando reações químicas, processos de ionização/dissociação e a formação de novas espécies moleculares. Até o presente momento, aproximadamente 200 moléculas foram identificadas no meio interestelar, dentre as quais destacam-se álcoois, ácidos carboxílicos, nitrilas, cadeias poliínicas e espécies aromáticas. Nas últimas décadas, o grupo de pesquisa coordenado pela Prof. Heloisa Boechat-Roberty (OV/UFRJ) tem se destacado nacional e internacionalmente no estudo de processos de formação, destruição e busca de moléculas em ambientes interestelares e circunstelares, tanto em fase gasosa quanto na superfície de gelos astrofísicos. Nos diversos experimentos conduzidos pelo grupo, são identificados íons e clusters moleculares que podem desempenhar um papel importante na evolução química de objetos astrofísicos. Entretanto, a vasta maioria dessas espécies, que incluem monocátions e dicátions moleculares contendo átomos de C, H, O, N, P, Cl e S, ainda não foi apropriadamente estudada do ponto de vista teórico. Nessa perspectiva, o objetivo deste projeto é o de elucidar importantes propriedades moleculares de espécies identificadas nos experimentos realizados pelo grupo. Particular interesse será dado ao estudo da estrutura molecular e estabilidade relativa de diferentes isômeros de uma dada estequiometria, bem como a caracterização dos respectivos espectros vibracionais e esquemas de ligação química. Como consequência, espera-se que ao final do projeto novas espécies de interesse astroquímico sejam devidamente caracterizadas, de forma a viabilizar suas buscas em nuvens moleculares e regiões de formação estelar.


Estudo computacional de derivados ativos para o câncer de mama (ecdacm)

Fundação Oswaldo Cruz
Centro de Desenvolvimento Tecnológico em Saúde
Coordenador: Nicolas Carels
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Física; Química
Início da vigência: 17-12-2018

No contexto da aplicação da medicina de precisão para a medicina translacional, o Laboratório de Modelagem de Sistemas Biológicos (LMSB) do Centro de Desenvolvimento Tecnológico em Saúde (CDTS, Fiocruz) vem desenvolvendo uma abordagem envolvendo bioinformática e biologia computacional para o tratamento do câncer. Nosso grupo identificou 5 alvos que foram avaliados em primeiro momento como potenciais alvos a serem investigados via biologia computacional para a busca de potenciais inibidores, com objetivo de criar um coquetel de potenciais compostos capazes de realizar a inativação da rede de sinalização celular. Com o andamento da busca de informações sobre os alvos, foi identificado que apenas 3 dos 5 eram viáveis, para a criação de um modelo tridimensional (3D) e por consequência candidatos a uma busca de fármacos in silico. Após a avaliação de cada um dos modelos, começamos uma busca de potenciais fármacos já aprovados e, para tal, fizemos essa investigação baseado no BD do US Food and Drug Administration (FDA). Em seguida, buscamos por docagem molecular os compostos com afinidade para a região do sitio ativo de cada alvo proteico, além da investigação da estabilidade e energia de interação via dinâmica molecular e energia livre, para cada potencial fármaco identificado. Atualmente o conjunto de potenciais compostos é cerca de 12 compostos, número esse a ser expandido para algo superior a 100 compostos, para posterior analise in vitro.


Estudo da dinâmica fora do equilíbrio e da espectroscopia de líquidos iônicos (il_nemd)

Universidade de São Paulo
Instituto de Química
Coordenador: Mauro Carlos Costa Ribeiro
Áreas do conhecimento: Física; Química
Início da vigência: 03-07-2018

Vários sais com baixo ponto de fusão, os chamados líquidos iônicos, são líquidos viscosos que apresentam diagramas de fases complexos com possibilidade de transição vítrea ou cristalização dependendo do histórico de mudança das variáveis temperatura e pressão. Termodinâmica, estrutura e dinâmica de líquidos iônicos têm sido estudadas no Laboratório de Espectroscopia Molecular do Instituto de Química da USP, LEM/IQ-USP, em abordagens experimentais por calorimetria, espectroscopia Raman e difração de raios-X, e teórica por simulações de dinâmica molecular de equilíbrio. No presente projeto, pretendemos ampliar os estudos computacionais com simulações pelo método de dinâmica molecular de não-equilíbrio (NEMD, non-equilibrium molecular dynamics). Uma das motivações para simulações NEMD é que líquidos iônicos podem formar mesofases cuja natureza, sob o ponto de vista da estrutura e dinâmica microscópica, ainda é pouco compreendida. As simulações NEMD dos sistemas submetidos a diferentes velocidades de cisalhamento, em conjunto com análises estruturais, permitirão a interpretação ao nível molecular da reologia dos líquidos iônicos. Além disso, uma aplicação bem conhecida para os líquidos iônicos é o uso como lubrificante, sendo que no contexto da tribologia é fundamental o entendimento da estrutura e dinâmica do fluido em diferentes condições, tal como diferente pressão aplicada entre as superfícies em movimento relativo. Pretendemos com as simulações NEMD calcular viscosidade de líquidos iônicos em diferentes condições de fluxo e pressão, a fim de relacionar a viscosidade aparente com as mudanças estruturais decorrentes da condição de não-equilíbrio. Além de comparar diferentes líquidos iônicos a fim de determinar como modificações na estrutura molecular afetam as propriedades reológicas e estruturais, avaliaremos também duas diferentes metodologias para o estudo fora do equilíbrio (NEMD e RNEMD) e o efeito da introdução de polarizabilidade no modelo. Serão realizados ainda cálculos quânticos em nível DFT de clusters contendo dezenas de íons a fim de estudar o espectro vibracional dos mesmos.


Estudo da estabilidade de sistemas coloidais: aplicações em petróleo e gás, cosméticos e alimentos (ColSys)

Universidade do Estado do Rio de Janeiro
Instituto de Química
Coordenador: Eduardo Rocha de Almeida Lima
Áreas do conhecimento: Engenharias; Química
Início da vigência: 25-05-2017

Sistemas coloidais estão presentes em inúmeras aplicações em diversas áreas da ciência e da indústria. Em especial, este projeto foca em aplicações nas áreas de petróleo e gás, cosméticos e alimentos. Nestas áreas, destaca-se a presença de sóis, espumas e emulsões. Esses sistemas em geral apresentam estabilidade delicada e propriedades físico-químicas incomuns, ainda pouco estudadas na literatura, em comparação com outros sistemas. Além disso, muitos desses sistemas, especialmente nas áreas petrolífera contêm eletrólitos, fazendo com que estudos de dupla camada elétrica e especificidade iônica se tornem importantes. No setor petroquímico, buscam-se condições que diminuam a estabilidade das espumas formadas, diminuindo os gastos com substâncias antiespumantes. Já na área de cosméticos, procuram-se condições que estabilizem e tornem mais cremosas as espumas geradas. Por fim, na produção de cerveja, busca-se estabilizar a espuma, de forma a garantir a conservação das propriedades organolépticas do produto por mais tempo. Diferentes técnicas aplicadas em diferentes escalas podem ser utilizadas na modelagem de sistemas coloidais, tais como métodos implícitos, equações integrais e métodos explícitos. O objetivo geral deste trabalho é estudar as interações presentes em sistemas coloidais e a estabilidade de tais sistemas utilizando simulações por dinâmica molecular (DM), além de promover ferramentas de integração em escalas entre DM e teoria do funcional da densidade clássica e entre DM e equação de Poisson-Boltzmann modificada a fim de determinar propriedades macroscópicas dos sistemas estudados. Dentre os objetivos específicos, destacam-se: obtenção do potencial de campo médio (PMF) de íons em diluições infinitas em torno de interfaces formadas por óleo/água em função da distância em relação a essa interface (propiciando a posterior integração em escalas), cálculo da tensão superficial ou interfacial através de diferentes técnicas e análise do impacto de diferentes agentes surfactantes na estabilidade de coloides, de acordo com o sistema estudado. Uma pesquisa bibliométrica de fácil levantamento acerca da importância industrial do estudo de espumas e emulsões pode ser conduzida por meio da base de dados do GooglePatents. Delimitando a pesquisa para empresas contendo filiais nos estados de São Paulo ou Rio de Janeiro, verifica-se que a indústria farmacêutica e de cosméticos é uma das que mais depositam patentes sobre áreas correlatas às do presente projeto. No campo petroquímico, a empresa brasileira que mais investe em pesquisa, a PETROBRAS, também responde por um número significativo de patentes depositadas sobre o tema. A cultura industrial brasileira no que tange à pesquisa, novamente à exceção da Petrobrás, não é das mais animadoras. Uma das formas de atacar esta lacuna, aproximando empresas e universidades, consiste em produzir dentro das universidades pesquisas de ponta no tema, o que depende, além da formação técnica dos participantes dos projetos, da infraestrutura e dos recursos computacionais que permitam o desenvolvimento de tais estudos. Com isto, é possível ter núcleos de pesquisa de ponta dentro das universidades brasileiras, conciliando a geração de conhecimento científico com a produção de tecnologia.


Estudo da interação de peptídeos antimicrobianos (PAMs) com modelos de membrana celular por simulações de Dinâmica Molecular. (antimicmd)

Universidade Estadual Paulista
Departamento de Física
Coordenador: Alexandre Suman de Araujo
Áreas do conhecimento: Ciências biológicas; Física
Início da vigência: 14-10-2016

Os peptídeos antimicrobianos (PAMs) são moléculas produzidas por organismos vivos com a finalidade de combater agentes infecciosos. Alguns desses peptídeos são de grande interesse farmacêutico como antibióticos já que seu mecanismo de ação antibactericida, baseado no ataque à membrana celular, apresenta baixo potencial de desenvolvimento de cepas resistentes. Dentre os mais promissores se destacam os peptídeos extraídos da vespa social Polybia paulista e seus análogos sintéticos, que apresentam ação antibacteriana seletiva e baixa toxicidade. Um estudo recente analisou os efeitos de alterações no N-terminal dos análogos sintéticos L1A, Ac-L1A e ABZ-L1A sobre a conformação e ação lítica em misturas água-TFE e bicamadas lipídicas. Outro estudo mostrou que um desses peptídeos, o MP1, apresenta também ação antitumoral, o que aumenta o interesse farmacêutico por tal molécula. A utilização de simulações computacionais como ferramenta no estudo dos mais variados sistemas é hoje uma realidade. A análise conjunta de resultados oriundos de experimentos reais e virtuais permite um entendimento muito mais geral dos fenômenos envolvidos, acarretando numa caracterização mais completa dos sistemas em estudo. Dentre as inúmeras técnicas de simulação computacional existentes a Dinâmica Molecular (DM) é uma das mais difundidas atualmente, pois fornece resultados extremamente satisfatórios e confiáveis. Dentre as diversas grandezas que podem ser calculadas a partir de simulações de DM, os cálculos de energia livre (EL) possuem especial importância. Conhecer a variação da energia livre de um processo nos permite determinar a direção espontânea do mesmo, bem como a configuração de maior probabilidade. Um dos métodos mais utilizados atualmente para o cálculo do perfil de energia livre por um caminho de reação é o Adaptive Biasing Force (ABF). Com esse método é possível calcular a variação de energia livre por um ou mais caminhos de reação com um custo computacional muito menor que o requerido por outros métodos da mesma categoria. O presente projeto propõe a aplicação de tais métodos computacionais para investigar o processo de adsorção de PAMs em modelos de membrana, as alterações que a bicamada sofre com essa adsorção e as características físico-químicas que governam tal processo. Com isso, pretendemos contribuir de forma significativa para o desenvolvimento de peptídeos mais potentes e seletivos.


Estudo de Água em Interfaces Eletroquímicas (watredox)

Universidade Federal do ABC
Centro de Ciências Naturais e Humanas
Coordenador: Mauricio Domingues Coutinho Neto
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 16-07-2018

Interfaces eletroquímicas são componentes fundamentais em diversas aplicações tecnológicas. Desta maneira, o entendimento e controle dessas interfaces a nível microscópico é essencial para o desenvolvimento e consolidação de tecnologias como sistemas fotovoltáicos, sensores biológicos, etc. Particularmente, considerando que na maioria dos processos eletroquímicos, tais como eletrólise e eletrocatálise, tem-se água na forma de solvente ou reagente, é de extrema importância compreender os processos cinéticos e reações que ocorrem nas interfaces envolvendo água e eletrodos, bem como compreender as propriedades microscópicas da água. Assim, o uso de simulações atomísticas se torna fundamental para se obter uma compreensão mais detalhada em nível atômico e molecular. Considerando a natureza quântica dos fenômenos que ocorrem em interfaces eletroquímicas, simulações de primeiros princípios precisam ser consideradas. Nesta proposta propomos abordar duas questões de natureza fundamental para descrição de processos em eletrodos metálicos. No primeiro estudo propomos desenvolver e aplicar protocolos computacionais multiescala baseados em métodos QM/MM e cálculos de dinâmica molecular ao estudo de interfaces eletroquímicas envolvendo água e eletrodos metálicos de interesse para aplicações em energia e sensores biológicos. A motivação para o uso de métodos híbridos QM/MM e abordagens multiescala é a de contornar limitações de escala e tempo tipicamente presentes em simulações ab-initio. Simultaneamente pretendemos estudar as propriedades da água líquida e na interface com eletrodos metálicos utilizando técnicas de Machine Learning. Para aplicações em física, ML permite descobrir quais são as leis que produziram os dados usados no treinamento sem ter que assumir nenhuma forma específica para estas a priori, uma grande vantagem em relação aos processos de ajuste convencionais, nos quais se dá exatamente o oposto. Esta flexibilidade é importante no ajuste de funções (ou leis) complexas, como superfícies de energia potencial, pois permitem que a rede neural capte comportamentos sutis e difíceis de perceber, gerando assim, predições acuradas de forma computacionalmente mais eficiente. O objetivo desta etapa é o de desenvolver potenciais interatômicos (campos de força) para descrever as forças nas moléculas de água melhores do que os atualmente disponíveis na literatura.


Estudo de propriedades eletrônicas e físico-químicas de sistemas supramoleculares condutores e semicondutores (lmscunb)

Universidade de Brasília
Instituto de Química
Coordenador: Kleber Carlos Mundim
Áreas do conhecimento: Física; Química
Início da vigência: 16-09-2016

O estudo químico-computacional de sistemas supramoleculares com propriedades condutoras e semicondutoras vem crescendo substancialmente nas últimas décadas, graças aos avanços associados às novas metodologias de modelagem aplicada a ciência dos materiais. Ao mesmo tempo o estudo de propriedades eletrônicas de supramoléculas que apresentam propriedades condutoras/semicondutoras requer metodologias que proporcionem a determinação, acurada, de polarizabilidades, susceptibilidades magnéticas, densidades de corrente, fatores de blindagem e constantes de magnetização. Uma dessas realizações são os isolantes topológicos que são materiais com a ordem topológica não trivial que se comporta como um isolante no seu interior , mas cuja superfície contém estados dondutores de elétrons o que só podem mover-se ao longo da superfície do material . No entanto, a superfície condutora não é o carácter único de isolante topológico , uma vez que os isoladores da banda comuns também podem apoiar os Estados superfície condutora. O que é especial é que os estados de superfície de isoladores topológicos são protegidos simetria pelo número de partículas de conservação e simetria reversão do tempo. Pesquisas recentes mostram que isoladores topológicos são de fato um caminho para a realização computadores quânticos práticos, bem como dispositivos " spintrônica ", que são muito mais poderosos do que manipuladores de números. Outro campo bastante promissor dentro do campo de supramoléculas é o emprego de superfícies a base de grafenos em catálise molecular, cujas propriedades catalíticas podem ser moduladas ao se promover modificações (defeitos) em regiões específicas, tornando estas folhas a priori homogêneas em sistemas catalíticos com potenciais atividades em reações de hidrogenação, ciclizações, esterificações, condensações, etc. Inicialmente pretende-se aplicar a Teoria do Funcional de Densidade, através de funcionais B97xD, CAM-B3LYP, PBE1PBE e M06-2X e bases do tipo 6-31G e 6-311G (com e sem funções difusas e de polarização) e aug-cc-pVDZ. Estes cálculos serão importantes para a verificação de propriedades de ressonância magnética nuclear (blindagem, densidades de corrente, susceptibilidade magnética e anisotropia) para sistemas que possam apresentar atividades catalíticas e/ou condutoras. Análises de interação substrato-superfície, para catálise, serão realizadas também através de ensaios de dinâmica molecular. Os sistemas, que serão estudados ao longo deste projeto, apresentam em média 400 átomos de carbono, distribuídos em faixas, folhas de grafeno, e nanotubos contendo defeitos estruturais pela incorporação de átomos do grupo 13 da tabela periódica.


Estudo de sistemas bidimensionais do tipo grafeno (leelmat2d)

Universidade Federal de Santa Maria
Departamento de Física
Coordenador: Rogério José Baierle
Áreas do conhecimento: Física; Química
Início da vigência: 10-10-2017

O estudo teórico de materiais nanoestruturados (nanotubos, nanofitas e nanofios), em geral, é efetuado com base em procedimentos de primeiros princípios utilizando a teoria do funcional densidade (DFT). Esta técnica tem obtido grande sucesso a medida que os computadores tornaram-se mais velozes. Uma ênfase especial vem sendo dada a um material bidimensional a base de carbono (grafeno). Contudo, as aplicações tecnologícas do grafeno são limitadas a ausência de gap, o grafeno é um semicondutor de gap nulo ou também dito semi-metal. Outros materiais bidimensionais como o nitreto de boro (BN) e o carbeto de silício (SiC) vem se mostrando muito promissores. Nestes materiais temos a presença de um gap que pode ser ajustado controlando a estequiometria e/ou o potencial químico por componentes primários usados para sintetizar estas estruturas 2D. Utilizando estes procedimentos de cálculo pretendemos investigar as propriedades eletrônicas e estruturais de uma série de materiais que vem despertando grande interesse. Daremos ênfase especial aos materiais bidimensionais, pois estes apresentam grande potencialidade para serem utilizados em dispositivos eletrônicos miniaturizados em substituição aos atuais, porém com desempenho melhorado. Com relação ao método a ser utilizado, este é um método de primeiros princípios fundamentado na teoria do funcional densidade (DFT) O código computacional a ser utilizado inicialmente será programa SIESTA, futuramente outros códigos existentes no mercado poderão ser utilizados. Códigos computacionais mais simples muitas vezes serão de necessidade de desenvolvimento, porém a linguagem computacional será o FORTRAN a qual o orientador possui um bom conhecimento e é disciplina obrigatória do curso de física da UFSM, Como aplicações dos nossos estudos, pretendemos estudar a potencialidade destes materiais para armazenagem de hidrogênio, como nanosensores e sistemas magnéticos. Outros materiais que vem despertando interesse são o telureto de chumbo (PbTe) e o seleneto de chumbo (PbSe) que apresentam eficiência termoelétrica. Termoeletricidade é a conversão de energia térmica (geralmente perdida num dispositivo) em eletricidade. Esta a princípio é uma fonte limpa de energia que precisa ser bastante explorada. Resultados recentes obtidos no nosso laboratório apresentam que nanoestruturas a base de PbTe e PbSe apresentam uma eficiência termoelétrica que pode levar a produção de dispositivos termoelétricos. Acreditamos que este projeto deverá ser de grande utilidade para o crescimento da compreensão física acerca de novos materiais. Podendo trazer a luz novos horizontes para uma inovação tecnológica na área de materiais nanoestruturados.


Estudo do acoplamento entre sawteeth and tearing modes no tokamak TCABR (ntm)

Universidade de São Paulo
Departamento de Física Aplicada
Coordenador: Gustavo Paganini Canal
Áreas do conhecimento: Física
Início da vigência: 17-11-2017

The potential of nuclear fusion to provide a practically inexhaustible source of clean and renewable energy has motivated scientists to work toward developing nuclear fusion power plants. In this work, an outstanding issue encountered on the road toward the development of nuclear fusion will be addressed, namely the seeding of neoclassical tearing modes (NTMs) by sawteeth (ST) in tokamak plasmas. Although ST and NTMs have been intensively investigated over the last decades, a validated quantitative theory of the triggering of NTMs by ST remains to be developed. Many tokamaks observed that ST of sufficient duration may trigger NTMs that can lead to plasma performance degradation and/or disruptions, depending on the plasma conditions. From constraints imposed on the plasma performance, the onset of NTMs poses a threat to the main goal of ITER, which is a prototype intended to demonstrate sustained burning plasma operation with a fusion power gain factor Q = 10. This work seeks to investigate the mechanisms of NTM seeding by ST using the TCABR tokamak, located at the Laboratório de Física de Plasmas - LFP, Instituto de Física, Universidade de São Paulo. Experiments will be carried out in order to investigate the non-linear dynamics involved in the NTM seeding by the modes generated during the ST crash. To provide a better understanding of the dynamics behind mode coupling, the experimental measurements will be interpreted by numerical modeling using M3D-C1, which is a state-of-the-art code for plasma modeling that has recently been developed at the Princeton Plasma Physics Laboratory, Princeton, USA. Understanding the different possible mechanisms behind NTM seeding is of utmost importance for the development of controlled thermonuclear fusion as an economically viable energy source. The knowledge acquired during this work could lead to the development of a model in which the relative contribution from distinct seeding mechanisms and their scalings are known. This model could ultimately then be used predictively to indicate zones of safer operation at higher plasma pressures in existing tokamaks worldwide and in the design of future devices.


Estudo exploratório sobre técnicas e mecanismos para paralelização automática e offloading de código em sistemas heterogêneos (APCO)

Universidade Tecnológica Federal do Paraná
Departamento Acadêmico de Computação
Coordenador: Rogerio Aparecido Goncalves
Áreas do conhecimento: Ciência da computação
Início da vigência: 12-06-2017

O objetivo é investigar técnicas e mecanismos para a paralelização automática de código e de offloading de código para dispositivos aceleradores em plataformas heterogêneas. Cada vez mais as plataformas de processamento paralelo são compostas por elementos heterogêneos, CPUs multi-core e aceleradores como GPUs manycores e arranjos de coprocessadores (Xeon Phi). Quando esses elementos são integrados, o poder de processamento dessas plataformas pode ser potencializado. Entretanto, do lado do software há a necessidade de modernização de aplicações de código legado para usarem novos recursos como por exemplo, instruções de vetorização (simd). Mesmo com a utilização de recursos locais de cada núcleo, pode acontecer de que a carga de trabalho ultrapasse sua capacidade individual e da execução paralela em sistemas multi-core. No caso da capacidade de sistemas multi-core não ser suficiente para a demanda de processamento ou simplesmente pela disponibilidade de dispositivos aceleradores, existe a possibilidade do uso de técnicas e mecanismos para o offloading de código para aceleradores como GPUs ou coprocessadores Xeon Phi. Estas plataformas modernas com processadores multi-core e dispositivos aceleradores, mesmo fornecendo kits de desenvolvimento aos seus usuários, requerem que o programador declare explicitamente todas as transferências de dados entre as memórias dos dispositivos e o lançamento da execução de kernels para os dispositivos aceleradores. Para amenizar essa condição, ferramentas e abordagens tem sido propostas para gerar código para essas plataformas. Entre as abordagens que tem se destacado, tem-se o uso diretivas de compilação e a paralelização automática, cujo objetivo é destacar automaticamente regiões de código paralelizáveis. As diretivas de compilação são amplamente conhecidas e utilizadas. Anotações no código guiam o processo de compilação, no qual as transformações e modificações de código são aplicadas às regiões anotadas e uma versão paralela de código é então gerada para execução em um ambiente de execução OpenMP. As implementações de runtimes OpenMP (GCC + LibGOMP e Intel icc + OpenMP* Runtime Library (libomp)) trazem a possibilidade de utilização de CPUs multi-core, e também do uso de aceleradores e coprocessadores. As duas abordagens tratam do processo de identificação das regiões paralelizáveis, que ocorre ou por anotação ou pela detecção automática, mas o offloading de código será obrigatoriamente feito quando o fluxo de execução alcançar determinada região paralelizável. O offloading de código acontece nas duas abordagens, mas sem uma decisão automática. Um runtime relacionado com paralelização automática e offloading de código baseado em versões de código para laços paralelos foi desenvolvido na tese de doutorado proponente. O código de entrada é um código OpenMP preparado com funções alternativas contendo versões de código do laço paralelo para cada um dos dispositivos aceleradores. As bibliotecas do runtime interceptam algumas chamadas que as aplicações fazem ao runtime do OpenMP usando uma técnica de hooking. A decisão sobre o offloading de código é tomada automaticamente em tempo de execução usando a intensidade operacional que é obtida aplicando-se conceitos do Modelo Roofline.


Estudo Teórico do Processo Catalítico para Reações Químicas de Reforma em "loop" Aplicado à Produção de Hidrogênio (h2rural)

Universidade Federal Rural do Rio de Janeiro
Instituto de Química
Coordenador: Antônio Marques da Silva Júnior
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 12-07-2018

Com o crescimento atual da demanda energética, se torna preocupante a utilização majoritária de combustíveis de origem fóssil, devido ao seu auto grau poluente. Desta forma, tem-se buscado a implementação de fontes alternativas limpas e que sejam economicamente viáveis. Um forte candidato a este papel é o hidrogênio molecular, por ser renovável, sustentável e apresentar menor impacto ambiental. Um dos métodos para a produção de H2 é o processo “chemical looping combustion”. Este é caracterizado por duas reações químicas paralelas e fisicamente separadas, sendo uma de oxidação de um catalisador óxido metálico, por exemplo 12FeO + 4H2O = 4Fe3O4 + 4H2; e outra de oxidação de um composto orgânico hidrogenado, CH4 + 4Fe3O4 = CO2 + 2H2O + 12FeO, que pode ser proveniente de gases gerados em aterros sanitários, etanol ou oriundo da gaseificação de biomassa. Somadas, as duas equações utilizadas como exemplo resultam em: CH4 + 2H2O = CO2 + 4H2. Tais reações de reforma já haviam sido utilizadas no século XIV, porém o rápido envenenamento dos óxidos, utilizados então nas formas naturais de ocorrência, por conta da formação de coque inviabilizou o processo. Entretanto, a partir de 2014 mostrou-se que, se empregados na forma de nanopartículas suportadas, tal deposição de coque não ocorre, despertando novamente um significativo interesse das comunidades científica e industrial. Adicionalmente, a produção em duas etapas separadas é uma das grandes vantagens desse processo, pois evita a necessidade de subsequentes estágios de purificação e remoção de subprodutos. Alguns catalisadores diferentes podem ser utilizados, sendo que os constituídos a base de Fe são comparativamente baratos, disponíveis em grandes quantidades e relativamente pouco agressivos ao meio ambiente. O presente projeto compõe a parte teórica de um estudo teórico-experimental de catalisadores que sejam capazes de realizar de modo eficiente a reação de reforma em “loop” químico. Do ponto de vista da ciência básica, tem-se como objetivo preencher lacunas teóricas ainda existentes na literatura sobre mecanismos, a nível molecular, tando de oxidação dos catalisadores, quanto de oxidação dos compostos orgânicos. Já do ponto de vista da ciência aplicada, uma vez identificadas computacionalmente a influência de variáveis importantes dos óxidos metálicos, como polimorfismos, defeitos e estados eletrônicos, pretende-se utilizar tais informações com finalidade experimental, modulando racionalmente a eficiência do processo de geração de H2.


Estudo Teórico-Computacional de Zeólitas com Aplicações em Catálise e Adsorção. (chaersd)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Marco Antonio Chaer do Nascimento
Áreas do conhecimento: Química
Início da vigência: 26-10-2016

Trata-se de um sub-projeto do Núcleo de Excelência em Funcionalização de Hidrocarbonetos, do IQ/UFRJ, que visa: a) o desenvolvimento de metodologias para a produção de compostos químicos, de alto valor comercial, a partir de matéria prima abundante no país, através de reações de funcionalização de hidrocarbonetos usando zeólitas; b) o reaproveitamento do catalisador exausto na produção de materiais de importância tecnológica, tais como materiais retardantes de chama e antimicrobianos, e c) sua utilização como adsorventes. Em termos de aplicações práticas, este sub-projeto pretende ampliar a compreensão dos mecanismos pelos quais as zeólitas atuam como catalisadores e adsorventes em processos industriais de grande importância econômica. A partir dessa compreensão, tornar-se- á possível contribuir para a concepção e para o desenvolvimento de: (a) novos catalisadores para importantes processos industriais, sobretudo nas indústrias de refino do petróleo e petroquímica, capazes de promover reduções de custos e melhor aproveitamento do petróleo e do gás natural; (b) novos adsorventes para separações gasosas de interesse da indústria do petróleo e gás e da indústria de produção de gases especiais; (c) novos adsorventes para armazenamento de hidrogênio e metano; e (d) novos adsorventes para captura do dióxido de carbono emitido por grandes fontes estacionárias (usinas termelétricas, siderurgia, produção de cimento, etc), com efeitos positivos na redução do aquecimento global.


Fast Strong Gravitational Lensing Simulations (lenssims)

Universidade Federal do Rio de Janeiro
Instituto de Física
Coordenador: Miguel Boavista Quartin
Áreas do conhecimento: Astronomia; Física
Início da vigência: 21-06-2017

A luz proveniente de fontes cosmológicas estão sujeitos a diversos efeitos, como redshift gravitacional, espalhamento Compton inverso, efeito Sachs-Wolfe integrado, aberração e efeito Doppler. De especial valor para este projeto é o efeito de lenteamento gravitacional, no qual a distribuição de matéria entre fonte e observador agem como lentes distorcendo o formato das suas imagens e alterando seu brilho total (ora magnificando, ora demagnificando). Desta forma, fontes cosmológicas carregam não somente informações da distribuição de matéria no plano onde a fonte se encontra, mas também entre si e o observador. É portanto natural que diversos levantamentos sejam feitos aproveitando-se destes efeitos para extrair informações sobre o Universo. Isto é o caso em particular do DES (do qual o Brasil é membro) e do LSST (para o qual o Brasil está em vias de se tornar um membro). Para tanto, é necessário estudar como as estatísticas de lenteamento modificam-se na medida que diferentes cosmologias e modelos de gravitação são considerados. Neste projeto propõe-se minuciar justamente estas mudanças criando uma suíte de simulações de lenteamento gravitacional baseadas em: pertubações lagrangianas (para prever a estrutura em larga escala do universo) e modelagem semi-analítica (para reproduzir as estruturas em pequena escala observadas em simulações de N-corpos). Espera-se, assim, estudar com maior precisão o efeito de diferentes parâmetros cosmológicos. Tal análise, embora de grande relevância, nunca foi realizada devido aos altos custos computacionais de tais simulações. Em seu lugar, diversas aproximações simplistas fizeram-se necessárias. Neste projeto vamos abrir mão de tais aproximações com o uso de um código recentemente publicado que permite grande ganho em eficiência computacional para este tipo de análise. Este esforço é importante pois abre as portas para a exploração da cosmologia no regime de lenteamento gravitacional forte, uma técnica muito complementar às demais empregadas nos grandes levantamentos supracitados. O cruzamento de diferentes técnicas observacionais é capaz de aprimorar enormemente os vínculos nos parâmetros cosmológicos devido ao fato de que diferentes técnicas possuem diferentes dependências funcionais nestes parâmetros. De fato, acredita-se que apenas com o uso desta correlação cruzada permitirá elucidar a natureza da Energia Escura, a misteriosa causa da observada aceleração da expansão do universo.


Filogenomica e biogeografia comparada de três famílias de aves Neotropicais (EBBA)

Instituto Nacional de Pesquisas da Amazônia
Coordenação de Biodiversidade
Coordenador: Camila Cherem Ribas
Áreas do conhecimento: Biodiversidade; Ciências biológicas
Início da vigência: 30-05-2017

Este trabalho está vinculado ao projeto “Assembly and evolution of the Amazonian biota and its environment: na integrated approach”, uma colaboração do National Science Foundation (NSF) e da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Essa colaboração tem por objetivo propor uma nova síntese sobre a história evolutiva da biodiversidade Amazônica ao estudar 4 grupos taxonômicos (borboletas, plantas, aves e primatas), abordando aspectos da distribuição dos táxons reconhecidos atualmente, construção de filogenias moleculares com dados de NGS, reconhecimento de novas linhagens e a relação entre a origem dessas linhagens e os eventos associados a formação da bacia Amazônica. Este trabalho será o primeiro a prover uma filogenia completa das famílias Trogonidae, Galbulidae e Bucconidae, utilizando dados de NGS. A amostragem do estudo irá utilizar todos os táxons descritos (subespécies) e para a região Amazônica será utilizada uma amostragem mais densa, de modo a abranger todas as áreas de endemismo, o que irá possibilitar uma comparação multi táxon ainda não realizada para a região. Os Ultra-conserved Elements (UCE) são regiões do genoma altamente conservadas e compartilhadas por vários táxons. Apesar de serem regiões altamente conservadas, as regiões flanqueadores desses genes possuem mutações suficientes para determinar a relação de parentesco entre indivíduos, mesmo os mais distantes. A eficiência na utilização dos UCEs já foi demonstrada para recuperar tanto relações mais antigas, quanto as mais recentes (McCormack et al., 2012; Faircloth et al., 2013; McCormack et al., 2013; Smith et al., 2013, Manthey et al., 2016). Assim, com o auxílio de técnicas de NGS, é possível obter centenas de loci por corrida, o que facilita a análise de diversos grupos simultaneamente. Isso deve resolver o impasse sobre as relações filogenéticas entre as espécies de cada família e proporcionará a comparação das filogenias de vários táxons distintos, o que trará maior confiança nas hipóteses biogeográficas (Lexer et al., 2013) e nas relações filogenéticas. Além disso, a utilização de tantos loci e a amostragem mais densa irá permitir testar a estruturação intraespecífica e verificar se a atual taxonomia reflete a real diversidade das linhagens. Além da importância sistemática e taxonômica deste trabalho, a ampla amostragem nas reconstruções filogenéticas fará com que as análises biogeográficas tenham uma melhor resolução. A amostragem mais densa na região Amazônica irá possibilitar a comparação multi táxon sobre os possíveis eventos que deram origem a alta biodiversidade Amazônica. O estudo do gênero Psophia (Aves: Psophiidae) (Ribas et al., 2012) já revelou a importância da reconfiguração da bacia Amazônica na diversificação das espécies deste gênero, ao propor que a origem das espécies pode estar correlacionada à origem e reconfiguração dos principais rios presentes na bacia Amazônica. O mesmo resultado foi encontrado para o gênero Malacoptila (Aves: Bucconidae) (Ferreira et al.,2016), no entanto, algumas espécies do gênero Malacoptila apresentam mais de uma linhagem por área de endemismo, em alguns casos, essas linhagens nem são grupos próximos, o que demonstra que a diversificação não está correlacionada a apenas um evento.


High-Fidelity Numerical Simulations of Wall-Bounded Turbulent Flows (hfwbtf)

Instituto de Aeronáutica e Espaço
Divisão de Aerodinâmica
Coordenador: João Luiz Filgueiras de Azevedo
Áreas do conhecimento: Engenharias
Início da vigência: 24-07-2018

A presente proposta foi criada a partir de um projeto de colaboração internacional entre o Instituto de Aeronáutica e Espaço (IAE), Universidade de Campinas (UNICAMP), Instituto Tecnológico de Aeronáutica (ITA) e École Nationale Supérieure d'Arts et Métiers (ENSAM-ParisTECH), da França. A mesma visa diversas aplicações científicas e tecnológicas, como por exemplo, na área de energia eólica, engenharias mecânica e aeronáutica. O foco principal é o estudo de escoamentos compressíveis na presença de paredes sólidas, o que é típico em aplicações de engenharia e muito desafiador. As configurações investigadas incluem aerofólios, canais e trens de pouso. Existe o interesse em análise da física da turbulência, um dos "Millennium Prize Problems" de matemática, além da geração de ruído, tema atual devido às recentes restrições de emissão de ruído para aviação civil. Simulações de grandes escaladas, LES, com alta resolução e formulações híbridas RANS-LES, são as abordagens escolhidas para serem aplicadas na presente proposta. Estas abordagens serão aplicadas para os escoamentos de interesse com o objetivo de capturar mecanismos aerodinâmicos transientes e os correspondentes efeitos acústicos. Para o caso de estudo de escoamento sobre aerofólios e escoamentos em canais, esquemas numéricos de diferenças finitas de alta ordem e alta resolução serão empregados usando LES para a solução de estruturas turbulentas mais energéticas com o mínimo possível de adição numérica de fenômenos dissipativos e dispersivos sobre estruturas turbulentas. Com intuito de obter soluções acuradas, malhas estruturadas serão desenvolvidas para a resolução de camadas limites sobre as configurações de aerofólio e canais. Para o estudo de trens de pouso, a abordagem híbrida pode ser empregada para o cálculo dos escoamentos turbulentos. Este tipo de abordagem é capaz de capturar as estruturas mais energéticas do escoamento que são responsáveis pela geração de ruído. Esta formulação implica modelamento de turbulência sobre regiões onde as escalas de alta frequência estão presentes ou em regiões onde existe a presença de malhas de menor resolução. É importante lembrar que este tipo de abordagem é menos custosa quando comparada à formulação LES com resolução de parede. Diferentemente das configurações de aerofólio, trens de pouso apresentam diversos detalhes geométricos adicionais com diferentes escalas de comprimento. Esses detalhes não podem ser devidamente resolvidos usando malhas estruturadas e métodos de alta-ordem de precisão. Neste sentido, técnicas de discretização do tipo volumes finitos serão empregadas juntamente com malhas não estruturadas híbridas.


HPC4-Geophysics (hpc4ewp6)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Civil
Coordenador: Alvaro Luiz Gayoso de Azeredo Coutinho 2
Áreas do conhecimento: Ciência da computação; Engenharias; Geociências; Matemática
Início da vigência: 23-09-2016

This proposal is meant to support the project HPC4E (Supercomputing for Energy, http://www.hpc4e.eu) from the European Union's Horizon 2020 Programme (2014-2020) and from Brazilian Ministry of Science, Technology and Innovation through Rede Nacional de Pesquisa (RNP), grant agreement n° 689772. HPC4E aims at finding solutions to future energy problems by means of simulations, using the fastest HPC infrastructures and software solutions available. In this proposal we want to provide the means to 1) improve seismic imaging algorithms used to obtain accurate maps of the subsurface from field data and to 2) model possible geological configurations, particularly to understand the role of turbidite currents in the formation of oil reservoirs in a massive and accurate way, which will help interpreting the aforementioned subsurface images. Turbidity currents, a special type of gravity current, are responsible for the formation of the majority of Brazilian offshore reservoirs. Both objectives are coincident with those present in the HPC4E project. The first objective aims at improving the performance of kernels, which take more than 95% of the computational effort in the imaging workflow and thus are the speed and energy bottleneck of the whole process. The second objective requires massively parallel computational fluid dynamics applications together with uncertainty estimation. Both objectives rely on computationally expensive simulation runs, but also on aggregating results and distributing tasks in an efficient manner which, as we require tens of thousands to millions of runs, might take a larger overhead in the overall compute time. Thus we will use workflow + simulator bundles for both problems, in order to be as close as possible to real future applications. Last but not least, we wish to remark that this proposal will be lead by both the European and Brazilian coordinating institutions (BSC-CNS and COPPE) of HPC4E in an international effort towards the exascale in exploration geophysics. By means of SDumont resources we aim at using BSIT (see below for a description) as an evaluator of the challenges and opportunities posed by the latest Xeon Phi HPC and GPGPUs hardware for real-life geophysical imaging scenarios. Furthermore, we will draw comparisons in terms of total time and energy between various general purpose architectures and report conclusions useful for all the geophysical imaging community, including industry and academia. Regarding sedimentological modelling, we wish to test scalability of libMesh-sedimentation: an adaptive-grid 3D finite element solver for incompressible flow+transport. The solver will be applied then to polydisperse mixtures in turbulent flows to analyze parameter sensitivity and hence reach unprecedented quantitative knowledge of the most likely geological composition of reservoirs. As a sister project to the two-year project HPC4E, we believe that the need to extend this proposal to two years is sensible. The project has several HPC-related goals which will benefit from SDumont resources, although spread in a two-year scenario. Furthermore, this is a collaborative project where coordination activities must be pursued, hence shifting from a concentrated one-year project, we prefer a moderately intensive project running for a longer period of time. A matching Project has been submitted to PRACE ( http://www.prace-ri.eu/), the European HPC Ecosystem.


Inferência Bayesiana e a Evolução da Galáxias em Diferentes Ambientes (galphat)

Instituto Nacional de Pesquisas Espaciais
Laboratório Associado de Computação e Matemática Aplicada
Coordenador: Reinaldo Roberto Rosa
Áreas do conhecimento: Astronomia; Ciência da computação
Início da vigência: 30-06-2017

Nas últimas décadas, especial atenção tem sido dada à modelagem de sistemas galáticos, uma vez que a caracterização de suas componentes como bojo, disco, fontes pontuais centrais, e outras de menor contribuiçãoem massa, mostrou ser um importante diagnóstico de processos físicos que determinam a evolução desses sistemas, e em particular sua dependência com o ambiente onde a galáxia reside. Os vários mecanismos que podem transformar o tipo morfológico de uma galáxia, podem influenciar de maneira significativa sua história de formação estelar e consequentemente a contribuição relativa de componentes como bojo e disco, principalmente. Numa primeira fase deste projeto utilizamos recursos do cluster disponível no INPE para implementar um programa de modelagem de imagens de galáxias usando inferência Bayesiana, denominado GALPHAT (GALaxy Photometric ATtributes). Este programa foi desenvolvido pelo grupo de cosmologia da Universidade de Massachusetts liderado pelo Dr. Martin Weinberg.GALPHAT processa uma imagem de galáxia em 1.5 horas para um modelo simples de Sérsic e cerca de 6 horas para um modelo de Sérsic mais uma exponencial (componente disco). Assim, para processarmos 40.000 galáxias em 4 bandas fotométricas (160.000 imagens), que é o objetivo desta proposta, necessitaríamos de alguns anos de processamento. Estas estimativas evidenciam a necessidade de um sistema com a tecnologia Mic60 como o Super Computador Santos Dumont que nos permita processar grandes quantidades de imagens numa escala de tempo de algumas semanas no máximo. Ainda nesta primeira etapa, além de implementar o programa GALPHAT, desenvolvemos um ambiente de processamento que acessa, processa e analisa um grande número de imagens de forma automática, disponibilizando os dados em uma estrutura de banco de dados que pode ser consultado de maneira simples. Este ambiente de processamento foi desenvolvido em Python e foi submetido a publicação ao Astronomical Journal. Então, nosso uso do Super Computador Santos Dumont envolveria apenas um benchmark, um único processamento completo de todas as imagens mencionadas, e assim, saberíamos quanto tempo este processamento demora em um Super Computador com as especificações técnicas do Santos Dumont. Importante lembrar que a inferência Bayesiana, por permitir a análise de toda a distribuição de probabilidade do modelo, ao invés de somente um valor de máxima probabilidade resultado da análise frequentista, não foi ainda utilizada neste problema de determinação das componentes que constituem uma galáxia. GALPHATé o único programa do gênero e temos já desenvolvida toda a estrutura básica necessária para processar grande quantidade de imagens. A amostra que pretendemos estudar foi analisada do ponto de vista fotométrico e espectrocópico no projeto SPIDER (Spheroids Panchromatic Investigation in Different Environmental Regions), sendo que a análise fotométrica foi essencialmente frequentista e assumia que as galáxias eram simplesmente descritas por uma só componente, lei de Sérsic. Neste projeto exploraremos a potencialidade da inferência Bayesiana e a possibilidade de estender esta estratégia para um conjunto de várias modelagens onde possamos combinar todas as componentes observadas em galáxias elípticas, como bojo, disco e fonte pontual.


Interações entre desmatamento, clima e agricultura nas fronteiras agrícolas brasileiras (desmclima)

Universidade Federal de Viçosa
Departamento de Engenharia Agrícola
Coordenador: Marcos Heil Costa
Áreas do conhecimento: Ciências agrárias; Geociências; Meteorologia
Início da vigência: 28-08-2018

Com o aumento da demanda por alimentos de uma população crescente e os impactos negativos das mudanças climáticas globais, espera-se que a demanda por terras agrícolas leve ao desmatamento continuado em regiões tropicais nas próximas décadas. Porém, diversos estudos mostram que a substituição da vegetação nativa nessas regiões influencia o clima tanto indiretamente, com a emissão de gases estufa (GHGs), quanto diretamente, ao alterar os fluxos de energia e água da superfície para a atmosfera. As consequências diretas tendem a ser de aumento de temperaturas e redução tanto da precipitação totalquanto da duração da estação chuvosa nas fronteiras agrícolas brasileiras na amazônia e no cerrado. Essas mudanças por sua vez são prejudiciais às atividades agrícolas predominantes na região, principalmente aos rentáveis sistemas de dupla safra soja-milho que já respondem por mais da metade das safras brasileiras de soja e milho. As influências do desmatamento no clima dependem de interações complexas com fenômenos meteorológicos de larga escala cujas características vem se alterando com mudanças globais devidas ao aumento da concentração de GHGs, que tornam necessária a utilização de modelos globais do sistema terrestre (ESMs) para se compreender como o clima deve mudar sob as duas forçantes combinadas. embora simulações desse tipo sejam periodicamente realizadas no âmbito dos Climate Model Intercomparison Projects, esses experimentos não contemplam detalhes da dinâmica de uso do solo no Brasil, que causam significativas variações regionais no clima. Os objetivos deste projeto são investigar (1) mudanças no clima da amazônia e no cerrado sob diferentes cenários futuros de desmatamento e concentração de GHGs e; (2) as conseuquentes mudanças na produtividade agrícola. Para estimar as mudanças no clima, será utilizado o Community Earth System Model (CESM), um modelo estado da arte do sistema terrestre que será rodado no LNCC. Para avaliar os efeitos dessas mudanças na agricultura será utilizado o modelo agrometeorológico InLand. Este será o primeiro trabalho a investigar detalhadamente a interação das mudanças globais no clima com o desmatamento na região. Os resultados esperados serão importantes para planejamento territorial, conservação de biomas e desenvolvimento de estratégias de grande escala para a agricultura e outros setores da economia que dependem do clima, como geração de energia elétrica.


Interfaces em Materiais: Propriedades Eletrônicas, Magnéticas, Estruturais e de Transporte (emt2d)

Centro Nacional de Pesquisa em Energia e Materiais
Laboratório Nacional de Nanotecnoloiia
Coordenador: Adalberto Fazzio
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 21-06-2018

Materiais 2D, tais como o grafeno, apresentam propriedades únicas que permitem sua aplicação como dispositivos fotocatalíticos, heteroestruturas de van-der-Waals (vdW), isolantes topológicos (TI) entre outras. Atualmente, apenas alguns materiais 2D podem ser esfoliados ou sintetizados, como por exemplo, grafeno, 2D-Xenos monoelementares (X = Si, Ge, Sn, P, B, P), nitretos de boro, mono- e di-calcogenetos (TMDs), e recentemente bismuteno. A infuuncia do substrato em suas propriedades estruturais e eletrônicas, assim como sua estabilidade térmica e propriedades vibracionais quanto autossustentável são objeto de interesse da comunidade científca, cuja elucidação permitirá a confecção de, por exemplo, dispositivos spintrônicos. Para o estudo das propriedades estruturais e eletrônicas destes sistemas, nosso grupo utiliza métodos teóricos de primeiros princípios baseados na Teoria do Funcional da Densidade (DFT) e em métodos Tight-Binding (TB). A DFT é utilizada para descrever as os parâmetros estruturais e estrutura de bandas destes materiais, de modo a identifcar transições topológicas e transporte eletrônico. Parâmetros de hopping e on-site são obtidos destes cálculos para alimentar modelos TB cuja interpretação é mais intuitiva. Em seguida à compilação de uma base de dados com os resultados dos cálculos, nosso objetivo é o desenvolvimento de algoritmos de Machine Learning (ML) capazes de predizer propriedades de interesse em novos materiais 2D. A aplicação destes algoritmos, após o devido treinamento,em bases de dados disponíveis para a comunidade de Ciuncia de Materiais pode levar ao descobrimento de propriedades emergentes em novos materiais assim como em outros já conhecidos.


Investigação computacional dos mecanismos catalíticos das 2',5'-fosfodiesterases envolvidas na inibição da via antiviral inata OAS/RNase L (bitzer25pde)

Centro Universitário Serra dos Órgãos
Centro de Ciências da Saúde
Coordenador: Rodrigo da Silva Bitzer
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 28-07-2018

Embora a atividade antiviral de interferons (IFNs) do tipo I seja conhecida há mais de sessenta anos, muitos questionamentos acerca dos seus eventos reguladores ainda residem na literatura. Células do sistema imune inato, sobretudo células dendríticas plasmocitoides e macrófagos, secretam IFNs do tipo I em resposta à invasão do organismo por vírus. Tais citocinas atuam de maneira autócrina e parácrina estimulando, entre outras, a via OAS/RNase L, que reconhece moléculas de dsRNA virais, oriundas tanto de vírus de DNA como de vírus de RNA, e produz uma resposta enzimática capaz de degradar tanto ssRNA viral quanto celular, induzindo um estado antiviral no hospedeiro. A resposta antiviral promovida pela via OAS/RNase L é intermediada por 2',5'-oligoadenilatos 5'-trifosforilados (2-5As), ppp5'A2'(p5'A2')n (n ≥ 2), e 2',5'-oligoadenilatos 5'-OH (desfosforilados) (2-5A*s), 5'A2'(p5'A2')n (n ≥ 2). Entre os mecanismos celulares e patogênicos que culminam na inibição da via OAS/RNase L, encontra-se a hidrólise de 2',5'-oligoadenilatos ativos catalisada por 2',5'-fosfodiesterases (2',5'-PDEs). Duas 2',5'-PDEs respondem pela regulação do turnover intracelular de 2-5A(*)s: 2'-PDE ("2',5'-phosphodiesterase 12"; EC 3.1.4.-) e AKAP-7γ ("A-kinase anchor protein 7 isoform γ"). Não obstante algumas hipóteses já terem sido aventadas, os mecanismos catalíticos das 2',5'-PDEs ainda carecem de elucidação. Diversos vírus, incluindo vírus da febre amarela, vírus Chikungunya, vírus da dengue e do oeste do Nilo, poliovírus, vírus influenza A, rotavírus e membros da família coronavírus, sintetizam suas próprias 2',5'-PDEs (homólogas a AKAP-7γ) ou utilizam 2',5'-PDEs do hospedeiro para degradar (patologicamente) 2-5A(*)s e escapar do estado antiviral induzido pela via OAS/RNase L. Neste contexto, evidências experimentais sugerem que o desenvolvimento de inibidores de 2',5'- PDEs (humanas e virais) talvez ofereça terapias antivirais mais abrangentes e eficazes do que aquelas focadas apenas em enzimas virais. É imprescindível, portanto, que os mecanismos catalíticos das fosfodiesterases 2'-PDE e AKAP-7γ sejam elucidados computacionalmente, fornecendo subsídios estruturais para o desenho racional de drogas antivirais de amplo espectro, capazes de fortalecer a resposta antiviral inata através da inibição competitiva do catabolismo de 2-5A(*)s.


Laboratório de Aprendizado de Máquina em Finanças e Organizações (lamfo)

Universidade de Brasília
Departamento de Administração
Coordenador: Pedro Henrique Melo Albuquerque
Áreas do conhecimento: Administração; Economia; Probabilidade e estatística
Início da vigência: 07-12-2018

O LAMFO (Laboratório de Aprendizado de Máquina em Finanças e Organizações - lamfo.unb.br) é um grupo de pesquisa certificado pelo Decanato de Pesquisa e Pós-Graduação (DPP) da UnB, considerando a Resolução CPP/UnB 002/2012. Especificamente, o LAMFO é um centro destinado a desenvolver, aplicar e estudar fenômenos organizacionais nas mais diversas áreas do conhecimento, como Marketing, Logística, Administração Pública, Gestão de Pessoas e Finanças. Para tanto, utiliza sistemas de inovação tecnológica como Algoritmos de Aprendizado de Máquina, Sistemas especialistas e construção de processos automatizados. O LAMFO visa o preenchimento de uma lacuna pertinente na construção do conhecimento científico em um contexto de integração informacional e automação, notadamente no tocante à contribuição do debate multidisciplinar e à promoção de novas linhas de pesquisa tecnológica, não apenas para a esfera teórica e acadêmica, mas também permeando o ambiente corporativo na edificação do bem-estar social. Esse projeto especificamente trata da estimação da probabilidade de automação de ocupações brasileiras por meio de Gaussian Process com Automatic Relevance Determination. Ao estimar essas probabilidades, políticas públicas poderão ser aplicadas para se reduzir o possível desemprego de trabalhadores qualificados, bem como orientar quais profissões precisam de treinamento ou oferta de trabalhadores. Os dados já foram coletados, mas o processo de treinamento requer o uso de múltiplos núcleos e GPU para que o ARD seja realizado. Mais detalhes sobre o projeto pode ser consultado aqui na versão draft do artigo: https://v2.overleaf.com/read/rwcqsyvrqqrk Não obstante, além desse projeto específico, desejamos que os demais projetos do LAMFO que necessitem de um extenso esforço computacional utilize o SDumont.


Laboratório Virtual de Processamento de Alto Desempenho (lapad)

Instituto Tecnológico de Aeronáutica
Divisão de Ciência da Computação
Coordenador: Jairo Panetta
Áreas do conhecimento: Ciência da computação
Início da vigência: 26-01-2017


Large Eddy Simulations of Supersonic Jet Flow Configurations (lessjf)

Instituto de Aeronáutica e Espaço
Divisão de Aerodinâmica
Coordenador: João Luiz Filgueiras de Azevedo
Áreas do conhecimento: Engenharias
Início da vigência: 27-09-2016

New acoustics design constraints have encouraged the recent studies of aeroacoustics fields around compressible jet flows. The Large eddy simulations have been used with success by the scientific community to study the dynamics of such flow configuration. The LES results are used as input for the Ffowcs Williams and Hawkings (FWH) analogy in order to study the aeroacoustic of the jet in a region far from the source. Instituto de Aeronautica e Espaco (IAE) is interested in this approach for rocket design applications. Therefore, the current work addresses the large eddy simulation of unsteady turbulent compressible jet flows in order to generate data for aeroacoustic studies using FWH analogy. A novel tool is developed in order to reproduce high fidelity results of compressible jet flows. Large eddy simulations demands very refined meshes. Hence, high performance computing (HPC) is a requirement for such simulations. Therefore, the numerical solver is written in a HPC fashion. The communication between processors are performed by message passing interface protocols. The large eddy simulation formulation is written using the finite difference approach. Inviscid numerical fluxes are calculated using a second-order accurate centered scheme with the explicit addition of artificial dissipation. The viscous fluxes are calculated using a second-order centered scheme. A five steps second-order accurate Runge-Kutta is the chosen time marching method. The energy equation is carefully discretized in order to model the energy equation of the filtered Navier Stokes formulation. The static Smagorinsky, the dynamic Smagorinsky and the Vreman subgrid closures are available in the present tool.


Mecanismo de oxidação de carbetos de metais de transição (moc)

Universidade Federal do Rio de Janeiro
Departamento de Físico-Química
Coordenador: Alexandre Braga da Rocha
Áreas do conhecimento: Ciência da computação; Engenharias; Química
Início da vigência: 20-06-2018

Dentre as diversas aplicações de carbetos de metais de transição, destaca-se seu uso como catalisador em diversos tipos de reações, podendo substituir catalisadores mais caros, baseados em metais do grupo da platina. Os mais promissores carbetos são os de molibdênio, tungstênio, nióbio e vanádio. Esses já apresentam aplicações, não somente em catálise heterogênea como também na composição de baterias e capacitores. O controle da oxidação é um problema recorrente na química de carbetos, uma vez que a eficiência e seletividade destes como catalisadores depende do grau de oxidação da superfície. Na síntese desses materiais é importante o controle da quantidade de oxigênio na superfície exposta, onde a reação irá ocorrer. além disso, para trasnporte ou caracterização destes materiais, é costume estabelecer uma camada passivadora de óxido. No entanto, a eficiência desse processo é questionável devido à possibilidade de difusão de oxigênio nesta camada, destruindo ou modificando o material subjacente, que quer se proteger. Mecanismos de oxidação de superfícies envolvem não apenas a etapa de aumento da cobertura e de quebra da ligação O-O como também o estudo da difusão de oxigênio. Dessa foprma, cada uma dessas etapas deve ser investigada para um melhor controle do processo de oxidação desses materiais. Apesar da importância da oxidação na química de carbetos, existem poucos estudos na literatura sobre os mecanismos de oxidação. O estudo teórico das etapas de adsorção e difusão de oxigênio ajudam a elucidar este mecanismo em nível molecular. A análise das etapas do mecanismop de oxidação em nível teórico é complementar aos estudos feitos em laboratório e permite um entendimento do processo de oxidação, em nível molecular, que a maioria dos experimentos não fornece. Os resultados obtidos por cálculos ab initio podem auxiliar os experimentalistas no desenvolvimento de estratégias de controle na síntese e na conservação dos carbetos. Assim, carbetos podem ser projetados com propriedades otimizadas para umas aplicação desejada. Dessa forma, o objetivo do projeto é estudar, utilizando a teoria do funcional da densidade, os processos de adsorção e difusão de oxigênio nos referidos carbetos. O projeto visa a obtenção da energia de ativação para o processo de difusão de oxigênio, o coeficiente de difusão e o grau de cobertura de oxigênio.


Micro-scale modelling of CO2 injection and sequestration in carbonate rocks (croco2)

Pontifícia Universidade Católica do Rio de Janeiro
Instituto Tecgraf
Coordenador: Deane de Mesquita Roehl
Áreas do conhecimento: Engenharias
Início da vigência: 29-08-2018

The oil and gas industries face problems related to thermo-hydro-chemo-mechanical behaviour. Thus, one of the objectives of this research is to study the interaction between different fluids and the formation. Two main applications of interest will be studied. The first one is the enhanced oil recovery (EOR) procedure. The second application is CO2 sequestration in depleted reservoirs and in deep saline aquifers. In both cases, CO2 is injected into the subsurface, hence, there is a reaction between CO2, formation fluids and rock. In order to understand the mechanisms that are associated to this problem, a multi-scale study is proposed. In addition, several physics are involved in this phenomenon, such as mechanical, fluid flow, temperature and chemical effects. The Discrete Element Method (DEM) is adopted to simulate the mechanical behaviour at grain scale. This theory proposed by Cundall and Strack in 1979 is capable of simulating granular flow and grain contacts. On the other hand, to capture rock behaviour, a bonded contact model is required. For the fluid flow, the lattice-Boltzmann method (LBM) is used, once it can deal with complex boundary conditions (granular medium) and it is easy to implement. In order to add the chemical effect to the simulation, the idea is to develop a new bonded contact model. In addition, rock dissolution can be simulated by reducing the grain sizes, changing rock porosity. An important feature from DEM is that it is capable of naturally representing fracture initiation and propagation. However, this capability is only possible when bonded contact models are used (Scholtès and Donzé, 2013). These models are responsible for the cohesive behaviour observed in real rocks. Nevertheless, each contact model has different microparameters, which must be carefully chosen in order to accurately simulate a specific rock behaviour. This process of choosing the correct values for the microparameters is called calibration (Coetzee, 2017). Hence, each model carried out must be calibrated first. This process is very time consuming, and for the case of the coupling of different physics the computational effort will be extremely high, requiring HPC infrastructure.


Modelação e estatísticas de extremos de ventos e ondas no Oceano Atlântico (exwav)

Universidade de São Paulo
Instituto Superior Tecnico de Lisboa
Coordenador: Ricardo Martins Campos
Áreas do conhecimento: Engenharias; Meteorologia; Probabilidade e estatística
Início da vigência: 29-03-2019

A reconstituição da atmosfera e da agitação marítima utilizando modelagem numérica computacional (hindcasts) é extremamente importante para cálculos de parâmetros meteo-oceanográficos utilizados pela indústria offshore bem como para a segurança costeira. Apesar do aumento recente da cobertura e duração das medições com boias e satélites, os hindcasts ainda são a principal fonte de dados para o cálculo de valores extremos de longo período. Isso se deve à grande cobertura espacial e temporal, com informações contínuas e sem spikes. A importância e dependência dos hindcasts se tornam ainda maiores em regiões com poucas medições, como no Atlântico Sul. Dois pontos são importantes na construção dos hindcasts: 1) O sistema de assimilação de dados dos modelos atmosféricos aproximam as simulações para as condições reais presentes através das medições. Portanto, em regiões com baixa densidade de observações, os hindcasts têm erros muito maiores. 2) Os modelos numéricos são calibrados alterando os parâmetros internos a fim de minimizar certas métricas de erros, considerando todo espaço amostral (eventos calmos e extremos) e toda a cobertura espacial (geralmente o globo todo). Portanto, o impacto da qualidade dos eventos extremos no erro médio integrado é muito pequeno – justamente por serem raros e possuírem cobertura espacial limitada. Por esses motivos, os hindcasts costumam subestimar consideravelmente os eventos extremos e superestimar condições calmas. Isso gera dois problemas graves quando usados para ajustar distribuições de extremos: 1) A subestimação dos extremos é amplificada ao se extrapolar a função quantil, para o cálculo dos valores de retorno; 2) A subestimação dos extremos e superestimação das condições calmas têm um impacto nos momentos probabilísticos e nas distribuições, que são a base para os métodos tradicionais de cálculo de valores extremos.
Para solucionar esses problemas, a presente proposta sugere a construção de hindcasts otimizados para eventos extremos (percentis mais altos) utilizando uma abordagem que une a modelagem numérica com a modelagem estatística. As variáveis alvo principais são: vento a 10 metros (U10m), altura significativa de onda (Hs) e período de pico de onda (Tp). Como a modelagem numérica demanda alto custo computacional, a ideia é coletar todos os hindcasts públicos disponíveis (NOAA, ECMWF etc) e desenvolver modelos estatísticos de pós-processamento com Redes Neurais, utilizando medições qualificadas no Atlântico Sul para treinamento, com o objetivo de minimizar os erros dos eventos extremos. Essa é uma proposta totalmente inovadora que irá contribuir com a Segurança Marítima em setores como: Navegação/Portos, Indústria Offshore e Gerenciamento Costeiro.


Modelagem computacional da atividade eletromecânica cardíaca (cardiofisio)

Universidade Federal de Juiz de Fora
Departamento de Ciência da Computação
Coordenador: Bernardo Martins Rocha
Áreas do conhecimento: Ciência da computação; Ciências biológicas; Engenharias; Matemática
Início da vigência: 09-07-2018

A modelagem do comportamento eletromecânico do coração tem sido foco de um crescente interesse médico-científico devido a sua grande importância para a compreensão de diversos fenômenos associados ao comportamento fisiológico do coração sob circunstâncias normais e patológicas, ao estudo de novos medicamentos. O fenômeno de interesse apresenta uma grande complexidade devido as suas características multi-escala, multi-física e exige a interação de diferentes modelos. Em trabalhos anteriores da equipe do Leboratório de Fisiologia Computacional (FISIOCOMP) da UFJF foi desenvolvido um modelo computacional para descrever a atividade elétrica e mecânica, de forma acoplada, do coração. Além disso, através desse modelo estudaram-se os efeitos da deformação do tecido cardíaco no comportamento da eletrofisiologia cardíaca. O modelo desenvolvido acopla os efeitos da propagação da onda elétrica no tecido cardíaco ao problema mecânico que descreve o movimento e deformação do tecido. Para representar a dinâmica da eletrofisiologia e a geração de força em miócitos cardíacos, equações diferenciais ordinárias são utilizadas e são acopladas a um sistema de equações diferenciais parciais que descreve a atividade elétrica do tecido. A força ativa gerada pelas células cardíacas é utilizada como entrada para o modelo mecânico que descreve a deformação no tecido. Este modelo mecânico trata o tecido cardíaco como um sólido hiperelástico não-linear, ortotrópico e incompressível. Os modelos estão acoplados de tal forma que a deformação obtida pelo problema mecânico afeta o comportamento da eletrofisiologia. Por fim, obtem-se um modelo matemático acoplado, multiescala, cuja discretização foi feita pelo método dos elementos finitos e cuja implementação computacional foi realizada através de métodos numéricos robustos e eficientes em um código in-house denominado Cardiax. No momento esse simulador da atividade eletromecânica cardíaca tem sido utilizado para vários estudos que demandam um alto esforço computacional e utilizam malhas de elementos finitos muito grandes. Exemplos de aplicações em desenvolvimento: estudo da influência vascular cardíaca e sua relação com uma nova técnica de tratamento conhecida como LEAP (Low-energy anti-fibrillation pacing); quantificação de incertezas na mecânica cardíaca (explorando um modelo parametrizado e personalizado a paciente do ventrículo esquerdo); entre outras aplicações que demandam a realização de muitas simulações longas e com grande volume de dados que só podem ser realizadas através do uso de supercomputadores como o SDumont.


Modelagem Computacional de Reservatórios de Petróleo com Complexidade Geológica (simulreserv)

Laboratório Nacional de Computação Científica
Coordenação de Modelagem Computacional
Coordenador: Marcio Rentes Borges
Áreas do conhecimento: Ciências humanas; Engenharias; Matemática
Início da vigência: 22-03-2018

Os reservatórios presentes na chamada camada pré-sal, localizados na costa brasileira, entre os estados do Espírito Santo e Santa Catarina, em uma faixa que se estende por cerca de 800km, representam um grande potencial petrolífero para o país. Tais reservatórios estão localizados a grandes profundidades, sob uma espessa camada de rochas salinas (com propriedades viscoelásticas), o que torna sua exploração um desafio científico e tecnológico. É neste contexto que, dentre os objetivos estratégicos previstos no Plano Diretor do LNCC, está a linha de pesquisa aplicada na área de Petróleo, Água e Gás que tem por objetivo consolidar a atuação do LNCC como um centro de referência nas áreas de modelagem numérica de processos de prospecção de óleo, gás natural e águas subterrâneas, bem como transporte de poluentes em solos e armazenamento de CO2 em reservatórios de petróleo e aquíferos, desenvolvendo pesquisa aplicada e formação qualificada de recursos humanos, com potencial de iteração com o setor produtivo. Em virtude disso, o LNCC faz parte do Programa de Recursos Humanos da Agência Nacional do Petróleo (PRH - 50 - Modelagem Computacional Hidro-Geomecânica de Reservatórios não Convencionais) que tem como objetivos: i) formar recursos humanos altamente qualificados para atender a demanda do setor de Petróleo e Gás; ii) ampliar as atividades de pesquisa do LNCC em áreas estratégias; iii)desenvolver novas formulações e metodologias computacionais orientadas para simulação de processos avançados de recuperação de petróleo e gás em reservatórios não convencionais; iv) atender à crescente demanda de candidatos aos programas de Mestrado e Doutorado em Modelagem Computacional do LNCC. Atualmente, a equipe de Simulação de Reservatórios do LNCC (da qual o proponente faz parte), no âmbito do projeto “Modelagem e Simulação Numérica de Escoamentos em Reservatórios Heterogêneos com Acoplamento Geomecânico” da rede SIGER (patrocinado pela PETROBRAS), vem desenvolvendo diversos códigos computacionais capazes de simular o escoamento de fluidos em reservatórios de petróleo heterogêneos, caracterizados pelo acoplamento hidro-geomecânico, fazendo uso de métodos numéricos localmente conservativos. Tais reservatórios, geralmente, são constituídos de rochas carbonáticas que podem apresentar estruturas geológicas complexas, tais como cavernas, vugs, juntas, falhas e veios, com uma vasta gama de heterogeneidades físicas e químicas que influenciam fortemente a produção de hidrocarbonetos. Cabe ressaltar que, a simulação numérica de problemas reais, postos em escalas de campo (da ordem de quilômetros), e discretizados na escala de laboratório (da ordem de centímetros e na qual as equações e as propriedades das rochas são conhecidas), dá origem a problemas computacionais de grande porte que exigem computação de alto-desempenho para que os mesmos sejam factíveis em tempo razoável. Então, o objetivo central do presente projeto é utilizar o potencial do supercomputador Santos Dumont para resolver problemas cada vez mais complexos e detalhados na área de simulação de reservatórios de petróleo, ajudando a indústria a tomar decisões acertadas com base nos conhecimentos gerados.


Modelagem computacional do oceano Atlântico Sul aplicada a estudos do potencial energético e ruscos associados a atividades antrópicas (mcaser)

Universidade Federal do Rio Grande
Instituto de Matemática, Estatística e Física (IMEF)
Coordenador: Wiliam Correa Marques
Áreas do conhecimento: Ciência da computação; Engenharias; Geociências; Meteorologia
Início da vigência: 22-05-2017

The relation of humanity's dependence on the ocean and other water bodies implies an increasing demand for knowledge of these environments. Just as sustainable energy alternatives can come from the ocean, so does the environmental pressure generated by pollutants such as oil and urban effluents. Environmental studies involving numerical modeling are considered low cost, in addition to allowing the investigation of large spatial and temporal domains. The present proposal has the objective of enabling the development of hydrodynamic studies, wave climate, transport of properties (pollutants or not) and the behavior of oil spots in the ocean and other water bodies of the Brazilian coast. The innovative nature of the proposal will be, firstly, the execution of this type of study for domains covering the entire coast of Brazil simultaneously and/or for long periods. This approach will allow regional analyzes to maintain the level of spatial detail and simulation time required for the investigation of coastal processes. The scientific issues addressed have direct application to government agencies and private investments. Results of hydrodynamic and wave simulations will be analyzed considering the feasibility of the installation of wave and current energy conversion sites on the Brazilian continental shelf. The simulation of dispersion of pollutants is in the interest of both environmental sanitation companies and any industrial activity that emits effluents. Numerical modeling of oil stains is a requirement for the preparation of contingency plans required for the licensing of activities involving oil extraction and transportation in marine and coastal regions. The studies will be developed in the Laboratory of Numerical Analysis and Dynamic Systems, where we work specifically with the free modeling system TELEMAC-MASCARET (www.opentelemac.com). This free system allows the use of computational modules capable of calculating hydrodynamic flows with high precision using the finite element method to solve their equations. In addition, we have developed our own computational modules coupled to the TELEMAC-MASCARET system, when TELEMAC itself is not enough to meet our demands. The relevance of the topics addressed to current scientific issues worldwide and the use of a modeling system that represents the state of the art for the simulations to be carried out ensures that the results can be published in international journals with high impact factor. Partnerships signed by LANSD with other oceanographic research laboratories further ensure that field data required for calibration and validation of simulations will be available. In addition, the team has members trained to process remote sensing data, which will be incorporated into the calibration and validation methods of the simulations.


Modelagem da Circulação no Oceano Atlântico Sul (modoceano)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Oceânica
Coordenador: Afonso de Moraes Paiva
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 28-06-2016

O Projeto MODOCEANO é um projeto institucional do nosso laboratório na UFRJ, que visa o desenvolvimento de modelagem computacional, em alta resolução, da circulação oceânica em diferentes escalas espaciais e temporais no Atlântico Sul. São investigados aspectos relacionados: a) à circulação de larga escala, com ênfase na formação e distribuição de massas d'água sub-superficias que refletem a variabilidade climática (interanual e decenal) nos processos de interação na interface ar-mar; b) à circulação em mesoescala, com foco na Corrente do Brasil, analisando a formação, evolução e estrutura vertical da frente da corrente, sua interação com a batimetria e a a formação de meandros e vórtices na região norte (retroflexão da Corrente Norte do Brasil) e leste-sudeste (vórtices de Vitória, São Tomé e Cabo Frio); c) à formação e propagação de ondas internas em regiões de talude acentuado, com destaque para marés internas geradas na Cadeia Vitória-Trindade; d) à interação entre a circulação oceânica e costeira, com foco nos fluxos de matéria e propriedades entre plataforma e talude continentais. Estes aspectos atendem aos objetivos de diferentes projetos financiados por agências de fomento, em particular o INCT PRO-OCEANO. Este projeto estruturante, financiado pelo CNPq, tem como objetivo geral estabelecer modelos conceituais, a partir de observações e de modelagem numérica, visando a compreensão de processos oceanográficos de interação entre o oceano e a plataforma continental, em diferentes escalas espaciais e temporais, identificando e quantificando os fluxos e as trocas de propriedades entre diferentes compartimentos do sistema, abordando seus efeitos sobre a biodiversidade e a influência das mudanças globais induzidas por fatores naturais e antrópicos e seus impactos para a sociedade. Estes aspectos atendem ainda aos objetivos do projeto REMO, financiado pela ANP/Petrobras, cujo objetivo central é contribuir para o uso sustentável de recursos marinhos, a partir do apoio à pesquisa oceanográfica e do estabelecimento, baseado na modelagem oceânica em alta resolução e com assimilação de dados, de bases hidrodinâmicas (ou reanálises oceânicas) para estudos ambientais e de um sistema previsor de correntes marinhas. A principal ferramenta utilizada neste estudo é o modelo de circulação oceânica HYCOM – Hybrid Coordinate Ocean Model. O desafio que abarca estes diferentes objetivos é estabelecer configurações e desenvolver simulações numéricas da circulação oceânica que incluam os diversos fenômenos oceanográficos importantes em diferentes escalas e em diferentes regiões do Atlântico Sul. Ao mesmo tempo, estas simulações devem apresentar um alto grau de realismo e permitir o teste de hipóteses e o avanço do conhecimento oceanográfico.


Modelagem da turbulência em escoamentos multifásicos de biorreatores com membranas (BRM)

Universidade Federal do Rio Grande do Sul
Departamento de Engenharia Química
Coordenador: Nilo Sérgio Medeiros Cardozo
Áreas do conhecimento: Engenharias
Início da vigência: 26-05-2017

Os biorreatores com membranas (BRMs) possuem vantagens em relação ao tratamento convencional de efluentes, como maior eficiência e uma significativa redução de espaço físico necessário para o processo. O mercado de BRMs está consolidado em inúmeros países e tem apresentado altas taxas de crescimento. No Brasil, o crescimento da demanda por tratamentos adequados para os efluentes gerados na indústria têm incentivado a preferência pelos BRMs. Um problema conhecido e persistente no uso de BRMs é a ocorrência de incrustações nas membranas (fouling), que reduzem a eficiência do processo. O mecanismo de aeração promove a diminuição do fouling através do cisalhamento exercido pelas bolhas de ar sobre as membranas. Apesar da importância da hidrodinâmica multifásica em BRMs ser reconhecida por mais de vinte anos, as indústrias e a comunidade científica ainda não compreendem completamente os efeitos cisalhantes induzidos pelas bolhas de ar nos BRMs. O custo operacional associado à aeração é um problema recorrentemente mencionado; a aeração consome até 70% do total da energia de BRMs e é utilizada de forma otimizada apenas 10% das vezes. Apesar do crescente número de publicações sobre biorreatores com membranas, das quais mais de 25% trata de fouling, somente 4,3% estuda a hidrodinâmica nesses sistemas. Além disso, é crescente o número de publicações sobre BRMs no Brasil, mas não há nenhuma publicação brasileira relacionada à hidrodinâmica nesses sistemas. É evidente a necessidade do desenvolvimento de pesquisa e de tecnologia relacionadas à hidrodinâmica em BRMs no Brasil. Esse tipo de estudo normalmente emprega ferramentas de fluidodinâmica computacional (CFD), que resolvem numericamente problemas de escoamento de fluidos. Um dos primeiros passos para encontrar uma solução apropriada para simulações numéricas é propor uma modelagem correta. Dentre os fenômenos a serem modelados, a turbulência provavelmente é um dos mais importantes; contudo, são escassos ou inexistentes trabalhos que verifiquem a performance e a confiabilidade de modelos de turbulência na hidrodinâmica de BRMs. Além disso, para BRMs de grande porte como os utilizados em indústrias, normalmente são utilizadas funções de parede para a modelagem da camada limite; uma aproximação considerada inadequada quando se deseja obter valores de tensão cisalhante nas membranas, já que o cálculo dessa variável sofreria influência direta das aproximações realizadas através de funções de parede. Dessa forma, o objetivo desse projeto é verificar a importância da escolha do modelo de turbulência para simulações de biorreatores com membranas, com o uso de CFD, através do emprego de diferentes modelos de turbulência (k-ϵ e k-ω SST) e funções de parede (padrão, modificada e automática) e comparar os resultados da região da camada limite com modelos considerados mais adequados para tal (como k-ω SST sem função de parede; modelos do tipo LES, large eddies simulation; e DNS, direct numerical simulation) juntamente com dados experimentais a serem obtidos através da técnica PIV (particle image velocimetry) e dados provenientes da literatura. Espera-se que as conclusões obtidas venham a servir como base para desenvolver uma modelagem adequada desses sistemas, visando a otimização da intensidade de aeração e economia energética.


Modelagem de Materiais Funcionais (mmfufscar)

Universidade Federal de São Carlos
Departamento de Química
Coordenador: André Farias de Moura
Áreas do conhecimento: Ciência dos materiais; Engenharias; Física; Química
Início da vigência: 28-06-2016

A presente proposta se insere em uma tendência já consolidada em grandes centros científicos, de se realizar de forma simultânea e coordenada investigações teóricas, computacionais e experimentais para o desenvolvimento de novos materiais. De um modo geral, tais projetos seguem os moldes propostos há mais de uma década pela Materials Genome Initiative (https://www.mgi.gov/), uma iniciativa fomentada pelo governo norte-americano para o desenvolvimento de novos materiais de forma mais rápida e a um custo menor em relação às pesquisas tradicionais, feitas de forma descoordenada, em grupos individuais. Neste espírito, estamos desenvolvendo pesquisas integradas teórico-experimentais no âmbito do Centro de Desenvolvimento de Materiais Funcionais (CDMF), contando com uma grande equipe de pesquisadores especializados na síntese e caracterização de materiais. Estas investigações experimentais já se encontram consolidadas, representando a contrapartida experimental para a nossa investigação teórica-computacional. De modo geral, os modelos computacionais devem ser introduzidos de duas formas distintas na investigação global: (i) Propriedades observadas experimentalmente e pouco compreendidas requerem o uso de modelos computacionais para se definir as relações entre as características morfológicas do material e as funcionalidades obtidas; (ii) Materiais ainda inéditos serão desenhados in silico/de novo visando se atingir propriedades úteis para aplicações específicas, oferecendo novos desafios para a síntese de materiais funcionais. Em ambos os casos, o que se busca construir é um corpo de conhecimento sobre as relações estrutura-funcionalidade de materiais, permitindo a médio prazo que se desenho racional novos materiais, em função das propriedades desejadas. Mais especificamente, continuaremos trabalhando em duas frentes de investigação, visando desenvolver dispositivos optoeletrônicos com uso potencial na geração/transformação/armazenagem de energia, catálise química e transmissão/armazenagem/processamento de dados: (i) Estudos da auto-organização de nanopartículas coloidais: entre os diversos blocos estruturais dos materiais nanoestruturados estão as nanopartículas de composição, forma e tamanho diversos, tipicamente do tipo condutor (por exemplo, de metais) ou semicondutor (por exemplo, de cerâmicas). Visando a eficiência energética e a sustentabilidade, temos trabalhado com rotas de síntese coloidais, nas quais usamos as forças de superfícies para direcionar tanto a síntese em si das nanopartículas quanto à formação de estruturas complexas auto-organizadas. Experimentalmente, sabe-se que tais estruturas auto-organizadas são hierárquicas, com padrões de ordenamento que vão das escala atômica até a ordem de micrômetros. Atualmente, o poder computacional disponível limita nossas investigações a escalas de tamanho de dezenas de nanômetros e tempos da ordem de microssegundos, o permite obter apenas um quadro limitado dos padrões estruturais e dinâmicos destes sistemas intrinsecamente complexos. O sistema petaflópico do SDumont permitirá se estender as escalas de tamanho e tempo de modelagem, ampliando a generalidade das conclusões para um nível inédito na literatura mundial. (ii) Estrutura eletrônica: a efetiva aplicação destes materiais nanoestruturados depende do conhecimento detalhado da estrutura eletrônica global e local, que por sua vez depende de como as unidades estruturais se auto-organizaram. Assim, esta etapa depende criticamente da anterior, sendo necessário se estabelecer os padrões de auto-organização previamente, para então se abordar a estrutura eletrônica, que é de fato a responsável pelas funcionalidades, mas que é modulada pelos arranjos estruturais assumidos pelas nanopartículas.


Modelagem de Tensões Interfaciais e Molhabilidade de Sistemas Contendo Solução Salina, Rocha Carbonáticas e Óleo (mtim)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Química
Coordenador: Frederico Wanderley Tavares
Áreas do conhecimento: Engenharias; Química
Início da vigência: 26-05-2017

O processo de recuperação do petróleo consiste no deslocamento dos hidrocarbonetos para os poços de produção mediante a injeção de um fluido que mantenha a pressão no reservatório acima da pressão de saturação, possibilitando o processo eficiente de recuperação. No processo de recuperação avançada, é desejável que o fluido injetado interaja com o sistema rocha/óleo, criando condições favoráveis à recuperação do óleo. Estas interações podem, por exemplo, resultar em redução da tensão interfacial, expansão do óleo, redução da viscosidade do óleo e modificações da molhabilidade. A forma da interface entre fluidos imiscíveis resulta da interação entre as forças moleculares que atuam nas interfaces líquido-líquido e líquido-sólido. Assim, em um reservatório, em que o sistema óleo-água está em contato com a rocha, o ângulo de contato de equilíbrio depende das tensões interfaciais e do trabalho de adesão (energia livre de interação por unidade de área) da água interagindo com a superfície sólida através da fase óleo. De uma forma mais empírica, se a tensão interfacial água-sólido for menor que a tensão óleo-sólido, a superfície sólida é molhada preferencialmente pela água e esta tende a deslocar o óleo presente nos poros da rocha. A maneira mais adequada e formal de contabilizar todas as contribuições é por meio da minimização da energia de Gibbs total do sistema. Mais de 50% das reservas de petróleo conhecidas são reservatórios de carbonato. A recuperação de petróleo em carbonatos, em geral, é baixa devido à baixa umidade, baixa permeabilidade e propriedades não homogêneas da rocha. A molhabilidade nestes reservatórios é maior para o óleo, o que dificulta a recuperação. Diferentes fluidos têm sido empregados nos processos de recuperação avançada do petróleo. Este projeto dedica-se especificamente ao estudo de soluções aquosas a serem empregadas como fluidos de recuperação. Tem-se verificado na literatura que a condição de molhamento pode ser melhorada através da modificação da composição iônica do fluido injetado. A presença de sais na água de injeção modifica significativamente o equilíbrio de cargas do meio poroso, ocasionando modificações na interação água/óleo/meio poroso. Estas mudanças se traduzem em alterações na dinâmica de molhamento do meio pela água, com impacto direto na permeabilidade do meio. Desta forma, a recuperação do petróleo pode ser maximizada ao se interferir na qualidade da água de injeção. Assim, ao final deste projeto pretende-se gerar um programa computacional que permita formular a água de injeção (tipo Low Salinity Water ou Smart Water) com salinidade e sais adequados para cada rocha e óleo específicos.


Modelagem Estocástica para Inversão Sísmica (meis2)

Universidade Federal do Rio de Janeiro
Programa de Engenharia de Sistemas e Computação
Coordenador: Claudio Amorim
Áreas do conhecimento: Ciência da computação; Geociências
Início da vigência: 02-10-2018

Na indústria de Óleo e Gás, novas descobertas de reservas de petróleo são impulsionadas pelos avanços da tecnologia da exploração sísmica que depende da construção de modelos do subsolo cada vez mais precisos e fiéis a realidade. Neste projeto, as propriedades físicas das rochas no subsolo relacionadas à presença de hidrocarbonetos, tais como velocidade ou densidade, serão modeladas explorando a equação de propagação da onda sísmica através da técnica Full Waveform Inversion (FWI). O FWI é essencialmente um método de casamento dos dados adquiridos em campo com os dados produzidos pela modelagem, onde iterativamente tenta-se ajustar os parâmetros da equação de onda de tal forma que o resultado produzido pela modelagem coincida com os dados de campo. Trata-se, portanto, de um problema de otimização onde se busca encontrar o mínimo global da seguinte função de custo: M(m) = ||Dataacq-Datamod||2 Onde M(m) é o misfit, que representa a diferença entre os dados adquiridos (Dataacq) e os dados modelados (Datamod). Uma forma de estimar os parâmetros da modelagem é utilizar métodosde gradiente descendente, que embora sejam eficientes computacionalmente, podem ficar presos em mínimos locais, impedindo-os de atingirem o mínimo global. Uma forma de mitigar este problema consiste em oferecer um parâmetro inicial adequado de tal modo que, a partir deste ponto inicial, o método de gradiente seja capaz de convergir para a solução global. Uma forma de obter este valor inicial é utilizando Métodos de Monte Carlo, cuja abordagem probabilística evita que os mesmos fiquem presos em mínimos locais, no entanto, tais métodos possuem um custo computacional muito alto, pois a execução da modelagem pode alcançar um número de iterações muito elevado, da ordem de grandeza de 105 iterações. Como uma estratégia de solução do problema descrito, este projeto de P&D realizou as seguintes atividades: 1. Revisão bibliográfica para avaliar dentre as técnicas de Monte Carlo qual é a mais adequada ao problema de inversão sísmica que pretendemos abordar. Concluindo-se que o método de Metropolis-Hastings com Simulated Annealing constitui uma boa alternativa. 2. Foi selecionado na literatura um software para a geraçãodas amostras da distribuição prior utilizada pelo Metropolis-Hastings. O mesmo encontra-se em fase final de testes. 3. Foi desenvolvida e testada uma abordagem para o cálculo da função de custo de cada proposta gerada pelo simulador mencionado anteriormente. 4. Foi gerado um conjunto de dados sintéticos de teste para validar as técnicas desenvolvidas. 5. O workflow do Metropolis-Hastings foi implementado e encontra-se em fase de testes com os dados mencionados no item 4. As próximas etapas da pesquisa incluem: 1. Finalizar os ajustes no gerador de propostas prior assim como o workflow do Metropolis-Hastings. 2. Avaliar as demandas computacionais necessárias para o workflow estocástico, e propor novos mecanismos e técnicas que permitam tais aplicações se beneficiarem da próxima geração de supercomputadores exascale com início previsto para 2024.


Modulação de receptores acoplados à proteína G através de sumulações por dinâmica molecular como ferramenta ao planejamento racional de novos fármacos (gpcrmd)

Universidade Federal do Rio Grande do Sul
Centro de Biotecnologia
Coordenador: Hugo Verli
Áreas do conhecimento: Ciências biológicas
Início da vigência: 27-09-2017

Receptores acoplados à proteína G (GPCRs) distribuem-se por praticamente todos os tecidos dos organismos, atuando como transdutores de sinais e, assim, assumindo papel chave na regulação de processos fisiológicos e patológicos. Não por acaso, assumem um papel essencial no desenvolvimento de novos fármacos. Farmacologicamente, GPCRs assumem conformações ativas através da complexação à moduladores, endógenos ou terapêuticos, que por sua vez interage com o complexo heterotrimérico Gαβγ. Subsequentemente, o complexo se dissocia envolvendo a troca GTP/GDP, e as subunidades Gβγ atuam como sinalizadores para sistemas efetores intracelulares. Embora o volume de informação cristalográfica venha aumentando continuamente para os elementos presentes na sinalização por GPCRs, estes métodos possuem dificuldades em capturar a dinâmica do processo e os diferentes estados transitórios produzidos durante a cascata de sinalização, assim como a formação de complexos multimoleculares. Neste contexto, simulações por dinâmica molecular vêm exercendo papel importante na caracterização de cada estado conformacional, assumindo assim potencial papel no desenvolvimento de novos fármacos. Temos atualmente uma cooperação com a Universidade de Nottingham para o estudo de GPCRs, particularmente receptores β adrenérgicos e Receptores de GRP (GRPR, gastrinreleasing peptide receptors), buscando avaliar o processo de modulação conformacional dos mesmos por fármacos, particularmente a capacidade de diferentes compostos promoverem diferentes estados conformacionais no receptor-alvo e, consequentemente, desencadearem diferentes cascatas de sinalização. Adicionalmente, sabe-se que a glicosilção é capaz de influenciar em algumas propriedades destes receptores, como sua dimerização. Pretendemos, portanto, caracterizar também estes processos. É importante destacar que este tipo de estudo permite acessar propriedades moleculares não descritas em estudos de atracamento molecular, isto é, a capacidade de cada fármaco e ligante em promover sinalizações intracelulares específicas, agonistas (parciais ou totais), antagonistas e agonistas inversas (totais ou parciais). Têm, assim, grande potencial de aumentar a capacidade preditiva das atuais técnicas de planejamento computacional de novos fármacos. Em função do exposto, pretendemos empregar o SDumont para acessar escalas de tempo de dezenas ou centenas de microsegundos para diversos complexos fármaco-receptores, observando assim os diferentes sub-estados conformacionais do receptor β1 adrenérgico. Estes estados conformacionais serão testados simulando-se uma série de mutantes produzidos pela Dra. Jill Baker (School of Life Sciences - University of Nottingham), e novos mutantes poderão ser produzidos in vitro para testar hipóteses formuladas. A dimerização destes receptores será avaliada na presença de glicosilação, e a transmissão das mudanças conformacionais produzidas por fármacos ao complexo heterotrimérico Gαβγ será avaliada empregando-se o método coarse-grained Sirah, desenvolvido pelo Dr. Sergio Pantano, colaborador nesta proposta, com a perspectiva de reverter as trajetórias à forma atomística completa. Além de acessar o processo de modulação de GPCRs e a cascata de sinalização produzida, descrevendo estados conformacionais transitórios conhecidos apenas farmacologicamente, mas não estruturalmente, acreditamos que os resultados a serem obtidos possam explicar diversos comportamentos experimentais desses sistemas, o que por sua vez pode ter impacto direto nas linhas de planejamento de fármacos associadas. Esperamos, por fim, que estes resultados nos permitam extrapolar o projeto no futuro, tanto para outros GPCRs quanto para outros elementos da cascata de sinalização intracelular.


Multilevel Modeling of Magnetic Molecular Systems Employing ab initio and DFT Methods (magmoltvb)

Universidade Federal Fluminense
Instituto de Química
Coordenador: Maria das Graças Fialho Vaz
Áreas do conhecimento: Física; Química
Início da vigência: 26-09-2016

In the past few years some lanthanide and transition metals molecular complexes showed single molecule magnet behaviour, meaning that at cryogenic temperatures these systems are characterized by slow relaxation of magnetization and by the opening of an hysteresis loop. Unlike bulk magnets, whose properties depend on long range correlation, the behaviour of Single Molecule Magnets (SMMs) is related to their molecular structure and one of their main features is to show both classical and quantum properties. Renewed interest in one- dimensional magnetic molecular-based systems arose after the discovery that a cobalt(II) ferrimagnetic chain [Co(hfac)2(NITPhOMe)]n(NITPhOMe=2-(4’-methoxy-phenyl-4,4,5,5- tetramethylimidazoline-1-oxyl-3-oxide) and hfac=hexafluoroacetylacetonate) exhibited slow magnetic relaxation and magnetic hysteresis: it became thus to be known as Single Chain Magnets (SCMs). The Molecular Magnetism Group of the Chemical Institute of the Fluminense Federal University, coordinated by the proposer of this project, synthesized systems containing transition metals, lanthanides and organic radicals with interesting properties. Among them, two chains showing high coercive field at low temperature and record blocking temperatures. The physical properties of these systems are investigated by the group coordinated by Prof. Miguel Novak of the Federal University of Rio de Janeiro. For this purpose, Brazilian Synchrotron Light Laboratories in Campinas are also widely employed. Dr. Federico Totti, at the University of Florence, has a broad experience in ab initio calculation and simulation of molecular magnetic systems adsorbed on surfaces. Matteo Briganti, phd student joint supervised (co-tutela) by Prof. Vaz and Prof. Totti, is developing a computational protocol suitable for isolated and periodic magnetic systems, focusing on the adsorption process on surfaces. Indeed potential applications have been proposed for this class of systems, like the design of devices and the development of molecular spintronics. These systems, combining the advantages of the molecular scale with the properties of bulk magnetic materials, look attractive for high-density information storage and also, due to their long coherence times, for quantum computing. Moreover, their molecular nature leads to appealing quantum effects of static and dynamic magnetic properties. The rich physics behind the magnetic behaviour produces interesting effects which could be used in electronics: for example was realized a spin valve device based on a single molecule. DFT and ab initio calculations already provide support to experimental studies, in the aim of interpreting experimental results and driving them towards a more efficient synthetic tayloring by means of first-principles simulations. However the main bottleneck in moving SMMs and SCMs to end-user applications relays on their safe adsorption and organization on solid-surfaces in order to access individual molecules. Indeed, handling a molecule with a “three-dimensions structure” within a low symmetry environment (surface), affects its structural geometry and drastically its electronic/magnetic properties and can hardly and not unambiguously be rationalized. Summarizing, we can state that the bulk SMMs and SCMs are complex systems whose experimental and theoretical electronic and magnetic behavior still represent a challenge at the computational level to be fully understood and rationalized. The study of their evolution upon grafting on surface must be considered at the cutting edge of computational approaches in nano-science.


Multiscale geophysics: numerical observation of transition from wave propagation to diffusion regime in realistic topographies (msgeo)

Universidade Federal do Rio de Janeiro
Programa de Engenharia Civil
Coordenador: Alvaro Luiz Gayoso de Azeredo Coutinho
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 28-06-2016

There are three characteristic lengths that govern the behavior of wave propagation in fluctuating media: the wavelength, the propagation length, and a typical size of the heterogeneities (the correlation length in the case of random media). Depending on their respective ratios, at least two regimes of propagation can be defined: (i) the homogenized regime, and (ii) the high-frequency regime (weakly or strongly fluctuating). The homogenized, or effective, regime arises when the wavelength is much larger than the size of the heterogeneities and the propagation length is of the order of the wavelength. In that regime, the wave front can be clearly identified. The heterogeneities only appear through homogenized moduli, that can be estimated with the theory of homogenization. Geophysicists hence manage to represent reasonably well very low-frequency waves using spherically-symmetric Earth models with homogeneous layers. However, geological observations as well as recordings in the higher frequency range indicate a strong heterogeneity of the crust. This high-frequency regime arises when the propagation length is large compared to the wavelength, and the multiple diffractions of the waves in the medium create strong interactions between propagation modes. In the limit, the energy patterns of the wave field are governed by a diffusion equation. They become independent of the fine details of the micro-structure, and only statistical characteristics of the medium are then relevant. Many studies, geological as well as geophysical, hint at the importance of that regime for wave propagation in the upper layers of the crust. Waves hence naturally homogenize in several different ways the properties of the media they go through. The precise understanding of these phenomena is fundamental for the identification of the elastic properties of the medium based on observation of the full wave field at the surface, including both direct waves and coda. Geophysicists today mainly concentrate on the first arrivals of waves, which correspond to the homogenized regime. The late coda, that corresponds to the higher frequency regime is mostly disregarded. When it is actually used for identification purposes, it only gives a so-called Q-coefficient, which is never related to wave velocity fluctuations. Going further and using the direct waves and coda in a fully integrating manner for inversion requires understanding better the transition between homogenized wave propagation and diffusion regime. In particular, this transition is well understood mathematically (through asymptotic analysis) in full spaces, but real geophysical media involve complex free surfaces, with topography, oceans and seas. These cases cannot be treated by asymptotic analysis and have to be analyzed through numerical simulations. The objective of this project is to perform a series of very large scale simulations to improve the understanding of the transition between wave propagation and diffusion for realistic geophysical media.


Nanopartículas e ligas metálicas para melhoria de células de combustível a etanol (nanom)

Universidade Tecnológica Federal do Paraná
Departamento de Ciências da Natureza
Coordenador: Vagner Alexandre Rigo
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 01-08-2017

Células combustíveis podem converter combustíveis como o etanol em eletricidade com grande eficiência. Atualmente quase metade da frota de automóveis do Brasil é movida com etanol, fazendo das células de combustíveis a etanol uma área estratégica no país. A oxidação completa do etanol poderia gerar um total de 12 elétrons por molécula (com densidade de energia superior ao hidrogênio ou metanol). Entretanto, os materiais atualmente empregados nos ânodos das células a etanol conseguem fornecer entre 2 e 4 elétrons/molécula, devido a formação de aldeídos. A melhora na eficiência da conversão do etanol em eletrícidade é uma aplicação onde o desenvolvimento de materiais com propriedade melhoradas por design é desejável. Acredita-se que a reação de oxidação do etanol pode ser mais eficiente através do design melhorado de superfícies de Pt em ligas, superfícies com cavidades e nanopartículas. Opta-se por ligas de Au-Pt e Pd-Pt devido a resultados preliminares favoráveis (sistema já abordado pelos autores), onde se almeja avaliar a oxidação do etanol em ligas Au-Pt e Pd-Pt, considerando (i) efeito da dopagem em superfícies de Pt, Au e Pd, (ii) forma e tamanho de superfícies com cavidades, (iii) efeito do tamanho e composição química de nanopartículas core-shell de até 561 átomos, onde é imprescindível o uso intensivo de supercomputação de alto desempenho.


Novas perspectivas em investigações mecanísticas de reações orgânicas (letpoc)

Universidade Estadual de Campinas
Departamento de Ciência Interdisciplinar
Coordenador: Rodrigo Antonio Cormanich
Áreas do conhecimento: Química
Início da vigência: 07-08-2018

Neste projeto de pesquisa é proposta uma nova perspectiva sobre as investigações do mecanismo de reações orgânicas, usando efeitos dinâmicos ao invés da simples e comum teoria do estado de transição (TST - Transition State Theory). Os estudos de caso deste projeto baseiam-se nas investigações mecanicistas de reações multicomponente como a reação de Mannich, Ugi e Biginelli, usando abordagens teóricas e experimentais. Essas reações multicomponente são complexas e amplamente utilizadas em Química Orgânica e são modelos interessantes para testar a TST, que estuda mecanismos de reação baseados apenas em intermediários e de estados de transição. Como alternativa à TST, propomos o uso de métodos sofisticados envolvendo efeitos dinâmicos, considerando todos os movimentos atômicos que transformam os reagentes em produtos. A esse respeito, serão utilizados os efeitos isotópicos cinéticos (KIE) obtidos em abundância natural, um poderoso método experimental para investigação de mecanismo de reação, amplamente aplicado em estudos mecanísticos, mas ainda não empregado por grupos de pesquisa no Brasil. Cálculos teóricos baseados em métodos teóricos ab initio e também usando vários funcionais DFT serão realizados para aplicar o TST. Cálculos de Dinâmica Molecular (MD) serão aplicados para procurar todos os possíveis movimentos/colisões atômicas durante a coordenada de reação, os quais não são possíveis de ser testados usando somente métodos baseados em TST. Espera-se, por meio desse projeto, que alia métodos teóricos de alto nível com resultados experimentais, elucidar mecanismos de reações orgânicas de interesse da comunidade científica e contribuir para otimização das mesmas, aumentando-se rendimentos, melhorando-se procedimentos experimentais e diminuição da formação de subprodutos indesejáveis.


Planejamento Computacional de Novos Materiais Moleculares Baseados em Sistemas com Carbono Tetracoordenado (Quase-) Plano (qptc)

Universidade Federal de Pernambuco
Departamento de Química Fundamental
Coordenador: Ricardo Luiz Longo
Áreas do conhecimento: Química
Início da vigência: 17-10-2016

Fenestranos e alcaplanos são compostos que podem formar materiais moleculares que apresentam carbonos tetracoordenados (quase-)planos (ptC). Uma das consequências da presença de ptC são as pequenas energias de ionização (IE) destes compostos, algumas delas comparáveis aos metais alcalinos e alcalinos terrosos [1]. Essa propriedade pode ser interessante quando aplicadas no desenvolvimento de materiais moleculares para aplicações em óptica não-linear (NLO do inglês nonlinear optics), uma vez que sistemas moleculares baseados na aproximação dipolar partem do princípio que as propriedades NLO significativas são obtidas quando espécies doadoras e aceitadoras de elétrons estão ligadas por grupos conjugados-π formando os chamados sistemas Aceitador-Ponte-Doador (A-P-D). Esses sistemas também representam a quebra de um dos mais antigos paradigmas da química moderna: a proposição de que átomos de carbono em compostos orgânicos têm arranjos tetraédricos [2]. Este paradigma representa, até os nossos dias, um impacto significativo nas ciências químicas, pois é a base para a compreensão e a elucidação da estrutura molecular de um imenso número de substâncias químicas e seus materiais. De fato, a estrutura tetraédrica de átomos de carbono tetracoordenados sistematiza e racionaliza uma imensa quantidade de informações, principalmente isomerias. Contudo, existem na literatura [1] propostas estruturais promissoras para os ptCs. Dentre outros aspectos, os resultados da análise vibracional mostraram que alguns compostos apresentam todas as constantes de força positivas, o que é um indicativo que estes compostos possuem uma estrutura de mínimo na superfície de energia potencial, porém tais cálculos foram realizados com metodologias DFT e MP2 (com diferentes tipos de funções de base). Devido as impossibilidades técnicas causadas pela elevada demanda computacional, resultados mais exatos e precisos não puderam ser empregados naquele momento. No entanto, entendemos que o método PICVib [3], pode ser essa peça-chave para solucionar essa questão. Nessa metodologia, os modos vibracionais podem ser calculados individualmente, reduzindo-se drasticamente a demanda computacional exigida pela análise vibracional tradicional. Métodos coupled-cluster são considerados estados da arte em estrutura eletrônica no tratamento de diversos sistemas. Empregaremos métodos CCSD e, se possível, CCSD(T) na determinação das frequências vibracionais com menores energias de sistemas com ptC descritos na literatura, bem como várias sistemas inéditos. Uma vez confirmada a estabilidade estrutural destes sistemas, eles serão utilizados em supraestruturas ainda maiores do tipo A-P-D com possíveis e potenciais aplicações práticas como materiais para ótica não-linear. A demanda computacional dos cálculos coupled-cluster de compostos com ptC, bem como dos sistemas maiores A-P-D, é tão elevada que somente máquinas como a SDumont sejam capazes de executá-los.

[1] RASMUSSEN, D. R.; RADOM, L. Planar-tetracoordinate carbon in a neutral saturated hydrocar- bon: Theoretical design and characterization. Angewandte Chemie International Edition, v.38, n.19, p.2875–2878, 1999.
[2] HOFFMANN, R.; ALDER, R. W.; WILCOX, C. F. Planar tetracoordinate carbon. Journal of the American Chemical Society, v.92, n.16, p.4992–4993, 1970.
[3] SANTOS, M. V. P. D.; LONGO, R. L.; SILVA, J. B. D.; AGUIAR, E. C. PICVib: An accurate, fast, and simple procedure to investigate selected vibrational modes at high theoretical levels. Journal of Computational Chemistry, v.34, n.8, p.611–621, 2013.


Planejamento Racional e Modelagem Molecular de Novas Classes de Inibidores Seletivos da Hidrolase de Amidas de Ácidos Graxos 1 (FAAH1) Derivados do Glicerol (faah_dgl)

Centro Universitário Serra dos Órgãos
Centro de Ciências da Saúde
Coordenador: Valter Luiz da Conceição
Áreas do conhecimento: Ciências da saúde; Farmácia; Química
Início da vigência: 23-07-2018

Nesta proposta, propomos o desenho racional e a modelagem molecular de novas classes de inibidores competitivos da hidrolase de amidas de ácidos graxos 1 (FAAH1) derivados do glicerol, um subproduto da produção industrial do biodisel. Esses inibidores exibem padrão estrutural inovador, sendo este o aspecto científico mais relevante. FAAH1 é uma proteína integral do sistema de endomembranas pertencente ao sistema endocanabinoide (eCB) e é responsável pela hidrólise de anandamida e oleamida, produzindo ácido araquidônico e ácido oléico, respectivamente. Inibidores seletivos de FAAH1 podem oferecer uma abordagem terapêutica racional ao tratamento da nocicepção, inflamação, ansiedade, depressão e outras psicopatologias. A inibição competitiva da FAAH1, em comparação à ação direta de agonistas eCBs, pode potencializar a atividade do sistema eCB apenas em locais onde haja produção da anandamida, reduzindo efeitos secundários. Em consonância com a abordagem fisiológica, o planejamento dos candidatos a inibidores partiu da anandamida (protótipo-chave). O desenho racional envolveu simplificação molecular, anelação e oxa-homologação, fornecendo: 1,3-dioxolanil-ésteres (N=168), 1,3-dioxolanil-amidas (N=168), carbamatos N-substituídos (N=168) e alfa-ceto-heterociclos (N=168). Tais classes compreendem uma biblioteca de inibidores glicerol-derivados contendo 672 moléculas. Estudos de docking rígido em nosso grupo mostraram que esses moléculas ocupam preferencialmente canais de acesso ao sítio ativo (K142-S217-S241). Nesta proposta, propõe-se a estimativa computacional das propriedades termodinâmicas e cinéticas associadas à formação dos complexos inibidor:FAAH1. Para tal, usar-se-ão simulações por dinâmica molecular empregando-se várias técnicas de amostragem do espaço de configurações. Também, estudos QM/MM de complexos representativos serão conduzidos para estabelecer a natureza química de possíveis intermediários covalentes e metabólitos oriundos das reações de hidrólise. No aspecto da inovação. pretende-se proteger as estruturas das classes e congêneres junto ao Instituto Nacional de Propriedade Intelectual (INPI) via Núcleo de Inovação e Tecnologia do UNIFESO (NIT-UNIFESO). Esta proposta, se aprovada, também contribuirá para a consolidação de um grupo de pesquisa em modelagem molecular no UNIFESO, ampliando a interiorização da Ciência no Estado do RJ.


Plataforma Computacional Multiusuária para análises de Bioinformática em Larga Escala, no apoio à Rede Nacional Estruturante de Bioinformática (pcmrnbio)

Laboratório Nacional de Computação Científica
Laboratório de Bioinformática e Unidade de Genômica Computacional
Coordenador: Ana Tereza Ribeiro de Vasconcelos
Áreas do conhecimento: Ciência da computação; Ciências biológicas
Início da vigência: 17-08-2016

O Laboratório de Bioinformática (LABINFO) do LNCC foi fundado em 2000 pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) e consolidou-se como referência na área de bioinformática e biologia computacional no Brasil. Em 2008, o LABINFO ampliou suas atividades com a criação da Unidade de Genômica Computacional Darcy Fontoura de Almeida (UGCDFA) equipada com máquinas de sequenciamento de nova geração, que atende a várias instituições de pesquisa no Brasil e no mundo. Até o momento, a UGCDFA realizou o sequenciamento de mais de 400 genomas (humanos, fungos, parasitos, vírus, bactérias) de interesse na saúde humana, animal e vegetal, bem como vários metagenomas de interesse biotecnológico. O LABINFO/UGCDFA possui as seguintes funções: I) geração, processamento e análise de sequências de nucleotídeos (genomas, metagenomas, transcriptomas, amplicons, exomas e cDNA); II) armazenamento e distribuição para a comunidade científica dos resultados da análise de sequências geradas pela UGCDFA; III) gerenciamento de redes genômicas no Brasil; IV) desenvolvimento de banco de dados biológicos de aplicação em bioinformática; V) desenvolvimento de metodologias matemáticas e computacionais para estudos de genômica comparativa, estrutural e funcional de organismos de interesse biotecnológico, ambiental e agrícola, e de saúde humana; VI) desenvolvimento de softwares de biologia computacional, e.g. o SABIá , o primeiro software para montagem/anotação automática de genomas no Brasil e o Bioinfo-Gateway , um ambiente de plataforma multiusuário para execuções de softwares de bioinformática em ambientes paralelos e distribuídos (CSGrid/SINAPAD) desenvolvido por iniciativa da Rede Nacional Estruturante de Bioinformática (RNBio); VII) capacitação e orientação de dissertações e teses na linha de pesquisa em bioinformática e biologia computacional na Pós-graduação em Modelagem Computacional (LNCC), e colaboradores (UFRJ, Universidade de Lyon1 e Instituto Evandro Chagas); e VIII) formação de recursos humanos especializados em bioinformática e biologia computacional. A RNBio foi criada em 2014 pelo Programa Estruturante do MCTI e instituições com forte tradição em pesquisas de genômica, proteômica e biologia computacional, a saber, o LNCC, o Laboratório Nacional de Biociências (LNBio/CNPEM) e a UFMG. A missão da RNBio é fomentar o desenvolvimento de projetos de pesquisa no formato multicêntrico e a formação de recursos humanos em estudos temáticos envolvendo biologia computacional, e.g. análises de sequenciamento de genomas, transcriptômica, proteômica, biologia de sistemas e interactoma. A RNBio visa também o constante aperfeiçoamento da infraestrutura computacional disponível pelo que atua estreitamente com os Centros Nacionais de Processamento de Alto Desempenho (CENAPAD) estruturados no sistema SINAPAD. Esses centros conseguiram aumentar a capacidade de execução de análises computacionais em muitas instituições no pais. No cerne da RNBio, desenvolveu-se em 2016 o Bioinfo-Gateway que alavancará pesquisas por meio da execução paralela e distribuída dos softwares mais usados pela comunidade de bioinformática, muitos deles considerados altamente dispendiosos em tempo e processamento. Com a interligação entre grupos de pesquisa de diferentes regiões do país em torno de projetos multicêntricos e a troca de experiência entre grupos especialistas nas várias áreas do conhecimento, a RNBio, e suas contribuições em softwares e pesquisas, irá certamente contribuir para o desenvolvimento científico e tecnológico do país.


Predição de estruturas de proteínas (psp)

Laboratório Nacional de Computação Científica
Coordenação de Mecânica Computacional
Coordenador: Fabio Lima Custódio
Áreas do conhecimento: Ciências biológicas
Início da vigência: 26-09-2016

A predição de estruturas de proteínas (PSP) é um dos objetivos mais importantes almejados pela biologia molecular computacional e pela química teórica. Trata-se de uma área de pesquisa de grande destaque atualmente dado o potencial para aplicações em áreas estratégias de grande impacto na biotecnologia e também nas áreas de polímeros e análise de genomas. Como aplicações estratégicas, podemos citar a criação de novas proteínas (e.g., engenharia de novas enzimas) e o desenho racional de fármacos (e.g., tratamento da flexibilidade do receptor). O desafio teórico/metodológico/computacional associado à predição do enovelamento de proteínas é de interesse de diversos grupos científicos no mundo todo. Neste sentido, é realizado bianualmente um encontro de caráter mundial (intitulado CASP - Critical Assessment of Structure Prediction - sua décima primeira edição ocorreu em 2014 no México) para avaliar o estado da arte da capacidade de predição das diferentes metodologias desenvolvidas. É importante ressaltar que nesta competição os grupos/metodologias (e.g., ROSETA, QUARK) mais competitivos fazem uso intensivo de computação de alto desempenho. O grupo de modelagem molecular de sistemas biológicos do LNCC vem desenvolvendo nos últimos dez anos o programa GAPF (Genetic Algorithm for Protein Folding), utilizando metodologias próprias, objetivando a predição de estruturas de proteínas sem a utilização de templates (i.e, predição por primeiros princípios e de novo). O desenvolvimento do programa GAPF não possui paralelo no panorama científico brasileiro e um dos seus objetivos é se tornar uma ferramenta competitiva a nível internacional fornecendo um instrumento importante para as pesquisas brasileiras nas áreas de engenharia de proteínas e biologia molecular e estrutural. São três os objetivos associados a este projeto: (1) Desenvolvimento e teste de novas abordagens metodológicas associadas ao GAPF visando o aumento de sua capacidade preditiva em um contexto de uso de um sistema de supercomputação; (2) Desenvolvimento e disponibilização de um portal web gratuito acoplado ao Santos Dumont para uso do programa GAPF para predição de estruturas de proteínas; (3) Participação no CASP12 (maio a agosto de 2016) utilizando metodologias de PSP template free. É importante ressaltar que sem o uso das capacidades computacionais do Santos Dumont é impossível participar de maneira competitiva no CASP e fornecer os serviços de um portal web viável para a comunidade acadêmica.


Processamento de Alto Desempenho (ft077)

Universidade Estadual de Campinas
Faculdade de Tecnologia
Coordenador: Andre Leon Sampaio Gradvohl
Áreas do conhecimento: Ciência da computação; Educação
Início da vigência: 17-05-2017


Propriedades Mecânicas de Sólidos Quânticos (pmsq)

Universidade Estadual de Campinas
Instituto de Física Gleb Wataghin
Coordenador: Maurice de Koning
Áreas do conhecimento: Física
Início da vigência: 22-12-2016

O projeto visa utilizar simulações massivamente paralelas para estudar o comportamento mecânico de sólidos quânticos como o 4He. Este tipo de sistema tem despertado um grande interesse experimente recente, tendo em vista a possibilidade da existência de uma nova forma da matéria condensada: um sólido com características de superfluidez (escoamento sem resistência). Embora existam muitos dados experimentais, a interpretação dos resultados dos mesmos em termos do comportamento no nível microscópico é difícil. Neste contexto, as simulações atomísticas providenciam uma ferramenta extremamente poderosa que permite o estudo dos mecanismos no nível atômico. As simulações previstas no projeto são baseadas na formulação de Feynman da mecânica quântica, na qual partículas quânticas são representadas por polímeros fechados que interagem entre si. Na prática, as simulações são do tipo Monte Carlo, que visam explorar o espaço configuracional destes polímeros através de uma amostragem aleatórea conhecida como “Path-integral Monte Carlo”. Estamos usando a implementação providenciada pelo código aberto PIMC++, que foi desenvolvido na Universidade de Illinois-Urbana Champaign nos Estados Unidos. Este código é massivamente paralelo no sentido que os elementos dos polímeros são atribuídos a processadores diferentes que comunicam entre si através de MPI. Executando este código em máquinas relativamente pequenas (16 cores), conseguimos obter resultados novos a respeito do comportamento mecânico do 4He, estudando as constantes elásticas (Phys. Rev. B 84, 094119 (2011)) e a resistência mecânica ideal (Phys. Rev. Lett. 112, 155303 (2014)). No entanto, para pode avançar e estudar as propriedades mecânicas em escalas espaciais maiores, estamos precisando de recursos computacionais muito superiores. Se bem-sucedidas, as simulações de larga escala poderão alcançar um patamar novo, permitindo cálculos com milhares de partículas quânticas representadas por polímeros com centenas de elementos.


Recuperação de Petróleo em Campos Maduros (fluid)

Instituto Nacional de Matemática Pura e Aplicada
Laboratório de Dinâmica dos Fluidos
Coordenador: Dan Marchesin
Áreas do conhecimento: Geociências; Matemática
Início da vigência: 22-12-2016

Uma das dificuldades na recuperação do petróleo nos reservatórios é sua viscosidade. Ela pode ser reduzida nos chamados métodos térmicos, em que o petróleo é aquecido no campo; evaporação e recondensação de componentes leves do petróleo também ajudam na recuperação térmica. Estamos estudando o método em que ar é injetado sob pressão no reservatório, reagindo com parte do petróleo, gerando calor e deslocando o petróleo. Na indústria, este método é chamado de HPAI quando aplicado a petróleo leve (High Pressure Air Injection). Aplicado a óleos mais pesados ou viscosos, ocorre a chamada HTO (High Temperature Oxydation). Queremos entender o que acontece no caso de injeção de ar a petróleo intermediário, sobre o qual a literatura é omissa. Descobrimos também a existência de possibilidade de ocorrência de MTO (medium temperatures oxydation), a partir de análise matemática de soluções de modelos de oxidação. Nosso estudo visa verificar se há o potencial para uso destas soluções em nossos campos maduros. Esta linha de pesquisa consiste na utilização de métodos matemáticos para o estudo do tema da Recuperação Terciária de petróleo em campos maduros. Tais campos existem ao largo da costa do Estado do Rio de Janeiro e caracterizam-se por já estarem com sua produção em declínio. Para que se viabilize a continuidade de sua produção, é necessário lançar-se mão de métodos terciários de recuperação de petróleo. As questões relevantes são as de estabilidade da combustão - há ignição ou extinção? Se pode aparecer oxigênio nos poços produtores (afeta a segurança) e finalmente se teremos boa eficiência de deslocamento. Com estas questões resolvidas, outros estudos envolvendo questões importantes, mas menos cruciais devem ser resolvidas, levando em conta melhor as condições de nossos campos maduros. Pretendemos desenvolver a teoria de problemas de Riemann para fluidos trifásicos, restrita a faixas de valores de parâmetros de viscosidade. Propomos considerar viscosidades realistas para água, óleo e gás e resolver o correspondente problema de Riemann. Estamos também estudando também os efeitos das diferenças de densidade entre os fluidos e a gravidade em escoamentos vertical. Pretendemos quantificar o efeito de deslocamentos horizontais e verticais de água, óleo e gás provenientes da injeção de água e/ou gás em reservatórios. Isso poderá permitir melhor calibração do fluido injetado em recuperação secundária de petróleo ou em WAG (water alternating gas) para maximizar a recuperação em campos offshore.


Rede InterSys: Biologia Sistêmica no Estudo de Função Gênica em Interações Bióticas (intersys)

Universidade Federal de Pernambuco
Departamento de Genética
Coordenador: Ana Maria Benko Iseppon
Áreas do conhecimento: Biodiversidade; Ciência da computação; Ciências agrárias; Ciências biológicas; Ciências da saúde
Início da vigência: 16-07-2018

Nos últimos anos, muitas abordagens de biologia computacional emergiram e possibilitaram uma gama de investigação em muitos organismos, sobretudo produzindo uma infinidade de dados ômicos. O Brasil, é um dos países mais abundantes em termos de biodiversidade, entretanto poucos estudos analisaram os aspectos genéticos e moleculares de plantas e seus microbiomas em ambientes neotropicais. As interações simbióticas entre microrganismos e hospedeiro são fundamentais para eucariotos, enquanto que nas plantas essas interações são mais complexas e diversificadas. Nossa equipe vem trabalhando com genômica funcional e estrutural, envolvendo plantas e fitopatógenos de grande importância para a região Nordeste do país. Além disso, nosso projeto tem como objetivo também a descoberta de novos peptídeos antimicrobianos, visando potenciais aplicações biotecnológicas e industriais. Nesse contexto, as abordagens de modelagem e dinâmica molecular fornecem parâmetros para o estabelecimento de novos modelos biológicos. Desta forma, nosso projeto envolve a utilização de ferramentas de bioinformática para a caracterização de genes e proteínas de plantas nativas da Caatinga e cultivadas da região Nordeste, frente a estresses ambientais (seca e salinidade), bem como suas interações a nível de rede biológica entre planta-microrganismos na manutenção do ecossistema.


Refinamento Oceânico Dinâmico para Santa Catarina (rodsc)

Universidade Federal de Santa Catarina
Coordenadoria Especial de Oceanografia
Coordenador: Felipe Mendonça Pimenta
Áreas do conhecimento: Geociências; Oceanografia
Início da vigência: 25-02-2019

O Projeto RODSC irá desenvolver novas ferramentas de modelagem hidrodinâmica para a descrição da circulação de ambientes costeiros do estado de Santa Catarina, incluíndo a sua plataforma continental, baías, lagunas e estuários. A modelagem numérica será realizada através de dois modelos de circulação oceânica, o Finite Volume Ocean Community (FVCOM) (Chen et al., 2003) e o Regional Ocean Modeling System (ROMS) (Shchepetkin & McWilliams, 2005). Estes modelos resolvem as equações de Navier-Stokes para um oceano hidrostático tridimensional não estacionário de superfície livre. Ambos empregam coordenadas do tipo sigma na vertical, melhor representando as camadas limites de superfície e fundo em regiões de topografia complexa. Na horizontal, o FVCOM possui grades não estruturadas e emprega a técnica de volumes finitos. Já o ROMS utiliza grades estruturadas curvilineas e a técnica de diferenças finitas. Estes modelos possuem códigos que demonstram ótimo desempenho em máquinas de processamento paralelo (Cowles, 2008, Haidvogel et al., 2000). O FVCOM e ROMS serão aninhados a produtos que descrevem o estado da circulação global (1980-presente) - as Reanálises Oceânicas do HYCOM (Cummings, 2005) e/ou C-GLORSv5 (Storto et al., 2016). Como forçante atmosférica iremos utilizar as Reanálises Atmosféricas do NCEP (Kanamitsu et al., 2002) e/ou ECMWF (Dee et al, 2011). As marés astronômicas serão derivadas do modelo TPXO9.1 (Egbert and Erofeeva, 2002). O desenvolvimento destas ferramentas hidrodinâmicas irão possibilitar o estudo de cotas de inundação para a costa de Santa Catarina, objetivo central previsto pelo Projeto ROAD (Regional Oceanic and Atmospheric Downscaling), financiado pela CAPES. A base hidrodinâmica criada a partir destes modelos também irá permitir inúmeras outras aplicações práticas como o estudo do transporte de sedimentos, ciclos biogeoquímicos, modelagem de ondas e da qualidade de água.


Scalable GPU Communication Framework for Stencil Based Applications (walberla)

Universidade Federal do Paraná
Departamento de informática
Coordenador: Daniel Weingaertner
Áreas do conhecimento: Ciência da computação; Engenharias; Física; Geociências; Meteorologia; Química
Início da vigência: 02-01-2019

O framework waLBerla implementa diversos kernels para simulações de mecânica dos fluidos computacional, baseados no método de Lattice Boltzmann. Além disso, outras funções são implementadas como pré- e pós-processamento, comunicação e paralelização das simulações. O framework já teve suas capacidades sua eficiência e escalabilidade testadas nos maiores clusters da Alemanha [2, 3]. Entretanto, esses trabalhos tiveram como foco somente a comunicação em simulações implementadas para CPUs, e portanto nenhum enfoque foi dado aos aceleradores (GPUs, Xeon Phi), que são tecnologias emergentes no contexto da área de Computação de Alto Desempenho (HPC). O suporte a CUDA foi adicionado experimentalmente ao waLBerla em 2015, porém com suporte somente a chamada de kernels, isto é, nenhuma infraestrutura de comunicação foi provida. A solução para comunicação que podia ser utilizada neste momento era o de usar MPI DataTypes, em uma implementação MPI com suporte a CUDA (ou CUDA-aware MPI), para que os valores na memória da GPU pudessem ser transferidos para a memória do host, e assim comunicados usando a infraestrutura de comunicação existente do framework. Conforme mostra o trabalho de Carvalho et. al [1], esse esquema de comunicação é ineficiente, e portanto um novo esquema de comunicação foi proposto. Neste projeto, os objetivos são o de (i) implementar uma infraestrutura de comunicação inter-GPUs no waLBerla, (ii) aferir o desempenho das soluções propostas, assim como principais gargalos e limitações, (iii) verificar a escalabilidade das soluções propostas no contexto de um supercomputador, (iv) geração automática do código da infraestrutura de comunicação, com base na especificação dos parâmetros de simulação pelo usuário. Os objetivos foram parcialmente atingidos em [1], porém a escalabilidade foi testada em até 4 nodos e não havia suporte tanto para CUDA streams quanto para comunicação usando GPUDirect, o que foi implementado posteriormente e agora precisa ser testado em uma simulação de maior escala. [1] https://acervodigital.ufpr.br/handle/1884/45773 [2] https://www10.informatik.uni-erlangen.de/static/publications/papers/2013/Godenschwager_SC13.pdf [3] https://arxiv.org/abs/1508.07982


Simulação Computacional Aplicada à Física dos Materiais (SCAFMat)

Universidade Federal de Uberlândia
Instituto de Física
Coordenador: Roberto Hiroki Miwa
Áreas do conhecimento: Engenharias; Física; Química
Início da vigência: 20-12-2016

Atualmente o desenvolvimento de novos (nano)materiais está atrelada ao conhecimento intimo da matéria, isto é, às suas propriedades físicas e químicas em escala atômica. Nesse contexto, a Simulação Computacional, baseado no formalismo da Mecânica Quântica (MQ), tem um papel de destaque na Física dos Materiais. A aplicação da MQ, utilizando-se de métodos de primeiros princípios, permite no estudo bastante realista da estabilidade energética, das propriedades eletrônicas, estruturais e dinâmicas dos materiais, bem como no desing de novos materiais visando diferentes aplicações tecnológicas (engenharia de materiais), como também no estudo de propriedades fundamentais da matéria (ciência básica). Ações que não são excludentes. Nos últimos anos, os isolantes topológicos têm sido foco de diversos estudos relacionados à robustez dos estados (topológicamente) protegidos, frente a contaminação por elementos (átomos) externos, e a sua interação com superfícies formadas por isolantes triviais ou superfícies metálicas; formado-se assim interfaces topológico/trivial ou topológico/metal. Desde a sua síntese, o grafeno tem sido alvo de intensos estudos, não somente as suas propriedades únicas (o grafeno é palco de diversos estudos relacionados às propriedades fundamentais da matéria), como também visando aplicação na engenharia de materiais, em particular no desenvolvimento de sensores e dispositivos (nano)eletrônicos, como o transistores de efeito de campo. As propriedades eletrônicas e estruturais do grafeno (e outros sistemas 2D) são alteradas, em diferentes escalas, devido efeitos de proximidade ou a formação de ligações químicas, com superfícies sólidas; sejam estas metálicas, semicondutoras ou formadas por isolantes topológicos. Isso abre a um leque imenso de possibilidades de funcionalização do grafeno e de outros sistemas 2D (como os dissulfetos metálicos, e mais recentemente o borofano), mediado por uma engenharia de interfaces compostas por “sistemas-2D/superfícies-sólidas”. Superfícies sólidas (cristalinas), sejam elas metálicas ou semicondutoras (triviais ou topológicas), muitas vezes apresentam arranjos atômicos periódicos devido aos processos de reconstrução de forma a reduzir a energia livre da superfície. Tais reconstruções podem servir como guia para a formação de arranjos moleculares auto-organizados sobre superfícies sólidas. De forma simplificada, a formação desses arranjos são mediados por (a) interações entre moléculas e (b) interações molécula- superfície. Uma adequada sinergia entre (a) e (b) irá reger os processos de auto-organização moleculas. Recentemente, essas estruturas moleculares auto-organizadas tem tido um papel importante, por exemplo, na eletrônica molecular (em particular moléculas orgânicas sobre superfícies semicondutoras) e nos processos de catálise (arranjos moleculares sobre superfícies metálicas). Nesse projetos, pretendemos estudar os seguintes tópicos dentro da Física dos Materias: (i) a interação entre sistemas bidimensionais e superfícies sólidas; (ii) a formação de heteroestruturas compostas por empilhamento de estruturas 2D; (iii) a formação de arranjos moleculares auto-organizados em superfícies sólidas. Em (i), teremos como foco o estudo os efeitos de proximidade na estrutura eletrônica dos isolantes topológicos 2D, grafeno e outros sistemas 2D, quando em contato com diferentes substratos, e.g. metálicos ou semicondutores e cristalinos ou amorfos. Em (ii), consideraremos estruturas de super-redes compostas por diferentes empilhamentos de estruturas 2D, bem como processos de intercalação molecular. Por exemplo, super-redes compostas por isolantes-topológicos/isolantes-triviais. Por último, em (iii) pretendemos estudar as propriedades de acoplamento magnético entre moléculas orgânicas funcionalizadas (por exemplo a Fe- porfirina) auto-organizadas sobre superfícies metálicas ou superfícies de isolantes topológicos. O estudo será baseado em simulações computacionais, utilizando-se de métodos de primeiros princípios na MQ, dentro do formalismo da Teoria do Funcional da Densidade (DFT). Alguns estudos de simulação serão baseados em resultados/colaborações com grupos experimentais, em particular em (iii).


Simulação computacional de materiais poliméricos termo-responsivos (mdpol)

Universidade Federal do Rio Grande do Sul
Instituto de Química
Coordenador: Paulo Augusto Netz
Áreas do conhecimento: Física; Química
Início da vigência: 28-11-2018

Materiais termosensíveis são aqueles materiais que respondem de modo drástico com uma propriedade, por exemplo, com alteração do volume, em função de uma alteração das condições de temperatura. Quando ocorre a contração de um polímero em solução aquosa a partir de uma determinada temperatura, por causa do aumento das interações hidrofóbicas, diz-se que o polímero exibe uma temperatura consoluta inferior (LCST). A Poli(N-isopropilacrilamida) (PNIPAm) é um exemplo de polímero termoresponsivo, com LCST próxima à temperatura fisiológica (305 K). Este polímero tem recebido uma grande atenção nas últimas décadas tanto nas áreas acadêmicas como na indústria devido a sua grande variedade de aplicações em biotecnologia, diagnóstico médico, liberação controlada de fármacos, nanotecnologia, entre outras diversas áreas de interesse. O PNIPAm, além de responder a pequenas alterações de temperatura com alterações drásticas em suas propriedades, como um polímero termoresponsivo, também responde a outros estímulos externos, tais como presença de cossolventes, copolímeros, osmólitos, íons, alterações de pressão, pH e outros estímulos. Atualmente, uma busca no Web of Science pelo termo PNIPAm revela um número total de 3651 trabalhos sobre esse polímero. Diversos estudos computacionais e experimentais já foram realizados com polímeros similares ou derivados de PNIPAm. Esses trabalhos revelam que a LCST pode ser ajustada pela adição de copolímeros (mais hidrofóbicos ou hidrofílicos), presença de cossolventes (e.g. álcoois), osmólitos (e.g. uréia e polióis - glicerol, eritritol e xilitol) entre outros aditicos. Mesmo com inumeros estudos experimentais e teóricos sobre PNIPAm e outros polímeros baseados em acrilamidas N-substituídas, ainda não há um consenso sobre como ocorre o colapso desses sistemas e nem sobre como é desencadeada essa transição de fases. Nesse projeto, partindo do conhecimento prévio com polímeros, aplicarei métodos de dinâmica molecular all-atom para elucidação do comportamento, do ponto de vista microscópio, do PNIPAm em solução aquosa com a presença de polióis, bem como do PVCL tendo em vista suas propriedades estruturais, termodinâmicas e seu comportamento de transição de fases.


Simulação Computacional de Proteínas (ronaldolab)

Universidade Federal do Triângulo Mineiro
Departamento de Física
Coordenador: Ronaldo Junio de Oliveira
Áreas do conhecimento: Ciências da saúde; Física
Início da vigência: 25-07-2016

As proteínas fazem parte de uma classe de macromoléculas que têm papel fisiológico fundamental em toda atividade celular dos seres vivos e o desenvolvimento de modelos teórico-computacionais tem contribuído com significativos avanços no entendimento do funcionamento dessas moléculas. Assim, são duas as frentes principais de pesquisa relacionadas a utilização de recursos computacionais do Supercomputador Santos Dumont: (1) cálculo do coeficiente de difusão e (2) estudo do sistema secretor tipo IV (T4S) da Xanthomonas citri (X. citri). 1) O processo de enovelamento de proteína é, em geral, mapeado por meio de uma equação de difusão do tipo Fokker-Planck aplicada ao longo da coordenada de reação (Q), que descreve o grau de similaridade de uma determinada configuração com o estado nativo da proteína. Os tempos de enovelamento podem ser calculados a partir de potenciais efetivos e do coeficiente de difusão (D). Será estudado D em função da coordenada (D(Q)) e seus mecanismos para atingir a estrutura nativa. Será empregado o modelo de rede para as simulações computacionais com o intuito de se obter os potenciais efetivos e D. Também, melhorando o nível de resolução do sistema, será utilizado para as simulações o modelo C-alfa e o modelo com todos-os-átomos. O uso desses modelos, apesar de minimalistas e de razoável nível de resolução, nos permitirá estudar o enovelamento de pequenas proteínas globulares no objetivo de melhor compreender seu complexo mecanismo que os levam para sua estrutura nativa e funcional. 2) O cancro cítrico, causado pela bactéria X. citri, afeta todas as espécies e variedades de citros de importância comercial. Com origem na Ásia, onde ocorre de forma endêmica em todos os países produtores, foi constatado pela primeira vez no Brasil em 1957, nos Estados de São Paulo e Paraná, afetando hoje todo o país e causando enormes prejuízos. O sistema de secreção tipo IV (T4S) é utilizado para translocação de substratos que são importantes para infecção. Outros sistemas T4Ss fazem parte da maquinaria de conjugação bacteriana encontrada em patógenos como, Helicobacter pylori, Brucella spp e Agrobacterium tumefaciens, Legionella pneumophila, Rickettsiella grylli e Coxiella burnetii. O T4SS é um complexo supramolecular de proteínas que atravessa o periplasma e as membranas interna e externa da bactéria gram-negativa. É geralmente composto por 12 proteínas (VirB1 a VirB11 e VirD4). O canal de translocação do substrato através do envelope bacteriano é formado pelas proteínas VirB7, VirB9, e VirB10. O objetivo desse projeto é caracterizar as proteínas do sistema T4S da X. citri, bactéria causadora do cancro cítrico, por meio de modelos teóricos híbridos simplificados. Mais especificamente, identificar a influência do peptídeo VirB7 para a estabilização do complexo dimérico VirB9-VirB7 da X. citri com relação a sua homóloga E. coli e, por fim, modelar o complexo tetradecaédrico T4S da X. citri composto pelas proteínas VirB9, VirB7 e VirB10. A aplicação dos modelos teóricos, juntamente com os estudos experimentais de ressonância magnética nuclear (RMN) e biofísica molecular, poderá contribuir para compreensão dos mecanismos de sistemas secretores e, posteriormente, à geração de novos inibidores dessa infecção.


Simulação Computacional de Reações Catalisadas por Metiltransferases (scrcm)

Universidade Federal do Pará
Instituto de Ciências Biológicas
Coordenador: Jerônimo Lameira Silva
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Química
Início da vigência: 09-07-2018

Apesar do impressionante avanço de software e hardware, o estudo teórico de sistemas compostos por um elevado número de átomos, como é o caso das enzimas, ainda apresenta dificuldades e limitações computacionais. Recentemente, utilizamos o método de mecânica quântica combinado com mecânica molecular (QM/MM) e o método de Dinâmica Molecular para estudar diferentes sistemas biomoleculares (ver lattes http://lattes.cnpq.br/7711489635465954). Nesta proposta, pretende-se utilizar os Supercomputadores Santos Dumont (SDumont/LNCC) e Lobo Carneiro (LoboC/UFRJ) para as aplicações dos referidos métodos no estudo do mecanismo catalítico das enzimas catecol-metiltransferase (COMT), fosfoetanolamina metiltransferase (PfPMT) e Proteína histona metiltransferase (PKMT). Estes métodos são usados por importantes grupos de pesquisa bem como por empresas para propor bioligantes ou inibidores de alvos terapêuticos. Desta forma, pretende-se produzir informações científicas que podem levar ao entendimento da origem do poder catalítico destas enzimas. As informações fornecidas pelos cálculos teóricos podem ser futuramente utilizadas por experimentais os quais podem sintetizar e avaliar a atividade biológica de novas moléculas. Vale ressaltar que esta proposta visa dar continuidade à projetos em andamento no Laboratório de Planejamento e Desenvolvimento de Fármaco da Universidade Federal do Pará, dos quais pode-se destacar um projeto aprovado na CHAMADA UNIVERSAL-MCTI/CNPQ No 14/2014 na faixa A (441922/2014-7) e bolsa de Produtividade em Pesquisa - PQ 2015 - Nível 2 (Vigência: 01/03/2016 - 28/02/2019). Em termos de infraestrutura, o proponente desenvolve pesquisa no Laboratório de Planejamento e Desenvolvimento de Fármaco da Universidade Federal do Pará o qual possui um cluster para realização das simulações computacionais. No entanto, atualmente, a infraestrutura do grupo é utilizada por 11 (onze) alunos de doutorado, 12 (doze) alunos de mestrado e 6 (seis) alunos de graduação, o que tem demandado maior poder computacional. Desta forma, a utilização dos supercomputadores em questão poderia auxiliar no andamento das atividades já mencionadas.


Simulação computacional em materiais: energia e dispositivos semicondutores (matufabc)

Universidade Federal do ABC
Centro de Ciências Naturais e Humanas
Coordenador: Gustavo Martini Dalpian
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 14-09-2016

O tema central deste projeto é a simulação computacional de materiais em diferentes escalas focando no entendimento em nível atômico de processos complexos. Prioridade é dada a cálculos quânticos utilizando-se da Teoria do Funcional da Densidade como principal ferramenta, além de lançar uso de Dinâmica Molecular Quântica ou outras metodologias quando os problemas assim demandam. Nossos projetos seguem principalmente duas linhas: novos materiais para energia; novos dispositivos semicondutores. Na primeira linha, focamos no estudo de novos materiais termoelétricos e no entendimento de materiais usados para construir células fotoeletroquímicas, que transformam a luz do sol em energia. O segundo tema consiste na busca de um novo tipo de dispositivo chamado memoristor. Trata-se de um novo elemento básico da eletrônica, que se junta ao capacitor, o indutor e o resistor. Em resumo, o memoristor é um resistor que possui diversas resistências diferentes. O grupo atua também em outras frentes de estudo, incluindo semicondutores e nanoestruturas.


Simulação de alta performance de processos deposicionais devido a correntes gravitacionais (DNSDAM)

Pontifícia Universidade Católica do Rio Grande do Sul
Faculdade de Engenharia - FENG
Coordenador: Jorge Hugo Silvestrini
Áreas do conhecimento: Engenharias; Geociências
Início da vigência: 18-05-2017

O projeto visa, através de simulações numérica de alta fidelidade, caracterizar geometricamente os depósitos gerados por correntes gravitacionais hipopicnais e hiperpicnais com transporte de sedimentos. A metodologia usada para resolver as equações governantes é a Simulação Numérica Direta (DNS) a qual permite calcular com grande exatidão, todas as escalas do escoamento turbulento e, por tanto, reproduzir de forma acurada, as diferentes instabilidades que ocorrem no processo. Dos resultados obtidos usando DNS, pode-se interpretar a complexa organização espacial e temporal provocada pela frente da corrente caracterizadas por estruturas de lobos e fendas e a influência que estas apresentam na formação de canais sedimentares. Um ponto a destacar é a distribuição espacial tridimensional de camadas de diferentes granulometrias, informação de extrema utilidade para identificar reservatórios O objetivo final é compreender como são formados os depósitos sedimentares e sua evolução temporal e espacial, informações essenciais para a exploração de petróleo e gás.


Simulação de combustão de spray de etanol para aplicação em motores de combustão interna (motoretanol)

Universidade de São Paulo
Escola Politécnica
Coordenador: Günther Carlos Krieger Filho
Áreas do conhecimento: Engenharias
Início da vigência: 17-08-2016

O presente projeto faz parte de uma iniciativa da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) em conjunto com a empresa Peugeot Citröen do Brasil Automóveis Ltda (PCBA), que financiam o Centro de Pesquisa em Engenharia "Prof. Urbano Ernesto Stumpf (http://www.bv.fapesp.br/pt/auxilios/84719/estudo-conceitual-de-um-motor-avancado-a-etanol). Pesquisadores de várias universidades, entre elas a Unicamp, o ITA, a USP e o Instituto Mauá de Tecnologia (IMT) fazem parte do Centro de Pesquisas. O Centro destina-se a estudar o conceito de um motor avançado movido a etanol, que explore as especificidades e características positivas do etanol como combustível. O resultado esperado é uma proposta conceitual para apresentar um motor com um melhor desempenho de etanol e, simultaneamente, uma melhor eficiência. O tema a ser estudado pelo nosso grupo centra-se no estudo da formação fundamental do spray de etanol da mistura (spray) e combustão turbulenta de etanol. A fim de fazer isso, será aplicado estado dos métodos da arte tanto numérica e experimental. No contexto da proposta de "Engineering Research Center", este projeto irá fornecer conhecimentos fundamentais dos processos físicos para apoiar a concepção de novos sistemas de mistura e de combustão turbulenta do etanol em motores de combustão interna. É importante notar que os modelos desenvolvidos usando CFD (Computational Fluid Dynamics) serão validados com dados experimentais obtidos pelo nosso grupo ou com dados obtidos na literatura. Fazendo isso, o design de futuros processos de combustão poderá ser confirmado usando CFD. Um modelo computacional baseado CFD (Computational Fluid Dynamics) será desenvolvido e validado com os dados experimentais obtidos pelo grupo de pesquisa. Este modelo computacional simulará a distribuição de gotas, as velocidades de ambas as fases e a taxa de evaporação do spray de etanol em condições de um motor com injeção direta de combustível (DI, direct injection), além da combustão em regime turbulento do vapor de etanol resultante da evaporação. Apesar da tecnologia tanto dos motores com injeção direta, tanto da simulação da combustão com spray serem conhecidas, existe uma lacuna no conhecimento quando se utiliza combustíveis renováveis, especialmente etanol. E esse é o avanço científico esperado, desenvolver modelos computacionais da formação e desenvolvimento de sprays de etanol e da sua combustão em motores de injeção direta de combustível.


Simulação Monte Carlo para avaliação das blindagens das estações experimentais da nova fonte de luz sincrotron brasileira (sirius)

Centro Nacional de Pesquisa em Energia e Materiais
Grupo de Proteção Radiológica
Coordenador: Roberto Madacki
Áreas do conhecimento: Física
Início da vigência: 21-09-2016

O Brasil terá um novo acelerador de elétrons, o Sírius, o segundo síncrotron de 4a geração a ser construído no mundo, e o de mais alto brilho, que está sendo construído pelo Laboratório Nacional de Luz Síncrotron (LNLS) em Campinas. Assim como o UVX, que foi o primeiro acelerador síncrotron construído pelo LNLS e o primeiro do hemisfério Sul, o Sirius será disponibilizado para toda a comunidade nacional e internacional, para a realização de pesquisas em física, química, medicina, biologia, agricultura, ciências de materiais, farmacologia, geofísica e muitas outras áreas. Um dos maiores diferenciais do Sirius em relação ao estado da arte mundial dos síncrotrons é sua baixíssima emitância (parâmetro que caracteriza quão compacto é o espaço de fase dos elétrons no acelerador, medido em nanômetros-radianos). Tal diferencial tornará o Sirius um líder mundial, com a menor emitância natural dentre os síncrotrons no mundo. Assim, os feixes de radiação eletromagnética produzidos nesse acelerador, iluminarão microscópios (linhas de luz) que farão imagens tridimensionais de materiais, com resoluções espaciais nanométricas, em condições de operação, e com os mais diversos tipos de contraste permitidos pelas interações da radiação eletromagnética com a matéria. Para blindar a radiação sincrotron e o bremsstrahlung presentes nas estações experimentais (cabanas) será necessário utilizar-se de espessuras adequadas de materiais apropriados para esse fim. A análise radiológica da blindagem para o acelerador leva em consideração os seguintes componentes:
• Radiação bremsstrahlung produzida na perda de elétrons (quando interceptam componentes do acelerador ou moléculas de gás residual nas câmaras de vácuo);
• Nêutrons produzidos por bremsstrahlung de alta energia;
• Radiação síncrotron dos dispositivos de inserção e dos dipolos.
As duas primeiras formas de radiação (bremsstrahlung e nêutrons), definem a blindagem no entorno do acelerador. A radiação síncrotron soma-se ao bremsstrahlung e aos nêutrons nas considerações para a definição da blindagem das cabanas das linhas de luz. Neste contexto, a simulação Monte Carlo faz-se necessária para projetar blindagens especiais que mantenham o ambiente externo as cabanas em níveis de dose de radiação dentro da segurança para o público. Utilizaremos para esta análise de doses o software FLUKA, o qual é um pacote de simulação Monte Carlo muito utilizado em Física Nuclear, sendo uma ferramenta essencial nos cálculos de blindagem, cálculos de transporte de partículas e interações com a matéria, física aplicada à Medicina, dosimetria, entre outros.


Simulação Multiescala de Problemas da Engenharia do Petróleo Usando o Método MHM (mhm)

Laboratório Nacional de Computação Científica
Coordenação de Matemática Aplicada e Computacional
Coordenador: Frederic Valentin
Áreas do conhecimento: Ciência da computação; Engenharias; Matemática
Início da vigência: 28-06-2016

Este projeto propõe analisar computacionalmente algoritmos numéricos derivados de uma nova família de métodos de elementos finitos multi-escalas chamada de MHM – Multiscale Hybrid-Mixed. Os métodos MHM são adaptados à resolução de modelos tridimensionais com múltiplas escalas ou com grandes contrastes, caracterizando-se por alta ordem de precisão (baixas taxas de erro) e por incorporar a granularidade e heterogeneidade das novas gerações de arquiteturas massivamente paralelas. Pretende-se aplicar a nova metodologia à simulação de problemas da engenharia de petróleo no âmbito dos projetos HPC4e e HOMAR, com particular interesse em modelos provenientes das áreas de sísmica e de reservatório de petróleo. O objetivo final é inferir/demonstrar a capacidade do algoritmo MHM em resolver modelos com bilhões de graus de liberdade em poucos minutos com imediato impacto na área de engenharia de petróleo. A ultima década foi marcada por um grande desenvolvimento de computadores com arquiteturas massivamente paralelas. As novas arquiteturas baseiam-se na multiplicação do número de processadores (agrupados em cores) com baixa/média velocidade e capacidade de estocagem. Esse novo paradigma implica na revisão do que se espera dos simuladores computacionais. Embora a precisão e robustez dos métodos numéricos continuem sendo atributos fundamentais para a qualidade das simulações computacionais, estes devem ser capazes de naturalmente incorporarem as características intrínsecas das novas gerações de arquiteturas, alem de serem tolerantes a falhas. De fato, falhas durante simulações computacionais de grande vulto são uma certeza neste cenário. Consequentemente, os novos métodos numéricos precisam necessariamente induzir algoritmos assíncronos e que evitem ao máximo comunicações entre processadores. Os métodos numéricos baseados na estratégia de “dividir para conquistar” preenchem tais imperativos arquiteturais, os quais não estão presentes na construção dos métodos numéricos clássicos. De fato, dividir a computação associada a simulações de “altíssimo porte” em um imenso conjunto de problemas independentes de pequeno tamanho apresenta-se como a estratégia desejável. Como resultado, limita-se o impacto das falhas de hardware e tira-se proveito da localidade temporal e espacial das simulações. O método MHM se adequa perfeitamente a esse cenário. Para tanto, dada uma partição (grossa) do domínio, o método MHM relaxa a continuidade da solução que é imposta através de multiplicadores de Lagrange (hibridização). Demonstra-se que a solução exata dos problemas de valores de contorno e/ou de valor inicial incorporam os aspectos multi-escalas e de alto-contraste através de problemas definidos elemento a elemento com condições de contorno dependentes dos multiplicadores de Lagrange. Discretizando-se esse modelo obtêm-se o método MHM, composto de uma formulação global definida no esqueleto da partição, e de uma coleção de problemas locais dirigidos pelos dados do problema e pelos multiplicadores de Lagrange aproximados por polinômios de alta ordem. Ao final, a nova família de métodos MHM possui as seguintes propriedades: (i) Estabilidade e alta ordem de aproximação dirigidos pela aproximação nas faces da partição grossa do domínio; (ii) Inclusão de processos de “upscaling” locais e independente via funções de base, sem a necessidade de “oversampling”; (iii) Produz campos localmente conversativos; (iv) Induz adaptabilidade temporal e espacial via um estimador de erro a posteriori.


Simulação numérica de propagação de fratura hidráulica e interação com fratura natural usando o metodo LEM (fhfnlem)

Pontifícia Universidade Católica do Rio de Janeiro
Instituto Tecgraf
Coordenador: Deane de Mesquita Roehl
Áreas do conhecimento: Engenharias
Início da vigência: 02-08-2018

A produção de reservatórios não convencionais tem revolucionado a indústria de óleo e gás fortemente por meio do desenvolvimento e aplicações inovadoras incluindo perfurações horizontais, estimulação de xisto por fraturamento hidráulico e monitoração microssísmica da estimulação. No entanto, a produção de campos petrolíferos não convencionais pode gerar danos ambientais devido à propagação das fraturas que podem conectar com aquíferos de camadas mais rasas ou a falhas geológicas próximas, aumentando o potencial de ativação e induzindo sismicidade na área. Portanto, é necessário realizar diferentes tipos de estudos e análises para prever o comportamento da fratura hidráulica e sua interação com as fraturas naturais com o propósito de reduzir os riscos associados e levar a produção dos reservatórios de forma segura e responsável. Por outro lado, ao conhecer a direção da propagação das fraturas pode se desenhar planos e estratégias para que a fratura hidráulica estimule a maior quantidade de fraturas naturais de forma controlada e obtenha-se uma maior produção dos depósitos não convencionais. As recentes pesquisas têm enfoque diretamente no desenvolvimento de algoritmos numéricos para modelagem da propagação da fratura hidráulica em rochas caracterizadas pelas suas diferentes propriedades mecânicas, tensões in-situ e descontinuidades naturais. Alguns métodos aplicados amplamente na modelagem de descontinuidades naturais e fraturamento hidráulico são: o método dos elementos finitos (FEM) e o método estendido dos elementos finitos (XFEM). No entanto, eles são focados a analises 2D devido ao grande custo computacional e a complexidades geométricas da malha. Para superar essas limitações e abordar as análises tridimensionais da propagação e interação de fraturas hidráulicas e fraturas naturais se propõe desenvolver uma metodologia usando o método de elementos em celosía (LEM).


Simulações computacionais de materiais e sistemas semicondutores: propriedades termodinâmicas, eletrônicas, ópticas e de caráter topológico (GMSN-ITA)

Instituto Tecnológico de Aeronáutica
Departamento de Física, Divisão de Ciências Fundamentais
Coordenador: Lara Kühl Teles
Áreas do conhecimento: Engenharias; Física
Início da vigência: 30-05-2017

Materiais e sistemas semicondutores revolucionaram o mundo pois são a base da indústria eletrônica. No início, os dispositivos eletrônicos eram inicialmente formados apenas um único material como Si. Contudo, atualmente são complexos, formados por diversos materiais e diferentes dimensionalidades, gerando novos efeitos físicos. Além disso, cada material na maioria das aplicações é formado por diversos elementos químicos. Recentemente, uma revolução aconteceu com a síntese de materiais bidimensionais (2D) como o grafeno, abrindo uma gama de perspectivas tanto do ponto de vista de física básica quanto de aplicações. Atualmente, há uma miríade destes materiais, formada por compostos III-V, fosforeno, entre outros. Para aproximar esta biblioteca de aplicações reais e inovações para a indústria eletrônica, são necessários estudos que tratem da combinação destes materiais para controlar e investigar suas novas propriedades. Por outro lado, o entendimento fundamental destes sistemas semicondutores passa pelo desenvolvimento de aproximações em teoria quântica para sistemas de muitos corpos interagentes, tópico ainda em intenso desenvolvimento na comunidade científica. Na prática, estruturas eletrônicas realísticas não podem ser obtidas por modelos mais simples e, portanto, um modelamento numérico avançado se torna necessário. Ao mesmo tempo, a descrição das propriedades destes materiais requer o modelamento multi-escalonado, no qual as teorias correspondentes devem correlacionar a teoria da estrutura eletrônica atomística com conceitos e técnicas da termodinâmica e da mecânica estatística. Logo estes problemas teóricos se traduzem em soluções computacionais extremamente custosas. O Grupo de Materiais Semicondutores e Nanotecnologia (GMSN) do ITA atua neste universo de sistemas semicondutores, através do desenvolvimento de novas metodologias para a simulação mais realística de sistemas semicondutores. Em particular, o GMSN em colaboração com o Prof. Luiz Guimaraes Ferreira desenvolveu um método original, único na comunidade brasileira, para o cálculo de estados excitados em sólidos, o método LDA-1/2 [Phys. Rev. B78, 125116(2008), AIP Advances 1, 032119(2011)], sendo já amplamente utilizado tanto internamente, como pela comunidade internacional com excelentes resultados, contribuindo assim para o desenvolvimento da pesquisa brasileira neste ramo. O GMSN também desenvolveu diversos métodos estatísticos para o estudo de ligas semicondutoras, correlacionando resultados de cálculos ab initio com propriedades termodinâmicas de ligas. Neste projeto empregaremos diversas metodologias desenvolvidas no GMSN e também outros métodos da literatura no estudo dos seguintes sistemas semicondutores complexos: heteroestruturas de van der Waals, interação de sistemas 2D com substratos/moléculas e ligas semicondutoras, os quais todos possuem direta aplicação em novos dispositivos eletrônicos e opto-eletrônicos. Nosso principal objetivo é produzir com estes trabalhos uma caracterização completa destes sistemas do ponto de visto de suas propriedades, além do que, de forma mais avançada, estudar também suas propriedades topológicas. Umas das grandes vantagens da metodologia LDA-1/2, é permitir calcular estados excitados de forma mais rigorosa em sistemas complexos como os pretendidos. Métodos concorrentes como GW e híbridos, computacionalmente mais custosos, também são de domínio do grupo e serão utilizados, quando possível, em comparação com o método LDA-1/2. Vale ainda ressaltar que esta proposta se insere dentro do projeto PVE/CAPES (processo:88881.0683355/2014-01) e que possuímos uma colaboração nacional o grupo experimental da Profa. Cecília Silva, do MackGraphe.


Simulações Computacionais em Superfícies e Nanoestruturasn (scsn)

Universidade Estadual de Campinas
Instituto de Física Gleb Wataghin
Coordenador: Edison Zacarias da Silva
Áreas do conhecimento: Física; Química
Início da vigência: 27-09-2016

Este projeto de pesquisa utiliza métodos de estrutura eletrônica baseados na teoria do funcional da densidade para estudar propriedades eletrônicas e de transporte, assim como dinâmica molecular ab initio (DM-AI), cálculos estáticos, cálculos de dinâmica molecular tight-binding (TBMD), e dinâmica molecular (DM) com potenciais efetivos para o estudo de diversos problemas em nanociência. O projeto aqui apresentado utiliza principalmente o código VASP para o estudo de estrutura eletrônica de vários materiais com ênfase na formação de estruturas em superfícies e deposição de nanofios em superfícies. Pretendemos estudar o efeito de nanofios metálicos finitos depositados em superfícies de NiAl(110), e também o estudo de sua utilização como catalizadores no estudo da oxidação do CO. Pretendemos também estudar óxidos de tipo AgxMO4 (M= W, Cr, Mo, P) que apresentam um importante efeito de produção de nanofios e clusters de Ag formados pela exposição do material a um feixe de elétrons. Os sistemas associados as superfícies que pretendemos estudar são bem maiores que as que estudamos até o presente e estão além da capacidade computacional instalada que temos, dai a razão do presente projeto.


Simulações das propriedades de transporte eletrônico de biomoléculas adsorvidas em grafeno (dnasim)

Universidade Estadual Paulista Júlio de Mesquita Filho
Instituto de Física Teórica
Coordenador: Alexandre Reilly Rocha
Áreas do conhecimento: Química
Início da vigência: 13-12-2016


Simulações e análise de dados do Observatório Pierre Auger (astroparti)

Universidade de São Paulo
Departamento de Ciência Interdisciplinar
Coordenador: Luiz Vitor de Souza Filho
Áreas do conhecimento: Astronomia; Física
Início da vigência: 26-10-2016

O Observatório Pierre Auger é o maior experimento de astrofísica de partículas em operação. O Observatório vem tomando dados nos últimos 10 anos e vem produzindo uma revolução no nosso conhecimento à respeito da produção das partículas mais energéticas do Universo. Desde a sua inauguração, o Observatório já produziu mais de 80 artigos em revista científicas de alto impacto com um total de mais de 7500 citações. A colaboração brasileira que participa e contribui com estas publicações conta com mais de 20 doutores em 12 instituções de pesquisa espalhadas pelo Brasil. Nossa participação é bastante significativa no Observatório. Temos liderado várias forças tarefas na organização internacional do experimento (17 países), produzindo um número significante de doutorados e envolvido a indústria nacional. Neste quisito, várias indústrias nacionais participaram da construção de equipamentos para o Observatório agregando conhecimento e inovação ao parque industrial brasileiro. Recentemente, o acordo internacional de operação do Observatório foi extendido até 2024 e iniciamos uma etapa de melhorias das instalações dos detectores da qual as universidades e industrias nacionais continuarão participando. Os próximos 10 anos de operação do Observatório Pierre Auger não serão menos produtivos do que a última década. A análise de dados do Observatório depende de simulação detalhada de vários fenômenos físicos e dos detectores. A propagação da partícula da fonte até a Terra, a interação da partícula na atmosféra e a interação das partículas com os detectores precisam ser minuciosamente descritas para que os dados medidos possam ser interpretados. Como pode ser comprovado nos CV Lattes dos proponentes, os pesquisadores brasileiros neste projeto tem experiência no desenvolvimento de softwares para resolver esses problemas de física e transformá-los em conhecimento científico de primeira magnitude. A colaboração brasileira no Observatório Pierre Auger não possue recursos computacionais específicos para a realiação de sua pesquisa. Os resultados anteriormente conseguidos foram alcançados em pequenos conjuntos de processadores (< 50) o que demanda vários meses de processamento para resultados muitas vezes estatisticamente insatisfatórios. Por vezes, colaborações com instituções no exterior tem garantido acesso mínimo a recursos computacionais. Desta forma, apresentamos este projeto de uso do supercomputador Santos Dumont (SDumont). Acreditamos que nossa pesquisa se benificiará imensamente do acesso ao SDumont pois permitirá aos pesquisadores e alunos, atingirem um nível de precisão inédito nos seus resultados em curto período de tempo.


Simulações globais tridimensionais do interior de estrelas ao longo do diagrama HR (hrdyn)

Universidade Federal de Minas Gerais
Departamento de Física
Coordenador: Gustavo Andres Guerrero Eraso
Áreas do conhecimento: Astronomia
Início da vigência: 11-10-2016

O campo magnético é ubíquo no Universo; ele tem sido observado em objetos astrofísicos em todas as escalas, desde planetas e estrelas até aglomerados de galaxias. Acredita-se que diferentes con gurações de campo magnético existem em estrelas de todos os tipos espectrais, e que esse campo participa ativamente em todas as fases evolutivas das mesmas. Essa relação começa desde os estágios iniciais de formação estelar, onde o campo magnético é determinante para o colapso das nuvens de gás e poeira. Posteriormente, a interação das estrelas jovens com o seu disco circunstelar, berçário de possíveis sistemas planetários, é mediada através das linhas de campo magnético. Dessa forma, a evolução rotacional das estrelas é determinada pelo seu magnetismo. Finalmente, conhece-se que é através da atividade magnética que as estrelas interagem com os seus sistemas planetários, sendo o Sol, a nossa estrela mais próxima, o melhor exemplo dessa interação. Os mecanismos que geram e sustentam o campo magnético nas estrelas acontecem no seu interior e, de acordo com a teoria de dínamo, dependem dos movimentos de rotação e de convecção turbulenta. Por serem processos sub- fotosféricos, são impossíveis de serem observados diretamente. Assim, previsões teóricas e simulações computacionais se fazem necessárias para o entendimento desses processos. Com o objetivo de estudar os processos que acontecem no interior das estrelas,especi camente os uxos de matéria e a geração de campo magnético, o presente projeto visa realizar simulações computacionais que resolvem as equações da magnetohidrodinâmica. Os modelos computacionais são globais, em três dimensões e consideram todos os processos físicos necessários ( simulações “ab-initio”) adaptados as condições de estrelas em diferentes estágios evolutivos. Com o tempo requerido no presente projeto pretendemos desenvolver simulações dos seguintes objetos: a) O sol. Apesar de termos observado o sol sistematicamente por alguns centos de anos, o mecanismo de dínamo, responsável pela aparição de manchas solares, fulgurações e ejeções de massa coronal, é ainda desconhecido. Grandes avanços na compreensão da dinâmica do campo magnético solar vem se dando nos últimos anos graças à modelagem computacional de alta resolução (e.g., Guerrero et al 2013, 2016). Vale mencionar que além da sua importância cienti ca, o estudo do magnetismo solar é de grande valor para a sociedade devido às consequências da atividade solar para a terra (e.g., mudanças no clima espacial e talvez na temperatura da terra). b) Estrelas Ttauri. Este tipo de estrelas ainda não entraram na sequencia principal, são de grande relevância para entender o processo de evolução estelar e a formação de sistemas planetários. Muitas observações recentes tem sido capazes de determinar várias propriedades deste tipo de estrelas, incluindo a sua rotação e o seu campo magnético super cial. Os resultados indicam que tanto a velocidade de rotação quanto a morfologia do campo magnético variam com a idade da estrela. Pretendemos então estudar os motivos físicos dessas mudanças a partir de simulações de estrelas Ttauri em diferentes estágios evolutivos. Conhecer a evolução do campo magnético durante a vida das estrelas é fundamental nos estudos de habitabilidade em planetas fora do sistema solar.


Simulações hidrodinâmicas tridimensionais da dinâmica do gás no interior de galáxias anãs (HD3DdSph)

Universidade Cruzeiro do Sul
Núcleo de Astrofísica Teórica
Coordenador: Anderson Caproni
Áreas do conhecimento: Astronomia
Início da vigência: 06-06-2017

Galáxias esferoidais anãs estão entre os objetos do nosso universo local menos luminosos e mais maciços (dominados pela matéria escura) conhecidos até o presente momento. Uma das características mais marcantes dessas galáxias é a ausência quase completa de gás neutro em seus interiores. As causas que levaram à remoção do conteúdo gasoso nesses sistemas ao longo de sua evolução ainda são controversas na literatura científica, sendo basicamente divididas em duas grandes categorias: mecanismos internos, associados à atividade estelar nessas galáxias (supernovas, ventos, etc.), e mecanismos de origem externa, relacionados à interação do meio interestelar das galáxias com perturbadores externos a essas (por exemplo, pressão de arrasto produzida pelo meio intergaláctico, marés gravitacionais, etc.). Devido à natureza não linear na interação desses mecanismos físicos com o gás nessas galáxias, bem como a ausência de simetria espacial nessas interações, se faz necessário o uso de simulações hidrodinâmicas em três dimensões para uma descrição mais apropriada do comportamento dinâmico do gás ao longo da história de evolução desses sistemas. Nesse contexto, o objetivo principal do presente projeto é estudar, do ponto de vista hidrodinâmico, como as galáxias esferoidais anãs perderam seus respectivos conteúdos gasosos ao longo de sua história evolutiva, priorizando dois mecanismos físicos: remoção via supernovas do tipo II e Ia, e remoção por pressão de arrasto induzida pelo movimento dessas galáxias através do meio intergaláctico. O fato de analisarmos sistemas com dimensões físicas da ordem de milhares de parsecs com resoluções espaciais de apenas alguns parsecs, impõe um grande desafio numérico que pode ser superado apensas com o uso de supercomputadores como o pleiteado neste projeto.


Simulações in silico de adjuvantes biotecnológicos para a Diabetes 2 e o Mal de Alzheimer (phast2)

Universidade Tecnológica Federal do Paraná
Programa de Pós-Graduação em Processos Químicos e Biotecnológicos
Coordenador: Rafael Bertolini Frigori
Áreas do conhecimento: Ciências biológicas; Ciências da saúde; Física
Início da vigência: 20-03-2019

Utilizaremos sofisticadas técnicas de simulação paralela para estudar in silico as interações com Insulina de análogos da Amilina humana, previamente descobertos no projeto PHAST, visando avaliar seu potencial de coformulação farmacêutica para o tratamento da Diabetes. Posteriormente, analisaremos se esses análogos permitem inibir a agregação das proteínas Beta-Amilóides, desencadeadoras do mal de Alzheimer.


Solvatação de ácidos em grãos de gelo (asig)

Universidade Federal de São Carlos
Departamento de Física
Coordenador: Pedro Augusto Franco Pinheiro Moreira
Áreas do conhecimento: Física; Química
Início da vigência: 28-06-2018

O entendimento da interação entre ácido e o gelo é essencial para compreender a química atmosférica e suas consequências para o clima terrestre. A absorção de ácido clorídrico na superfície de nuvens polares estratosféricas, por exemplo, é um mecanismo fundamental para entender a destruição da camada de ozônio. Erupções vulcânicas dispersam parte signifcativa do HCl presente na Natureza. eas, devido a sua alta solubilidade em água, todo HCl da troposfera precipita com a chuva. Outra fonte de HCl era de fonte industrial através dos CFCs (clorofuorcarbonos) que alcançavam a troposfera, mas atualmente proibidos de serem produzidos por sua difícil degradação. Outro ácido de interesse é o HF que pode ajudar a entender os mecanismos de ionização no gelo. Interações entre moléculas de gás e gelo envolvem sequências de diversos processos e continuam tópico de pesquisa atual. A absorção de gás no gelo é frequentemente seguindo por uma reação química. É difícil obter informações através de experimentos devido a escala microscópica do fenômeno e sua velocidade. Por isso, técnicas de simulação computacional são úteis para entender tais processos de absorção de gás pelo gelo. Usaremos o estado da arte em cálculos baseados em Teoria do Funcional da Densidade (DFT) para investigar tais fenômenos. Já publicamos resultados de simulações abordando a absorção de gás por superfícies quando camadas quasi-líquidas não estão presentes na superfície do gelo. Recentemente, desenvolvemos a capacidade de gerar células computacionais de grãos de gelo e publicamos um trabalho mostrando um dinâmica subdifusiva das moléculas de água na interface dos grãos. Nas simulações deste projeto, pretendemos combinar os trabalhos mencionados acima e abordar o efeito da interface dos grãos na solvatação de moléculas de ácido pelo gelo. Devido ao grande número de átomos necessários para gerar uma célula de tamanho mínimo, que contenha dois grãos de gelo e que possua condições periódica de contorno para realizar os cálculos de DFT , é necessário o uso de supercomputadores.


Spin dynamics in magnetic topological insulators: implications for quantum and classical devices (sdtopol)

Universidade Federal Fluminense
Instituto de física
Coordenador: Antonio Tavares da Costa
Áreas do conhecimento: Física
Início da vigência: 25-06-2018

This project aims at exploring the potential of magnetic topological insulators as building blocks for classical communication devices of nanoscopic dimensions or quantum communication devices. The first part of the project will assess their possible usefulness as quantum and classical data buses. The second part will deal with their properties as nano emitters of electromagnetic radiation in the terahertz frequency range. Topological insulators have unique electronic properties stemming from their peculiar electronic structure: a set of topologically protected edge states and an insulating bulk. The edge states can be used as practically lossless charge channels. They also have unique spin transport properties, such as a ground state spin current. The combination between topological insulators and magnetic adatoms or clusters can be used to store, transmit and manipulate information, both classically and quantum mechanically. Carefully chosen magnetic adatoms may be used to provide the needed coupling with the protected edge states without disturbing significantly their transport properties. They can also serve as qubits or classical bits themselves: the large spin-orbit coupling present in the topological insulator induces large magnetocrystalline anisotropy in the magnetic adatom, making its magnetization direction stable at finite temperatures. The same strong anisotropy renders each magnetic adatom a nano oscillator with a natural oscillation frequency in the terahertz range. If a number of magnetic adatoms is deposited onto a topological insulator, the edge states will couple their magnetizations and can, eventually, lead to synchronized or phase-locked nano oscillators. Those are, in principle, useful resources for building medium and long range miniaturized communication devices. By formulating realistic models for the electronic structure of the magnetic topological insulators we will be able to evaluate the energy dissipation rate of the relevant processes quantitatively. The study of the thermodynamics of spin currents and spin excitations will allow us to devise energy efficient data buses and nano emitters. It will also shed light onto the fundamental features of spin relaxation, which is currently a subject of intense debate. Our results should be useful for guiding experimental attempts at building energy efficient computational devices.


Teoria do Funcional da Densidade Aplicada ao Estudo de Materias para Conversão de Energia (qtnano2)

Universidade de São Paulo
Instituto de Química de São Carlos
Coordenador: Juarez Lopes Ferreira da Silva
Áreas do conhecimento: Física; Química
Início da vigência: 09-04-2019

Estudos têm indicado que a contribuição da energia solar obtida através da conversão de fótons em elétrons via dispositivos semicondutores deve aumentar sua contribuição na matriz energética mundial de 1% para 30%, o que deve contribuir significativamente para para a redução da emissão de CO2 e, consequentemente, desaceleração do aquecimento global. O Brasil, como signatário das principais convenções internacionais sobre meio ambiente, deve adotar medidas de incentivo ao maior aproveitamento da energia solar, o que, entretanto, requer avanços científicos consideráveis, principalmente, no desenvolvimento de materiais para a construção de dispositivos de conversão energética com alta eficiência e baixo custo. Neste projeto, portanto, concentraremos nossos esforços em três classes promissoras de materiais, especificamente, calcogenetos, perovskitas, e materiais orgânicos, os quais foram selecionados devido às seguintes razões:
• Calcogenetos têm sido utilizados em células solares de CdTe/CdS com eficiências de até 20%, entretanto, a utilização de calcogenetos bidimensionais abre novas perspectivas, principalmente, devido à possibilidade de construção de heteroestruturas de van der Waals.
• Células solares com base em perovskitas têm chamado grande atenção, principalmente devido ao rápido ganho de eficiência nos últimos 10 anos, entretanto, ainda existem problemas em aberto. Vários esforços estão sendo realizados com o objetivo de encontrar uma solução para substituir chumbo nas perovskitas utilizadas em células solares, evitando o risco de contaminação do ambiente por este metal pesado.
• Além disso, a flexibilidade de células solares com base em materiais orgânicos abre perspectivas para novas aplicações. Dentre os materiais orgânicos, vamos explorar complexos organometálicos a base de compostos polipiridínicos coordenados em centros metálicos como Ru, Os, Re, Fe, Pt e Cu, ou compostos com grandes grupos conjugados, como as porfirinas e ftalocianinas, ou ainda compostos com grupos aceitadores e doadores de elétrons separados por grupos conjugados, os quais propiciam a transferência de elétrons. Assim, pretendemos contribuir para a geração de conhecimento em novos materiais para utilização em células solares e, para tanto, empregaremos o estado da arte em métodos computacionais atomísticos baseados, por exemplo, na teoria do funcional da densidade.


TopSim: Um framework baseado em plugins para análise numérica em larga escala. (TopSim)

Pontifícia Universidade Católica do Rio de Janeiro
Informática
Coordenador: Waldemar Celes Filho
Áreas do conhecimento: Ciência da computação; Engenharias
Início da vigência: 17-05-2017

O principal objetivo desta pesquisa é o uso de computação híbrida, distribuída e paralela (futuramente também em GPU), aplicada à análise numérica pelo Método dos Elementos Finitos (MEF) para a solução de problemas de otimização topológica. Uma das metas é realizar a maior simulação de otimização topológica já feita até o momento, com 1 bilhão de incógnitas em um sistema linear de equações. O projeto pretende dar continuidade à colaboração com o Prof. Glaucio Paulino da Georgia Tech University, responsável por disponibilizar o supercomputador Blue Waters, onde uma primeira versão do código já foi implementada e testada, com o apoio do CNPq. Ressalta-se que a colaboração com o Prof. Paulino e sua equipe já gerou a publicação de dois trabalhos em periódicos: “Topology optimization using polytopes”, Journal of Computational Physics; e “PolyTop++: An efficient alternative for serial and parallel topology optimization on CPUs & GPUs”, Journal of Structural and Multidisciplinary Optimization. A continuação da pesquisa é fundamental para o desenvolvimento do sistema em supercomputadores, garantindo eficiência com modelos de larga escala. Uma das principais áreas de interesse deste trabalho é a solução de problemas de otimização topológica com malhas da ordem de centenas de milhões de elementos. O método de otimização topológica é usado em problemas que buscam a distribuição ótima da quantidade de material no interior de um domínio submetido a um conjunto de carregamentos e condições de contorno. Este método tem sido aplicado em diferentes áreas, tais como: bioengenharia, na qual pacientes em reconstrução facial podem fazer uma substituição óssea com sua forma e função otimizada; no projeto de asas de avião, com o mínimo de material e o máximo de resistência às condições de uso; e no projeto de peças automotivas e mecânica dos fluidos.


Uso de simulações computacionais de parâmetros espectrais de RMN como suporte a caracterização de vidros metálicos (rmnvm)

Universidade Federal de São Carlos
Centro de Ciências Exatas e de Tecnologia
Coordenador: José Pedro Rino
Áreas do conhecimento: Ciência dos materiais; Física; Química
Início da vigência: 26-06-2017

O objetivo principal da pesquisa é estabelecer e validar um protocolo que permita o emprego consistente de simulações computacionais como um suporte ao estudo das estruturas atômica e eletrônica de vidros metálicos com a espectroscopia por ressonância magnética nuclear de estado sólido (RMN-ES). Existe um grande interesse tecnológico no desenvolvimento destes materiais, para os quais a caracterização estrutural em escala atômica ainda representa um obstáculo para a otimização das técnicas de produção e processamento dos mesmos. Neste âmbito, a espectroscopia por RMN-ES tem se mostrado uma ferramenta bastante promissora. No entanto, devido às interações entre os spins nucleares e os spins dos elétrons de condução, bem como à própria natureza amorfa destas ligas, o uso de simulações computacionais se faz necessário para o estabelecimento de conexões unívocas entre os picos observados nos espectros e a estrutura local subjacente. A validação da abordagem teórica será realizada fazendo uso de dados experimentais disponíveis na literatura.


Utilização do SD por parte do experimento LHCB do CERN e seu grupo brasileiro (lhcb)

Centro Brasileiro de Pesquisas Físicas
Coordenação de Física de altas Energias
Coordenador: Renato Santana
Áreas do conhecimento: Física; Matemática
Início da vigência: 31-01-2017


Vínculos dinâmicos para a evolução primordial do Sistema Solar e de sistemas extrassolares (PLANETARY)

Observatório Nacional
Coordenação de Pesquisas em Astronomia e Astrofísica
Coordenador: Fernando Virgilio Roig
Áreas do conhecimento: Astronomia
Início da vigência: 05-06-2017

A migração planetária,ocorrida nos primórdios da formação dos sistemas planetários, tem recebido uma atenção especial nas últimas décadas, principalmente na explicação das configurações orbitais dos planetas extrassolares e tem sido de fundamental importância para melhor entender a arquitetura do nosso sistema solar. O primeiro modelo de migração radial para o sistema solar está vinculado à interação dos planetas gigantes com um disco de planetesimais remanescente do processo de formação. O intercâmbio de momento angular com o disco fez com que os planetas migrassem até atingir as suas órbitas atuais. Neste processo acontece uma fase de instabilidade, conhecida como “modelo de Nice”, causada por encontros próximos entre os planetas gigantes, levando a que a migração ocorra de forma discreta através de saltos radiais. Paralelamente, modelos de migração em discos de gás adquiriram relevância, visando explicar a arquitetura dos planetas extrassolares. A migração de um planeta num disco de gás é devida à ocorrência de torques entre o planeta e o disco que causam uma perda de momento angular e fazem o planeta migrar em direção à estrela. Ao considerar dois planetas ou mais migrando no mesmo disco, pode ocorrer captura em ressonância de períodos orbitais levando a uma eventual inversão do sentido da migração. Este cenário é conhecido no sistema solar como “modelo do Grand Tack”. O objetivo deste projeto é explorar a formação e evolução de planetas em discos de gás e de planetesimais, no âmbito dos dois modelos mencionados acima, visando responder a questões como: quais seriam as configurações orbitais possíveis dos planetas após a migração, como formar sistemas compactos de planetas terrestres, quais seriam as propriedades dos discos em que ocorre a migração, quais os efeitos da migração em populações de pequenos corpos como asteroides e cometas, como isso influencia à dinâmica de novos sistemas de exoplanetas, etc.