Destaques



Centro de Computação de Alto Desempenho do SINAPAD apoiado pela FAPESP

A valorização da ciência e tecnologia como propulsores do desenvolvimento, aliada à compreensão dos desafios nacionais, aponta para uma abordagem abrangente e integrada. A colaboração entre diferentes setores da sociedade e a busca por soluções inovadoras podem contribuir para o progresso sustentável do Brasil no cenário global.
Nessa linha, o Laboratório Nacional de Computação Científica foi selecionado na chamada FAPESP lançada com o MCTI, Mcom e CGI.br para apoio a Centros de Computação de Alto Desempenho. O projeto é coordenado pelo atual diretor do LNCC, o Tecnologista Fábio Borges de Oliveira.
De acordo com o Coordenador Executivo do projeto, o Tecnologista Antônio Tadeu Azevedo Gomes, trata-se de um "Projeto importantíssimo para reforçar o papel do LNCC como principal player da supercomputação acadêmica no Brasil."
O projeto tem como objetivos principais: (i) a revitalização de alguns dos centros que compõem o Sistema Nacional de Processamento de Alto Desempenho – SINAPAD; e (ii) a reformulação de seu modelo organizacional em tiers (camadas).
Esses objetivos, uma vez atendidos, viabilizarão o atendimento das necessidades de PAD de uma parcela importante da comunidade científica nacional, representada na proposta não só pelos seus pesquisadores associados, vinculados às instituições parceiras, mas também, e principalmente, pelo grande volume de pesquisadores de outras instituições atualmente usuários dos centros que compõem o SINAPAD.
Os pesquisadores associados em conjunto com os demais pesquisadores usuários dos centros formam um corpo científico que, atualmente, cobre 18 estados da federação e 19 áreas do conhecimento, a saber: Química, Física, Engenharias, Ciência da Computação, Ciências Biológicas, Ciências da Saúde, Geociências, Ciência dos Materiais, Matemática, Astronomia, Meteorologia, Biodiversidade, Linguística, Farmácia, Ciências Agrárias, Ciências Sociais, Oceanografia, Economia, e Administração, tendo como principais ODS a serem trabalhados: Saúde e Qualidade (3); Indústria, Inovação e Infraestruturas (9); Cidades e Comunidades Sustentáveis (11) e Parcerias e Meios de Implementação (17).
O Processamento de Alto Desempenho (PAD) é atualmente uma área chave para a pesquisa científica e industrial. Iniciativas de pesquisa de espectro amplo, custo alto e intensivas de computação (como física de altas energias, climatologia, biomedicina, energia renovável e aeronáutica, para citar algumas) têm promovido historicamente a área de PAD nos países mais desenvolvidos economicamente.
Este projeto visa apoiar o aumento da competitividade da pesquisa científica e industrial brasileira por meio da aquisição de um conjunto de 5 supercomputadores de forma a recompor a capacidade computacional do SINAPAD, instituído pelo Decreto Presidencial 5.156 de 26 de julho de 2004, sendo sua missão Fomentar e apoiar o avanço do conhecimento científico e tecnológico por meio da oferta de serviços de Processamento de Alto Desempenho ao Sistema Nacional de Educação, Ciência, Tecnologia e Inovação, o governo e empresas.
O projeto contempla também a reformulação de modelo organizacional do SINAPAD em tiers (camadas), sendo o LNCC o "Tier 0" com o supercomputador Santos Dumont e os 5 centros do SINAPAD participantes desta proposta os "Tier 1", atendendo as diferentes regiões do País.
A Instituição sede é o Laboratório Nacional de Computação Científica (LNCC) e as parceiras são: Centro Nacional de Supercomputação/CESUP/UFRGS, Instituto Alberto Luiz Coimbra de Pós Graduação e Pesquisa de Engenharia/COPPE/UFRJ, Instituto Metrópole Digital/IMD/UFRN, Laboratório Multiusuário de Computação Científica/LCC/UFMG e Centro Nacional de Processamento de Alto Desempenho/PRPPG/UFC.
A manutenção de sistemas estruturados de Ciência e Tecnologia é realidade em todos os países líderes e destacar a centralidade das políticas de pesquisa e desenvolvimento como parte da consolidação do avanço científico do país é um passo positivo. A união de academia, governo (nas diversas esferas), indústrias, empresas e sociedade é essencial para criar um ambiente propício à inovação e ao desenvolvimento tecnológico.
O esforço mencionado na preservação do Sistema Nacional de Ciência, Tecnologia e Inovação destaca o comprometimento da comunidade científica em meio aos desafios. Esse comprometimento é uma peça-chave para a continuidade do desenvolvimento científico no país.
Para saber mais, acesse: https://fapesp.br/16543/centros-de-computacao-de-alto-desempenho-sao-selecionados
Sobre o SINAPAD, veja aqui: https://www.lncc.br/sinapad
Créditos: Anmily Paula Martins, Antônio Tadeu Azevedo Gomes, Graziele Soares e Tathiana Tapajós
Serviço de Comunicação Institucional
secin@lncc.br
A valorização da ciência e tecnologia como propulsores do desenvolvimento, aliada à compreensão dos desafios nacionais, aponta para uma abordagem abrangente e integrada. A colaboração entre diferentes setores da sociedade e a busca por soluções inovadoras podem contribuir para o progresso sustentável do Brasil no cenário global.
Nessa linha, o Laboratório Nacional de Computação Científica foi selecionado na chamada FAPESP lançada com o MCTI, Mcom e CGI.br para apoio a Centros de Computação de Alto Desempenho. O projeto é coordenado pelo atual diretor do LNCC, o Tecnologista Fábio Borges de Oliveira.
De acordo com o Coordenador Executivo do projeto, o Tecnologista Antônio Tadeu Azevedo Gomes, trata-se de um "Projeto importantíssimo para reforçar o papel do LNCC como principal player da supercomputação acadêmica no Brasil."
O projeto tem como objetivos principais: (i) a revitalização de alguns dos centros que compõem o Sistema Nacional de Processamento de Alto Desempenho – SINAPAD; e (ii) a reformulação de seu modelo organizacional em tiers (camadas).
Esses objetivos, uma vez atendidos, viabilizarão o atendimento das necessidades de PAD de uma parcela importante da comunidade científica nacional, representada na proposta não só pelos seus pesquisadores associados, vinculados às instituições parceiras, mas também, e principalmente, pelo grande volume de pesquisadores de outras instituições atualmente usuários dos centros que compõem o SINAPAD.
Os pesquisadores associados em conjunto com os demais pesquisadores usuários dos centros formam um corpo científico que, atualmente, cobre 18 estados da federação e 19 áreas do conhecimento, a saber: Química, Física, Engenharias, Ciência da Computação, Ciências Biológicas, Ciências da Saúde, Geociências, Ciência dos Materiais, Matemática, Astronomia, Meteorologia, Biodiversidade, Linguística, Farmácia, Ciências Agrárias, Ciências Sociais, Oceanografia, Economia, e Administração, tendo como principais ODS a ser
...
Mostre mais
A valorização da ciência e tecnologia como propulsores do desenvolvimento, aliada à compreensão dos desafios nacionais, aponta para uma abordagem abrangente e integrada. A colaboração entre diferentes setores da sociedade e a busca por soluções inovadoras podem contribuir para o progresso sustentável do Brasil no cenário global.
Nessa linha, o Laboratório Nacional de Computação Científica foi selecionado na chamada FAPESP lançada com o MCTI, Mcom e CGI.br para apoio a Centros de Computação de Alto Desempenho. O projeto é coordenado pelo atual diretor do LNCC, o Tecnologista Fábio Borges de Oliveira.
De acordo com o Coordenador Executivo do projeto, o Tecnologista Antônio Tadeu Azevedo Gomes, trata-se de um "Projeto importantíssimo para reforçar o papel do LNCC como principal player da supercomputação acadêmica no Brasil."
O projeto tem como objetivos principais: (i) a revitalização de alguns dos centros que compõem o Sistema Nacional de Processamento de Alto Desempenho – SINAPAD; e (ii) a reformulação de seu modelo organizacional em tiers (camadas).
Esses objetivos, uma vez atendidos, viabilizarão o atendimento das necessidades de PAD de uma parcela importante da comunidade científica nacional, representada na proposta não só pelos seus pesquisadores associados, vinculados às instituições parceiras, mas também, e principalmente, pelo grande volume de pesquisadores de outras instituições atualmente usuários dos centros que compõem o SINAPAD.
Os pesquisadores associados em conjunto com os demais pesquisadores usuários dos centros formam um corpo científico que, atualmente, cobre 18 estados da federação e 19 áreas do conhecimento, a saber: Química, Física, Engenharias, Ciência da Computação, Ciências Biológicas, Ciências da Saúde, Geociências, Ciência dos Materiais, Matemática, Astronomia, Meteorologia, Biodiversidade, Linguística, Farmácia, Ciências Agrárias, Ciências Sociais, Oceanografia, Economia, e Administração, tendo como principais ODS a serem trabalhados: Saúde e Qualidade (3); Indústria, Inovação e Infraestruturas (9); Cidades e Comunidades Sustentáveis (11) e Parcerias e Meios de Implementação (17).
O Processamento de Alto Desempenho (PAD) é atualmente uma área chave para a pesquisa científica e industrial. Iniciativas de pesquisa de espectro amplo, custo alto e intensivas de computação (como física de altas energias, climatologia, biomedicina, energia renovável e aeronáutica, para citar algumas) têm promovido historicamente a área de PAD nos países mais desenvolvidos economicamente.
Este projeto visa apoiar o aumento da competitividade da pesquisa científica e industrial brasileira por meio da aquisição de um conjunto de 5 supercomputadores de forma a recompor a capacidade computacional do SINAPAD, instituído pelo Decreto Presidencial 5.156 de 26 de julho de 2004, sendo sua missão Fomentar e apoiar o avanço do conhecimento científico e tecnológico por meio da oferta de serviços de Processamento de Alto Desempenho ao Sistema Nacional de Educação, Ciência, Tecnologia e Inovação, o governo e empresas.
O projeto contempla também a reformulação de modelo organizacional do SINAPAD em tiers (camadas), sendo o LNCC o "Tier 0" com o supercomputador Santos Dumont e os 5 centros do SINAPAD participantes desta proposta os "Tier 1", atendendo as diferentes regiões do País.
A Instituição sede é o Laboratório Nacional de Computação Científica (LNCC) e as parceiras são: Centro Nacional de Supercomputação/CESUP/UFRGS, Instituto Alberto Luiz Coimbra de Pós Graduação e Pesquisa de Engenharia/COPPE/UFRJ, Instituto Metrópole Digital/IMD/UFRN, Laboratório Multiusuário de Computação Científica/LCC/UFMG e Centro Nacional de Processamento de Alto Desempenho/PRPPG/UFC.
A manutenção de sistemas estruturados de Ciência e Tecnologia é realidade em todos os países líderes e destacar a centralidade das políticas de pesquisa e desenvolvimento como parte da consolidação do avanço científico do país é um passo positivo. A união de academia, governo (nas diversas esferas), indústrias, empresas e sociedade é essencial para criar um ambiente propício à inovação e ao desenvolvimento tecnológico.
O esforço mencionado na preservação do Sistema Nacional de Ciência, Tecnologia e Inovação destaca o comprometimento da comunidade científica em meio aos desafios. Esse comprometimento é uma peça-chave para a continuidade do desenvolvimento científico no país.
Para saber mais, acesse: https://fapesp.br/16543/centros-de-computacao-de-alto-desempenho-sao-selecionados
Sobre o SINAPAD, veja aqui: https://www.lncc.br/sinapad
Créditos: Anmily Paula Martins, Antônio Tadeu Azevedo Gomes, Graziele Soares e Tathiana Tapajós
Serviço de Comunicação Institucional
secin@lncc.br

Mostre menos

Cryo-EM structures define ubiquinone-10 binding to mitochondrial complex I and conformational transitions accompanying Q-site occupancy

Na respiração, inalamos oxigênio do ar que passa dos pulmões ao sangue até ser distribuído para todas as células de nosso corpo. Mas, qual o papel dessa molécula de oxigênio dentro de cada célula?
Cientistas do Instituto de Química da USP (IQ-USP) em colaboração com pesquisadores na Universidade de Cambridge, Reino Unido, utilizaram o supercomputador SDumont-LNCC para responder uma parte essencial desta pergunta.
Em artigo publicado na revista Nature Communications, os pesquisadores mostram através de simulações moleculares e experimentos de microscopia eletrônica, como a proteína conhecida por complexo respiratório I participa da cadeia de reações que transfere elétrons de nutrientes até a molécula de oxigênio. Este processo é fundamental para compreendermos como os organismos obtêm energia dos alimentos, e também para desenvolvermos tratamentos para doenças cardíacas e degenerativas ligadas ao metabolismo.
Link para o artigo: https://www.nature.com/articles/s41467-022-30506-1
Na respiração, inalamos oxigênio do ar que passa dos pulmões ao sangue até ser distribuído para todas as células de nosso corpo. Mas, qual o papel dessa molécula de oxigênio dentro de cada célula?
Cientistas do Instituto de Química da USP (IQ-USP) em colaboração com pesquisadores na Universidade de Cambridge, Reino Unido, utilizaram o supercomputador SDumont-LNCC para responder uma parte essencial desta pergunta.
Em artigo publicado na revista Nature Communications, os pesquisadores mostram através de simulações moleculares e experimentos de microscopia eletrônica, como a proteína conhecida por complexo respiratório I participa da cadeia de reações que transfere elétrons de nutrientes até a molécula de oxigênio. Este processo é fundamental para compreendermos como os organismos obtêm energia dos alimentos, e também para desenvolvermos tratamentos para doenças cardíacas e degenerativas ligadas ao metabolismo.
Link para o artigo: https://www.nature.com/articles/s41467-022-30506-1
...
Mostre mais
Na respiração, inalamos oxigênio do ar que passa dos pulmões ao sangue até ser distribuído para todas as células de nosso corpo. Mas, qual o papel dessa molécula de oxigênio dentro de cada célula?
Cientistas do Instituto de Química da USP (IQ-USP) em colaboração com pesquisadores na Universidade de Cambridge, Reino Unido, utilizaram o supercomputador SDumont-LNCC para responder uma parte essencial desta pergunta.
Em artigo publicado na revista Nature Communications, os pesquisadores mostram através de simulações moleculares e experimentos de microscopia eletrônica, como a proteína conhecida por complexo respiratório I participa da cadeia de reações que transfere elétrons de nutrientes até a molécula de oxigênio. Este processo é fundamental para compreendermos como os organismos obtêm energia dos alimentos, e também para desenvolvermos tratamentos para doenças cardíacas e degenerativas ligadas ao metabolismo.
Link para o artigo: https://www.nature.com/articles/s41467-022-30506-1

Mostre menos

How Crystallization Affects the Oriented Attachment of Silver Nanocrystals

Em destaque na 1a edição de Abril de 2021 do The Journal of Physical Chemistry C, o trabalho entitulado “How Crystallization Affects the Oriented Attachment of Silver Nanocrystals” empregou a simulação computacional para estudar a interação entre modelos de nanocristais de prata similares aos que já são observados experimentalmente. Nesses experimentos em laboratório, um sal que contém prata é dissolvido em solução aquosa e misturado a um polímero líquido. Em seguida, deixa-se a mistura descansar numa temperatura fixa. Com o passar do tempo surgem pequenos particulados que podem ser filtrados e separados do líquido. A análise destes particulados permite descobrir que são feitos de prata pura, oriunda do sal usado como reagente. Realizam-se então variações deste processo, permitindo a descoberta de alterações na geometria do particulado em função de parâmetros termodinâmicos presentes durante o processo de reação, possibilitando produtos nanoscópicos. Nesse processo notou-se que alguns dos nanomateriais encontrados em laboratório apresentam uma organização cristalina atípica, inexistente em materiais convencionais. Nesta organização, defeitos periódicos e padronizados separam domínios cristalinos, fato que pode ser aproveitado para a construção de dispositivos e sensores. Para contribuir com o entendimento desses processos, os professores Giovani M. Faccin(UFGD), Zenner S. Pereira (UFERSA) e Edison Z. da Silva(UNICAMP) realizaram simulações com o auxílio do SDumont. Tais simulações produziram eventos suficientes para a observação detalhada da formação da interface entre nanocristais de prata. Com isso, foi possível descrever a evolução das mesmas até a formação dos defeitos cristalinos observados nas experiências de laboratório. Essas informações podem ser exploradas para desenvolver novas estratégias destinadas a desencadear processos de cristalização específicos que ocorrem durante o crescimento mesocristal, permitindo assim o controle sobre as características do material final sintetizado. A compilação deste trabalho está disponível em https://doi.org/10.1021/acs.jpcc.0c10321.
Em destaque na 1a edição de Abril de 2021 do The Journal of Physical Chemistry C, o trabalho entitulado “How Crystallization Affects the Oriented Attachment of Silver Nanocrystals” empregou a simulação computacional para estudar a interação entre modelos de nanocristais de prata similares aos que já são observados experimentalmente. Nesses experimentos em laboratório, um sal que contém prata é dissolvido em solução aquosa e misturado a um polímero líquido. Em seguida, deixa-se a mistura descansar numa temperatura fixa. Com o passar do tempo surgem pequenos particulados que podem ser filtrados e separados do líquido. A análise destes particulados permite descobrir que são feitos de prata pura, oriunda do sal usado como reagente. Realizam-se então variações deste processo, permitindo a descoberta de alterações na geometria do particulado em função de parâmetros termodinâmicos presentes durante o processo de reação, possibilitando produtos nanoscópicos. Nesse processo notou-se que alguns dos nanomateriais encontrados em laboratório apresentam uma organização cristalina atípica, inexistente em materiais convencionais. Nesta organização, defeitos periódicos e padronizados separam domínios cristalinos, fato que pode ser aproveitado para a construção de dispositivos e sensores. Para contribuir com o entendimento desses processos, os professores Giovani M. Faccin(UFGD), Zenner S. Pereira (UFERSA) e Edison Z. da Silva(UNICAMP) realizaram simulações com o auxílio do SDumont. Tais simulações produziram eventos suficientes para a observação detalhada da formação da interface entre nanocristais de prata. Com isso, foi possível descrever a evolução das mesmas até a formação dos defeitos cristalinos observados nas experiências de laboratório. Essas informações podem ser exploradas para desenvolver novas estratégias destinadas a desencadear processos de cristalização específicos que ocorrem durante o crescimento mesocristal, permitindo assim o controle sobre as características do m ...
Mostre mais
Em destaque na 1a edição de Abril de 2021 do The Journal of Physical Chemistry C, o trabalho entitulado “How Crystallization Affects the Oriented Attachment of Silver Nanocrystals” empregou a simulação computacional para estudar a interação entre modelos de nanocristais de prata similares aos que já são observados experimentalmente. Nesses experimentos em laboratório, um sal que contém prata é dissolvido em solução aquosa e misturado a um polímero líquido. Em seguida, deixa-se a mistura descansar numa temperatura fixa. Com o passar do tempo surgem pequenos particulados que podem ser filtrados e separados do líquido. A análise destes particulados permite descobrir que são feitos de prata pura, oriunda do sal usado como reagente. Realizam-se então variações deste processo, permitindo a descoberta de alterações na geometria do particulado em função de parâmetros termodinâmicos presentes durante o processo de reação, possibilitando produtos nanoscópicos. Nesse processo notou-se que alguns dos nanomateriais encontrados em laboratório apresentam uma organização cristalina atípica, inexistente em materiais convencionais. Nesta organização, defeitos periódicos e padronizados separam domínios cristalinos, fato que pode ser aproveitado para a construção de dispositivos e sensores. Para contribuir com o entendimento desses processos, os professores Giovani M. Faccin(UFGD), Zenner S. Pereira (UFERSA) e Edison Z. da Silva(UNICAMP) realizaram simulações com o auxílio do SDumont. Tais simulações produziram eventos suficientes para a observação detalhada da formação da interface entre nanocristais de prata. Com isso, foi possível descrever a evolução das mesmas até a formação dos defeitos cristalinos observados nas experiências de laboratório. Essas informações podem ser exploradas para desenvolver novas estratégias destinadas a desencadear processos de cristalização específicos que ocorrem durante o crescimento mesocristal, permitindo assim o controle sobre as características do material final sintetizado. A compilação deste trabalho está disponível em https://doi.org/10.1021/acs.jpcc.0c10321.
Mostre menos

Desenvolvimento de normativas voltadas ao desempenho termo energético de edificações

No Brasil, a avaliação do desempenho termo energético das edificações pode ser feita a partir da norma ABNT NBR 15575, e por meio da Etiqueta Nacional de Conservação de Energia (ENCE), desenvolvida no âmbito do Programa Nacional de Eficiência Energética em Edificações - PROCEL Edifica. O programa, instituído em 2003 pela ELETROBRAS/PROCEL, atua de forma conjunta com o Ministério de Minas e Energia, Ministério das Cidades, Universidades, Centros de Pesquisa, Entidades das áreas Governamental, Tecnológica, Econômica e de Desenvolvimento, além do setor de Construção Civil. Tais métodos de avaliação (norma e etiquetagem) são aplicáveis às edificações comerciais, de serviços, públicas e residenciais, e passaram recentemente por revisões significativas, publicadas no ano de 2021. O supercomputador Santos Dumont teve papel extremamente importante para o desenvolvimento dessas normativas, realizando milhares de simulações computacionais que deram origem aos metamodelos de avaliação baseados em redes neurais artificiais, utilizados para a predição do consumo energético de edificações. Para que essa análise fosse robusta o suficiente, optou-se por um processo de amostragem que estabeleceu uma grande diversidade de outputs para os modelos simulados, o que permitiu avaliar como uma ampla gama de estratégias construtivas impacta nos ambientes internos construídos. Ainda dentro do escopo dessa atividade, foram desenvolvidos modelos de aprendizado de máquina supervisionado com o objetivo de fornecer aos profissionais da engenharia e arquitetura uma ferramenta que permita melhorar o desempenho dessas edificações, especialmente aquelas na fase de projeto.
No Brasil, a avaliação do desempenho termo energético das edificações pode ser feita a partir da norma ABNT NBR 15575, e por meio da Etiqueta Nacional de Conservação de Energia (ENCE), desenvolvida no âmbito do Programa Nacional de Eficiência Energética em Edificações - PROCEL Edifica. O programa, instituído em 2003 pela ELETROBRAS/PROCEL, atua de forma conjunta com o Ministério de Minas e Energia, Ministério das Cidades, Universidades, Centros de Pesquisa, Entidades das áreas Governamental, Tecnológica, Econômica e de Desenvolvimento, além do setor de Construção Civil. Tais métodos de avaliação (norma e etiquetagem) são aplicáveis às edificações comerciais, de serviços, públicas e residenciais, e passaram recentemente por revisões significativas, publicadas no ano de 2021. O supercomputador Santos Dumont teve papel extremamente importante para o desenvolvimento dessas normativas, realizando milhares de simulações computacionais que deram origem aos metamodelos de avaliação baseados em redes neurais artificiais, utilizados para a predição do consumo energético de edificações. Para que essa análise fosse robusta o suficiente, optou-se por um processo de amostragem que estabeleceu uma grande diversidade de outputs para os modelos simulados, o que permitiu avaliar como uma ampla gama de estratégias construtivas impacta nos ambientes internos construídos. Ainda dentro do escopo dessa atividade, foram desenvolvidos modelos de aprendizado de máquina supervisionado com o objetivo de fornecer aos profissionais da engenharia e arquitetura uma ferramenta que permita melhorar o desempenho dessas edificações, especialmente aquelas na fase de projeto. ...
Mostre mais
No Brasil, a avaliação do desempenho termo energético das edificações pode ser feita a partir da norma ABNT NBR 15575, e por meio da Etiqueta Nacional de Conservação de Energia (ENCE), desenvolvida no âmbito do Programa Nacional de Eficiência Energética em Edificações - PROCEL Edifica. O programa, instituído em 2003 pela ELETROBRAS/PROCEL, atua de forma conjunta com o Ministério de Minas e Energia, Ministério das Cidades, Universidades, Centros de Pesquisa, Entidades das áreas Governamental, Tecnológica, Econômica e de Desenvolvimento, além do setor de Construção Civil. Tais métodos de avaliação (norma e etiquetagem) são aplicáveis às edificações comerciais, de serviços, públicas e residenciais, e passaram recentemente por revisões significativas, publicadas no ano de 2021. O supercomputador Santos Dumont teve papel extremamente importante para o desenvolvimento dessas normativas, realizando milhares de simulações computacionais que deram origem aos metamodelos de avaliação baseados em redes neurais artificiais, utilizados para a predição do consumo energético de edificações. Para que essa análise fosse robusta o suficiente, optou-se por um processo de amostragem que estabeleceu uma grande diversidade de outputs para os modelos simulados, o que permitiu avaliar como uma ampla gama de estratégias construtivas impacta nos ambientes internos construídos. Ainda dentro do escopo dessa atividade, foram desenvolvidos modelos de aprendizado de máquina supervisionado com o objetivo de fornecer aos profissionais da engenharia e arquitetura uma ferramenta que permita melhorar o desempenho dessas edificações, especialmente aquelas na fase de projeto.
Mostre menos

Drug Design and Repurposing with DockThor-VS Web Server focusing on SARS-CoV-2 Therapeutic Targets and their Non-Synonym Variants

O Grupo de Modelagem Molecular de Sistemas Biológicos – GMMSB (LNCC), teve o artigo “Drug Design and Repurposing with DockThor-VS Web Server focusing on SARS-CoV-2 Therapeutic Targets and their Non-Synonym Variants” publicado pelo periódico científico internacional Scientific Reports. A pesquisa, coordenada pelo prof. Laurent Dardenne, apresenta os desenvolvimentos implementados no servidor web DockThor-VS para fornecer uma plataforma de triagem virtual (VS) com estruturas em três dimensões de potenciais alvos terapêuticos do SARS-CoV-2 incorporando informações genéticas sobre mutações e variantes do vírus (e.g., variantes brasileira, sul-africana e inglesa). O servidor web facilita a realização de experimentos de triagem virtual objetivando estudos de reposicionamento de fármacos através da disponibilização de uma biblioteca contendo os medicamentos, aprovados pelo Food and Drug Administration (FDA), disponíveis no mercado. Atualmente, o DockThor-VS fornece estruturas 3D prontas para triagem virtual para seis alvos terapêuticos de SARS-CoV-2: PLpro, Mpro, RdRp, NendoU, proteína N e proteína Spike. A plataforma está acoplada ao supercomputador Santos Dumont e está disponível para toda a comunidade científica de forma gratuita em www.dockthor.lncc.br. O portal DockThor-VS vem sendo utilizado por pesquisadores do mundo inteiro com uma média de quase cem submissões por dia. O artigo está disponível em: http://www.nature.com/articles/s41598-021-84700-0
O Grupo de Modelagem Molecular de Sistemas Biológicos – GMMSB (LNCC), teve o artigo “Drug Design and Repurposing with DockThor-VS Web Server focusing on SARS-CoV-2 Therapeutic Targets and their Non-Synonym Variants” publicado pelo periódico científico internacional Scientific Reports. A pesquisa, coordenada pelo prof. Laurent Dardenne, apresenta os desenvolvimentos implementados no servidor web DockThor-VS para fornecer uma plataforma de triagem virtual (VS) com estruturas em três dimensões de potenciais alvos terapêuticos do SARS-CoV-2 incorporando informações genéticas sobre mutações e variantes do vírus (e.g., variantes brasileira, sul-africana e inglesa). O servidor web facilita a realização de experimentos de triagem virtual objetivando estudos de reposicionamento de fármacos através da disponibilização de uma biblioteca contendo os medicamentos, aprovados pelo Food and Drug Administration (FDA), disponíveis no mercado. Atualmente, o DockThor-VS fornece estruturas 3D prontas para triagem virtual para seis alvos terapêuticos de SARS-CoV-2: PLpro, Mpro, RdRp, NendoU, proteína N e proteína Spike. A plataforma está acoplada ao supercomputador Santos Dumont e está disponível para toda a comunidade científica de forma gratuita em www.dockthor.lncc.br. O portal DockThor-VS vem sendo utilizado por pesquisadores do mundo inteiro com uma média de quase cem submissões por dia. O artigo está disponível em: http://www.nature.com/articles/s41598-021-84700-0 ...
Mostre mais
O Grupo de Modelagem Molecular de Sistemas Biológicos – GMMSB (LNCC), teve o artigo “Drug Design and Repurposing with DockThor-VS Web Server focusing on SARS-CoV-2 Therapeutic Targets and their Non-Synonym Variants” publicado pelo periódico científico internacional Scientific Reports. A pesquisa, coordenada pelo prof. Laurent Dardenne, apresenta os desenvolvimentos implementados no servidor web DockThor-VS para fornecer uma plataforma de triagem virtual (VS) com estruturas em três dimensões de potenciais alvos terapêuticos do SARS-CoV-2 incorporando informações genéticas sobre mutações e variantes do vírus (e.g., variantes brasileira, sul-africana e inglesa). O servidor web facilita a realização de experimentos de triagem virtual objetivando estudos de reposicionamento de fármacos através da disponibilização de uma biblioteca contendo os medicamentos, aprovados pelo Food and Drug Administration (FDA), disponíveis no mercado. Atualmente, o DockThor-VS fornece estruturas 3D prontas para triagem virtual para seis alvos terapêuticos de SARS-CoV-2: PLpro, Mpro, RdRp, NendoU, proteína N e proteína Spike. A plataforma está acoplada ao supercomputador Santos Dumont e está disponível para toda a comunidade científica de forma gratuita em www.dockthor.lncc.br. O portal DockThor-VS vem sendo utilizado por pesquisadores do mundo inteiro com uma média de quase cem submissões por dia. O artigo está disponível em: http://www.nature.com/articles/s41598-021-84700-0
Mostre menos

Comparison of 1D and 3D Models for the Estimation of Fractional Flow Reserve

O grupo de pesquisa HeMoLab do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis, no Estado do Rio, junto com pesquisadores do Instituto do Coração (INCOR) da Universidade de São Paulo, publicou em 22 de novembro o artigo intitulado “Comparison of 1D and 3D Models for the Estimation of Fractional Flow Reserve” no periódico Scientific Reports da Nature Research (https://www.nature.com/srep/). Pablo Blanco, Carlos Bulant, Lucas Müller, Gonzalo Talou e Raul Feijóo do HemoLab do LNCC, juntamente com Cristiano Bezerra e Pedro Lemos do INCOR da USP, utilizaram o supercomputador Santos Dumont (SDumont) do LNCC para desenvolver a pesquisa descrita no artigo. A pesquisa propõe e valida um modelo de dimensão reduzida (unidimensional) para a simulação do escoamento sanguíneo em artérias coronárias a partir de predições realizadas com modelos de alta fidelidade (modelos tridimensionais). Estes modelos de alta fidelidade precisam de computação de alto desempenho na escala oferecida pelo supercomputador SDumont para conseguir resolver as equações que descrevem o escoamento sanguíneo (equações de Navier-Stokes) nas artérias coronárias, cuja geometria extremamente complexa é capturada a partir do processamento de imagens médicas. A validação feita por esta pesquisa cria a oportunidade de utilizar modelos computacionais e simulação numérica na rotina clínica, com o objetivo de melhorar a capacidade de diagnóstico de risco de infarto de miocárdio. O artigo está disponível em: https://www.nature.com/articles/s41598-018-35344-0
O grupo de pesquisa HeMoLab do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis, no Estado do Rio, junto com pesquisadores do Instituto do Coração (INCOR) da Universidade de São Paulo, publicou em 22 de novembro o artigo intitulado “Comparison of 1D and 3D Models for the Estimation of Fractional Flow Reserve” no periódico Scientific Reports da Nature Research (https://www.nature.com/srep/). Pablo Blanco, Carlos Bulant, Lucas Müller, Gonzalo Talou e Raul Feijóo do HemoLab do LNCC, juntamente com Cristiano Bezerra e Pedro Lemos do INCOR da USP, utilizaram o supercomputador Santos Dumont (SDumont) do LNCC para desenvolver a pesquisa descrita no artigo. A pesquisa propõe e valida um modelo de dimensão reduzida (unidimensional) para a simulação do escoamento sanguíneo em artérias coronárias a partir de predições realizadas com modelos de alta fidelidade (modelos tridimensionais). Estes modelos de alta fidelidade precisam de computação de alto desempenho na escala oferecida pelo supercomputador SDumont para conseguir resolver as equações que descrevem o escoamento sanguíneo (equações de Navier-Stokes) nas artérias coronárias, cuja geometria extremamente complexa é capturada a partir do processamento de imagens médicas. A validação feita por esta pesquisa cria a oportunidade de utilizar modelos computacionais e simulação numérica na rotina clínica, com o objetivo de melhorar a capacidade de diagnóstico de risco de infarto de miocárdio. O artigo está disponível em: https://www.nature.com/articles/s41598-018-35344-0 ...
Mostre mais
O grupo de pesquisa HeMoLab do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis, no Estado do Rio, junto com pesquisadores do Instituto do Coração (INCOR) da Universidade de São Paulo, publicou em 22 de novembro o artigo intitulado “Comparison of 1D and 3D Models for the Estimation of Fractional Flow Reserve” no periódico Scientific Reports da Nature Research (https://www.nature.com/srep/). Pablo Blanco, Carlos Bulant, Lucas Müller, Gonzalo Talou e Raul Feijóo do HemoLab do LNCC, juntamente com Cristiano Bezerra e Pedro Lemos do INCOR da USP, utilizaram o supercomputador Santos Dumont (SDumont) do LNCC para desenvolver a pesquisa descrita no artigo. A pesquisa propõe e valida um modelo de dimensão reduzida (unidimensional) para a simulação do escoamento sanguíneo em artérias coronárias a partir de predições realizadas com modelos de alta fidelidade (modelos tridimensionais). Estes modelos de alta fidelidade precisam de computação de alto desempenho na escala oferecida pelo supercomputador SDumont para conseguir resolver as equações que descrevem o escoamento sanguíneo (equações de Navier-Stokes) nas artérias coronárias, cuja geometria extremamente complexa é capturada a partir do processamento de imagens médicas. A validação feita por esta pesquisa cria a oportunidade de utilizar modelos computacionais e simulação numérica na rotina clínica, com o objetivo de melhorar a capacidade de diagnóstico de risco de infarto de miocárdio. O artigo está disponível em: https://www.nature.com/articles/s41598-018-35344-0
Mostre menos

Connecting Theory with Experiment to Understand the Sintering Processes of Ag Nanoparticles.

Tungstato de prata, A2WO4 quando irradiado por um TEM produz filamentos de prata e concomitante formação de nanopartículas (NPs) de prata. Estas NPs de prata se tornam nanodipolos elétricos interagentes que evoluem em processos de coalescência. Conexão entre teoria, experimentos detalhados e simulações computacionais produziu um profundo entendimento dos fenômenos experimentais observados.
Tungstato de prata, A2WO4 quando irradiado por um TEM produz filamentos de prata e concomitante formação de nanopartículas (NPs) de prata. Estas NPs de prata se tornam nanodipolos elétricos interagentes que evoluem em processos de coalescência. Conexão entre teoria, experimentos detalhados e simulações computacionais produziu um profundo entendimento dos fenômenos experimentais observados. ...
Mostre mais
Tungstato de prata, A2WO4 quando irradiado por um TEM produz filamentos de prata e concomitante formação de nanopartículas (NPs) de prata. Estas NPs de prata se tornam nanodipolos elétricos interagentes que evoluem em processos de coalescência. Conexão entre teoria, experimentos detalhados e simulações computacionais produziu um profundo entendimento dos fenômenos experimentais observados.
Mostre menos

Rational Zika vaccine design via the modulation of antigen membrane anchors in chimpanzee adenoviral vectors

Uma vacina contra o vírus da Zika foi desenvolvida com o auxílio do supercomputador #SDumont, instalado na sede do #LNCC, em Petrópolis (RJ). O trabalho de simulação computacional foi desenvolvido pelo estudante de doutorado em Química, da Universidade Federal de Pernambuco (UFPE), Danilo Fernandes Coêlho, sob a supervisão do pesquisador Roberto Lins, do Departamento de Virologia do Instituto Aggeu Magalhães (IAM) da Fundação Oswaldo Cruz em Pernambuco (Fiocruz Pernambuco), que também coordenou o projeto de alocação computacional no SDumont intitulado “Engenharia de Proteínas e Biomiméticos com Potencial em Diagnóstico e Vacinal para os Vírus Dengue e Zika”. O vírus Zika (ZIKV) causou um surto notavelmente explosivo nas Américas e representou uma das maiores emergências de saúde pública da história do Brasil com rápida disseminação para mais de 70 países. Sua associação de ZIKV com síndrome de Guillain-Barré, microcefalia em recém-nascidos e transmissão de pessoa para pessoa reforçou a necessidade de uma vacina eficaz que forneça imunidade anti-ZIKV duradoura. Atualmente, não existem vacinas ou antivirais licenciados para o Zika com o objetivo de prevenir ou tratar infecções. Nesta pesquisa foi identificada e caracterizada estruturalmente uma sequência de proteína específica do vírus da Zika. Baseada nessa sequência, quatro novas vacinas foram desenvolvidas, juntamente com um novo ensaio imunológico para atestar a eficácia das vacinas. Desenvolvidas por colaboradores experimentais da Universidade de Oxford (Reino Unido) e da Universidade de Glasgow (Escócia), as vacinas foram testadas em camundongos e os resultados indicaram que duas das quatro vacinas desenvolvidas induzem a produção de anticorpos neutralizantes (aqueles capazes de parar a replicação viral) de longa duração. O trabalho foi publicado no periódico Nature Communications com o título “Rational Zika vaccine design via the modulation of antigen membrane anchors in chimpanzee adenoviral vectors” e está disponível no seguinte endereço eletrônico: http://www.nature.com/articles/s41467-018-04859-5
Uma vacina contra o vírus da Zika foi desenvolvida com o auxílio do supercomputador #SDumont, instalado na sede do #LNCC, em Petrópolis (RJ). O trabalho de simulação computacional foi desenvolvido pelo estudante de doutorado em Química, da Universidade Federal de Pernambuco (UFPE), Danilo Fernandes Coêlho, sob a supervisão do pesquisador Roberto Lins, do Departamento de Virologia do Instituto Aggeu Magalhães (IAM) da Fundação Oswaldo Cruz em Pernambuco (Fiocruz Pernambuco), que também coordenou o projeto de alocação computacional no SDumont intitulado “Engenharia de Proteínas e Biomiméticos com Potencial em Diagnóstico e Vacinal para os Vírus Dengue e Zika”. O vírus Zika (ZIKV) causou um surto notavelmente explosivo nas Américas e representou uma das maiores emergências de saúde pública da história do Brasil com rápida disseminação para mais de 70 países. Sua associação de ZIKV com síndrome de Guillain-Barré, microcefalia em recém-nascidos e transmissão de pessoa para pessoa reforçou a necessidade de uma vacina eficaz que forneça imunidade anti-ZIKV duradoura. Atualmente, não existem vacinas ou antivirais licenciados para o Zika com o objetivo de prevenir ou tratar infecções. Nesta pesquisa foi identificada e caracterizada estruturalmente uma sequência de proteína específica do vírus da Zika. Baseada nessa sequência, quatro novas vacinas foram desenvolvidas, juntamente com um novo ensaio imunológico para atestar a eficácia das vacinas. Desenvolvidas por colaboradores experimentais da Universidade de Oxford (Reino Unido) e da Universidade de Glasgow (Escócia), as vacinas foram testadas em camundongos e os resultados indicaram que duas das quatro vacinas desenvolvidas induzem a produção de anticorpos neutralizantes (aqueles capazes de parar a replicação viral) de longa duração. O trabalho foi publicado no periódico Nature Communications com o título “Rational Zika vaccine design via the modulation of antigen membrane anchors in chimpanzee ...
Mostre mais
Uma vacina contra o vírus da Zika foi desenvolvida com o auxílio do supercomputador #SDumont, instalado na sede do #LNCC, em Petrópolis (RJ). O trabalho de simulação computacional foi desenvolvido pelo estudante de doutorado em Química, da Universidade Federal de Pernambuco (UFPE), Danilo Fernandes Coêlho, sob a supervisão do pesquisador Roberto Lins, do Departamento de Virologia do Instituto Aggeu Magalhães (IAM) da Fundação Oswaldo Cruz em Pernambuco (Fiocruz Pernambuco), que também coordenou o projeto de alocação computacional no SDumont intitulado “Engenharia de Proteínas e Biomiméticos com Potencial em Diagnóstico e Vacinal para os Vírus Dengue e Zika”. O vírus Zika (ZIKV) causou um surto notavelmente explosivo nas Américas e representou uma das maiores emergências de saúde pública da história do Brasil com rápida disseminação para mais de 70 países. Sua associação de ZIKV com síndrome de Guillain-Barré, microcefalia em recém-nascidos e transmissão de pessoa para pessoa reforçou a necessidade de uma vacina eficaz que forneça imunidade anti-ZIKV duradoura. Atualmente, não existem vacinas ou antivirais licenciados para o Zika com o objetivo de prevenir ou tratar infecções. Nesta pesquisa foi identificada e caracterizada estruturalmente uma sequência de proteína específica do vírus da Zika. Baseada nessa sequência, quatro novas vacinas foram desenvolvidas, juntamente com um novo ensaio imunológico para atestar a eficácia das vacinas. Desenvolvidas por colaboradores experimentais da Universidade de Oxford (Reino Unido) e da Universidade de Glasgow (Escócia), as vacinas foram testadas em camundongos e os resultados indicaram que duas das quatro vacinas desenvolvidas induzem a produção de anticorpos neutralizantes (aqueles capazes de parar a replicação viral) de longa duração. O trabalho foi publicado no periódico Nature Communications com o título “Rational Zika vaccine design via the modulation of antigen membrane anchors in chimpanzee adenoviral vectors” e está disponível no seguinte endereço eletrônico: http://www.nature.com/articles/s41467-018-04859-5
Mostre menos

Interaction of Water with the Gypsum (010) Surface: Structure and Dynamics from Nonlinear Vibrational Spectroscopy and Ab Initio Molecular Dynamics

O estudo da adsorção de água em superfícies é crucial em biologia, ciência dos materiais, processos geológicos, processos eletrocatalícos e outras áreas. A adsorção é um processo pelo qual átomos, moléculas ou íons são retidos na superfície de sólidos através de interações de natureza química ou física e, apesar de um grande avanço na área nas últimas décadas, o completo entendimento ainda não foi alcançado. Porém, através de uma intensa colaboração teórico/experimental com recursos computacionais do supercomputador Santos Dumont, sediado no LNCC, pesquisadores conseguiram esclarecer a estrutura interfacial das moléculas de água estrutural na face livre (010) do cristal natural gipsita (CaSO4.2H2O). Utilizando-se de técnicas sensíveis e seletivas, os pesquisadores estudaram estas superfícies e interfaces até a última camada atômica. O resultado foi positivo, tendo o trabalho publicado no Journal of the American Chemical Society (JACS). As simulações utilizaram supercélulas com até 400 átomos e foram simuladas por tempos de dinâmica molecular da ordem de 40ps. Do ponto de vista experimental foi utilizada a espectroscopia por geração de soma de frequências (SFG, do inglês Sum Frequency Generation), que é uma técnica óptica não linear que fornece o espectro vibracional de moléculas em interfaces, sem contribuição do volume do material. Para maximizar a compreensão do sistema, os resultados experimentais foram analisados em conjunto com simulações computacionais de dinâmica molecular de primeiros princípios. “Através das simulações computacionais conseguimos identificar a contribuição de cada molécula para cada um dos picos observados, bem como qual o modo de vibração responsável por ele”, destaca Gustavo Dalpian da UFABC, um dos autores do trabalho. As medidas experimentais foram realizadas pelo grupo de Paulo Miranda, professor do Instituto de Física de São Carlos (IFSC-USP). O artigo está disponível no seguinte endereço eletrônico: https://pubs.acs.org/doi/full/10.1021/jacs.8b09907
O estudo da adsorção de água em superfícies é crucial em biologia, ciência dos materiais, processos geológicos, processos eletrocatalícos e outras áreas. A adsorção é um processo pelo qual átomos, moléculas ou íons são retidos na superfície de sólidos através de interações de natureza química ou física e, apesar de um grande avanço na área nas últimas décadas, o completo entendimento ainda não foi alcançado. Porém, através de uma intensa colaboração teórico/experimental com recursos computacionais do supercomputador Santos Dumont, sediado no LNCC, pesquisadores conseguiram esclarecer a estrutura interfacial das moléculas de água estrutural na face livre (010) do cristal natural gipsita (CaSO4.2H2O). Utilizando-se de técnicas sensíveis e seletivas, os pesquisadores estudaram estas superfícies e interfaces até a última camada atômica. O resultado foi positivo, tendo o trabalho publicado no Journal of the American Chemical Society (JACS). As simulações utilizaram supercélulas com até 400 átomos e foram simuladas por tempos de dinâmica molecular da ordem de 40ps. Do ponto de vista experimental foi utilizada a espectroscopia por geração de soma de frequências (SFG, do inglês Sum Frequency Generation), que é uma técnica óptica não linear que fornece o espectro vibracional de moléculas em interfaces, sem contribuição do volume do material. Para maximizar a compreensão do sistema, os resultados experimentais foram analisados em conjunto com simulações computacionais de dinâmica molecular de primeiros princípios. “Através das simulações computacionais conseguimos identificar a contribuição de cada molécula para cada um dos picos observados, bem como qual o modo de vibração responsável por ele”, destaca Gustavo Dalpian da UFABC, um dos autores do trabalho. As medidas experimentais foram realizadas pelo grupo de Paulo Miranda, professor do Instituto de Física de São Carlos (IFSC-USP). O artigo está disponível no seguinte endereço eletrônico: ...
Mostre mais
O estudo da adsorção de água em superfícies é crucial em biologia, ciência dos materiais, processos geológicos, processos eletrocatalícos e outras áreas. A adsorção é um processo pelo qual átomos, moléculas ou íons são retidos na superfície de sólidos através de interações de natureza química ou física e, apesar de um grande avanço na área nas últimas décadas, o completo entendimento ainda não foi alcançado. Porém, através de uma intensa colaboração teórico/experimental com recursos computacionais do supercomputador Santos Dumont, sediado no LNCC, pesquisadores conseguiram esclarecer a estrutura interfacial das moléculas de água estrutural na face livre (010) do cristal natural gipsita (CaSO4.2H2O). Utilizando-se de técnicas sensíveis e seletivas, os pesquisadores estudaram estas superfícies e interfaces até a última camada atômica. O resultado foi positivo, tendo o trabalho publicado no Journal of the American Chemical Society (JACS). As simulações utilizaram supercélulas com até 400 átomos e foram simuladas por tempos de dinâmica molecular da ordem de 40ps. Do ponto de vista experimental foi utilizada a espectroscopia por geração de soma de frequências (SFG, do inglês Sum Frequency Generation), que é uma técnica óptica não linear que fornece o espectro vibracional de moléculas em interfaces, sem contribuição do volume do material. Para maximizar a compreensão do sistema, os resultados experimentais foram analisados em conjunto com simulações computacionais de dinâmica molecular de primeiros princípios. “Através das simulações computacionais conseguimos identificar a contribuição de cada molécula para cada um dos picos observados, bem como qual o modo de vibração responsável por ele”, destaca Gustavo Dalpian da UFABC, um dos autores do trabalho. As medidas experimentais foram realizadas pelo grupo de Paulo Miranda, professor do Instituto de Física de São Carlos (IFSC-USP). O artigo está disponível no seguinte endereço eletrônico: https://pubs.acs.org/doi/full/10.1021/jacs.8b09907
Mostre menos

Chiromagnetic nanoparticles and gels

Publicado recentemente na Revista Science, uma das revistas acadêmicas mais prestigiadas do mundo, o artigo “Chiromagnetic nanoparticles and gels” mostra a importância da pesquisa conjunta de grupos teóricos e experimentais para o desenvolvimento de novas tecnologias. A pesquisa foi desenvolvida em paralelo pelos grupos liderados pelos professores André Farias de Moura (Universidade Federal de São Carlos) e Nicholas Kotov (University of Michigan), e levou cercar de três anos para ser finalizada. O principal objetivo da investigação era obter um material que pudesse ter a sua transparência modificada durante o uso e que essa modificação fosse controlável e reversível. Normalmente, o grau de transparência de um material é definido no momento em que ele é produzido, não podendo ser modulado em uso. Obviamente, isso cria uma dificuldade para aplicações que necessitam de uma alternância entre o opaco e o transparente, como no caso da holografia 3D em tempo real, em que voxels de uma paleta de cores variada precisam alternar entre os estados opaco e transparente para produzir as imagens no volume. Mais do que isso, deseja-se que esta variação seja gradual, o que permitiria gerar imagens com alta qualidade de detalhes e nuances. Com estas aplicações em mente, o grupo experimental do professor Nicholas Kotov escolheu, como sistema para realizar a prova de conceito, um material já bastante conhecido por suas propriedades magnéticas: o espinélio de óxido de cobalto. A novidade consistiu em agregar uma nova propriedade a este material, a quiralidade. O exemplo mais acessível de quiralidade é dado pelas mãos, que classificamos como direita e esquerda e reconhecemos que elas são semelhantes em muitos aspectos, mas diferem no fato de que a mão esquerda é a imagem o espelho da mão direita. Na verdade, a vida na biosfera terrestre é formada por moléculas de quiralidade bem definida, e uma destas moléculas, o amino ácido cisteína foi a escolha do grupo experimental para tornar as nanopartículas de óxido de cobalto quirais. Mas qual é a vantagem de adicionar a propriedade de quiralidade a este material magnético? O fato de que as naopartículas são magnéticas já permite modificar a transparência por meio de um campo magnético, mas se além de magnéticas elas forem quirais é possível ter um grau de controle maior e mais fino da modificação transparência pelo campo magnético. De fato, esta habilidade de controlar a transparência do material foi demonstrada experimentalmente, e nesse ponto entrou a simulação computacional, buscando responder os porquês de haver essa modificação, quando combinados o magnetismo do material com a quiralidade. A modelagem computacional somente foi possível graças aos recursos computacionais do supercomputador Santos Dumont (SDumont), que está localizado na sede do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis-RJ. O SDumont possui capacidade instalada de processamento na ordem de 1,1 Petaflop/s (1,1 x 1015 float-point operations per second), um total de 18.144 núcleos de CPU, tendo sido utilizados nesta pesquisa 1.200 núcleos de processamento, por cerca de 45 dias seguidos! Dado o tipo de problema, foram realizados diversos cálculos quânticos para modelos deste material, contendo quase 200 átomos e mais de 1.300 elétrons. Este tamanho de sistema é muito superior ao encontrado na literatura, principalmente utilizando métodos considerados de alta qualidade (e alto custo computacional). Mas o que os modelos conseguiram demonstrar? O principal papel da modelagem computacional é mostrar detalhes que não podem ser vistos por técnicas experimentais, então o grupo teórico forneceu uma descrição detalhada de como a molécula de cisteína se liga à nanopartícula deste material cerâmico. Isso é fundamental para as investigações futuras em sistemas semelhantes, pois as ideias gerais que foram obtidas, a partir das simulações, mostraram que outras moléculas quirais podem ter o mesmo efeito e que outras nanoestruturas de materiais magnéticos também podem ser usadas para aplicações em que o controle de transparência seja crítico. Assim, o investimento feito nesta investigação teórico-experimental deve permitir que as novas pesquisas neste tipo de material funcional sejam mais rápidas e mais baratas. O artigo está disponível no seguinte endereço eletrônico: http://science.sciencemag.org/content/359/6373/309
Publicado recentemente na Revista Science, uma das revistas acadêmicas mais prestigiadas do mundo, o artigo “Chiromagnetic nanoparticles and gels” mostra a importância da pesquisa conjunta de grupos teóricos e experimentais para o desenvolvimento de novas tecnologias. A pesquisa foi desenvolvida em paralelo pelos grupos liderados pelos professores André Farias de Moura (Universidade Federal de São Carlos) e Nicholas Kotov (University of Michigan), e levou cercar de três anos para ser finalizada. O principal objetivo da investigação era obter um material que pudesse ter a sua transparência modificada durante o uso e que essa modificação fosse controlável e reversível. Normalmente, o grau de transparência de um material é definido no momento em que ele é produzido, não podendo ser modulado em uso. Obviamente, isso cria uma dificuldade para aplicações que necessitam de uma alternância entre o opaco e o transparente, como no caso da holografia 3D em tempo real, em que voxels de uma paleta de cores variada precisam alternar entre os estados opaco e transparente para produzir as imagens no volume. Mais do que isso, deseja-se que esta variação seja gradual, o que permitiria gerar imagens com alta qualidade de detalhes e nuances. Com estas aplicações em mente, o grupo experimental do professor Nicholas Kotov escolheu, como sistema para realizar a prova de conceito, um material já bastante conhecido por suas propriedades magnéticas: o espinélio de óxido de cobalto. A novidade consistiu em agregar uma nova propriedade a este material, a quiralidade. O exemplo mais acessível de quiralidade é dado pelas mãos, que classificamos como direita e esquerda e reconhecemos que elas são semelhantes em muitos aspectos, mas diferem no fato de que a mão esquerda é a imagem o espelho da mão direita. Na verdade, a vida na biosfera terrestre é formada por moléculas de quiralidade bem definida, e uma destas moléculas, o amino ácido cisteína foi a escolha do grupo ex ...
Mostre mais
Publicado recentemente na Revista Science, uma das revistas acadêmicas mais prestigiadas do mundo, o artigo “Chiromagnetic nanoparticles and gels” mostra a importância da pesquisa conjunta de grupos teóricos e experimentais para o desenvolvimento de novas tecnologias. A pesquisa foi desenvolvida em paralelo pelos grupos liderados pelos professores André Farias de Moura (Universidade Federal de São Carlos) e Nicholas Kotov (University of Michigan), e levou cercar de três anos para ser finalizada. O principal objetivo da investigação era obter um material que pudesse ter a sua transparência modificada durante o uso e que essa modificação fosse controlável e reversível. Normalmente, o grau de transparência de um material é definido no momento em que ele é produzido, não podendo ser modulado em uso. Obviamente, isso cria uma dificuldade para aplicações que necessitam de uma alternância entre o opaco e o transparente, como no caso da holografia 3D em tempo real, em que voxels de uma paleta de cores variada precisam alternar entre os estados opaco e transparente para produzir as imagens no volume. Mais do que isso, deseja-se que esta variação seja gradual, o que permitiria gerar imagens com alta qualidade de detalhes e nuances. Com estas aplicações em mente, o grupo experimental do professor Nicholas Kotov escolheu, como sistema para realizar a prova de conceito, um material já bastante conhecido por suas propriedades magnéticas: o espinélio de óxido de cobalto. A novidade consistiu em agregar uma nova propriedade a este material, a quiralidade. O exemplo mais acessível de quiralidade é dado pelas mãos, que classificamos como direita e esquerda e reconhecemos que elas são semelhantes em muitos aspectos, mas diferem no fato de que a mão esquerda é a imagem o espelho da mão direita. Na verdade, a vida na biosfera terrestre é formada por moléculas de quiralidade bem definida, e uma destas moléculas, o amino ácido cisteína foi a escolha do grupo experimental para tornar as nanopartículas de óxido de cobalto quirais. Mas qual é a vantagem de adicionar a propriedade de quiralidade a este material magnético? O fato de que as naopartículas são magnéticas já permite modificar a transparência por meio de um campo magnético, mas se além de magnéticas elas forem quirais é possível ter um grau de controle maior e mais fino da modificação transparência pelo campo magnético. De fato, esta habilidade de controlar a transparência do material foi demonstrada experimentalmente, e nesse ponto entrou a simulação computacional, buscando responder os porquês de haver essa modificação, quando combinados o magnetismo do material com a quiralidade. A modelagem computacional somente foi possível graças aos recursos computacionais do supercomputador Santos Dumont (SDumont), que está localizado na sede do Laboratório Nacional de Computação Científica (LNCC), em Petrópolis-RJ. O SDumont possui capacidade instalada de processamento na ordem de 1,1 Petaflop/s (1,1 x 1015 float-point operations per second), um total de 18.144 núcleos de CPU, tendo sido utilizados nesta pesquisa 1.200 núcleos de processamento, por cerca de 45 dias seguidos! Dado o tipo de problema, foram realizados diversos cálculos quânticos para modelos deste material, contendo quase 200 átomos e mais de 1.300 elétrons. Este tamanho de sistema é muito superior ao encontrado na literatura, principalmente utilizando métodos considerados de alta qualidade (e alto custo computacional). Mas o que os modelos conseguiram demonstrar? O principal papel da modelagem computacional é mostrar detalhes que não podem ser vistos por técnicas experimentais, então o grupo teórico forneceu uma descrição detalhada de como a molécula de cisteína se liga à nanopartícula deste material cerâmico. Isso é fundamental para as investigações futuras em sistemas semelhantes, pois as ideias gerais que foram obtidas, a partir das simulações, mostraram que outras moléculas quirais podem ter o mesmo efeito e que outras nanoestruturas de materiais magnéticos também podem ser usadas para aplicações em que o controle de transparência seja crítico. Assim, o investimento feito nesta investigação teórico-experimental deve permitir que as novas pesquisas neste tipo de material funcional sejam mais rápidas e mais baratas. O artigo está disponível no seguinte endereço eletrônico: http://science.sciencemag.org/content/359/6373/309
Mostre menos

Conteúdo acessível em Libras usando o VLibras Widget com opções dos Avatares Ícaro, Hosana ou Guga. Conteúdo acessível em Libras usando o VLibras Widget com opções dos Avatares Ícaro, Hosana ou Guga.