Uma ruga no tempo divide o mundo quântico da realidade cotidiana

Photobucket

Quarta feira, 17 de junho de 2015
INSIDE SCIENCE NEWS SERVICE
Crédito da Imagem: Alan Cleaver via flickr | http://bit.ly/1G3bRzX
Informação sobre direitos autorais: http://bit.ly/NL51dk

A gravidade estica o tempo e limita os efeitos quânticos em escalas maiores.

Original (em inglês) por: Charles Q. Choi, Contribuidor

(Inside Science) — O mundo se torna um lugar nebuloso e surreal em seus níveis mais elementares, de acordo com a física quântica. Tem sido um mistério o motivo pelo qual os estranhos comportamentos quânticos não são observados nas escalas maiores do cotidiano. Agora pequisadores acreditam que o modo como a Terra distorce o tempo pode explicar essa divisão.

Uma das consequências desconcertantes da física quântica é que átomos e partículas subatômicas podem realmente existir em estados conhecidos como “superposições”, o que, por exemplo, significa que elas podem literalmente estar em dois ou mais lugares ao mesmo tempo, até que sejam “observadas” — ou seja, até que interajam com partículas em seu entorno de alguma forma. Este conceito é frequentemente ilustrado com uma analogia chamada de “Gato de Schrödinger“, no qual um gato está tanto vivo quanto morto, até que se verifique.

As superposições são extremamente frágeis. Uma vez que elas sejam perturbadas de alguma maneira, elas colapsam ou “perdem a coerência” para um único dos estados possíveis. Sendo assim, elas frequentemente envolvem apenas um máximo de umas poucas partículas — quanto maior for um objeto em estados superpostos, mais difícil será mantê-lo sem perturbações. No entanto, em qual escala termina o reino da física quântica e começa o da física clássica, e, mais ainda, por que existe esta fronteira, ainda é um mistério.

Agora pesquisadores sugerem que a teoria de espaço-tempo de Einstein pode ajudar essa mudança de física quântica para clássica, Os cientistas detalharam suas descobertas na edição online de 15 de junho da Nature Physics.

Há um século, a Teoria da Relatividade de Einstein explicou que a graviade decorre da curvatura do espaço-tempo provocada pela massa. Se visualizarmos várias bolas sobre uma folha de borracha, quanto mais massiva for uma bola, mais ela afunda a borracha e puxa as outras bolas para perto.

Uma consequência curiosa da Teoria da Relatividade é a dilatação do tempo, ou seja: o tempo passa mais devagar quanto mais próximo estivermos de um objeto massivo. Embora esse efeito na Terra seja pequeno, ainda é mensurável. “Se você vive no andar de cima de uma casa de dois andares, você vai envelhecer mais rápido que seu vizinho do térreo em cerca de 10 nanosegundos a cada ano”, diz o físico quântico Igor Pikovski do Centro de Astrofísica Harvard-Smithsonian. “Esse minúsculo efeito foi realmente confirmado em várias experiências com relógios muito precisos”.

Pikovski e seus colegas calcularam que, uma vez que os pequenos blocos de construção que compõem objetos maiores – tais como moléculas e, eventualmente, micróbios e partículas de poeira – se agrupem para formar tais objetos maiores, a dilatação do tempo experimentada no campor gravitacional da superfície da Terra pode suprimir as superposições. “Foi muito entusiasmante descobrir que a dilatação do tempo de Einstein pode ter influência”, declarou Pikovski.

A energia de um objeto o faz vibrar. De acordo com as leis da física quântica, quando um objeto está em superposição, todas as partes dele vibram em sincronia. No entando, a dilatação do tempo fará com que partes deste objeto que estejam em altitudes ligeiramente maiores, vibrem em frequências diferentes daqueles em menor altitude, da mesma forma como seu vizinho do andar de baixo vai envelhecer mais devagar que você. Quanto maior for a diferença de altutude entre as partes, maior será a defasagem. Para qualquer objeto suficientemente grande, essa defasagem será capaz de romper todas as superposições.

“Acho encantador ver novas ideias sobre a influência da gravidade em objetos quânticos” declarou o físico experimentar Holger Müller da Universidade da Califórnia em Berkeley, que não participou da pesquisa.

Para provar que este efeito ocorre, os cientistas precisam criar grandes objetos superpostos nos quais tenham suprimido todas as outras possíveis fontes de decoerência, tais como calor. Se a dilatação do tempo pode fazr colapsar as superposições, o limite de tamanho de um objeto superposto na Terra deve ser de cerca de um milímetro.

Müller declarou que a criação de um objeto superposto tão grande é pouqíssimo provável, uma vez que existem várias fontes potenciais para a decoerência, além da dilatação do tempo.

Pikovski foi mais otimístico: “Em princípio, deve ser possível superar essas limitações”, argumentou ele. “É apenas uma questão de tecnologia”. Ele sublinhou o fato de que, graças aos avanços tencológicos na criação de objetos em superposiçãos, os cientistas agora podem criar superposições em objetos do tamanho de milhares de átomos.

Tais descobertas sugerem que, fora do campo gravitacional da Terra, os cientistas sejam capazes de encontrar supeposições em objetos até maiores do que um milímetor, “Até agora, não encontramos nenhuma boa razão para crer que a teoria quântica seja quebrada”, afirma Pikovski.


Charles Q. Choi é um escritor de ciências freelance da cidade de Nova York que já escreveu artigos para The New York Times, Scientific American, Wired, Science, Nature e várias outras publicações. Ele tuíta em @cqchoi.


Nota do Tradutor

Estou “vendendo o peixe pelo preço que comprei”. Em outras palavras, por mais fascinante que a “explicação” proposta seja, eu vejo com muita reserva um efeito de dilatação temporal relativística na escala quântica, já que até o efeito da atração gravitacional é imperceptível nessa escala.

Não! Você não pode flagrar um fóton se comportando ao mesmo tempo como onda e partícula.

Photobucket
Traduzido de: No, You Cannot Catch An Individual Photon Acting Simultaneously As A Pure Particle And Wave

13 de março de 2015 
Por: Ben P. Stein, Diretor do ISNS
 Crédito da Imagem: Fabrizio Carbone, EPFL

Na semana passada, a Internet se acendeu com manchetes dramáticas vindas do mundo da ciência: “Pela Primeira Vez na Física, a Luz é Capturada (agindo como) Partícula e Onda” = notícia da NBC NEWS: In a Physics First, Light is Captured as Both Particle and Wave, “A Luz é Fotografada Como Onda e Partícula Simultaneamente = notícia da SwissInfo: Light Photographed as a Simultaneous Wave and Particle, e “A Dualidade Onda-Partícula da Luz é Imageada Pela Primeira Vaz” = notícia no Wired: Light’s Wave-Particle Duality Imaged For The First Time, só para mencionar algumas.

Estas manchetes soam revolucionárias, surpreendentes e profundas para qualquer um de nós que tenha um conhecimento no mínimo marginal dos conceitos mencionados. A física quântica sugere que todos os objetos existentes no universo tenham uma natureza dupla. Um fóton, a unidade básica da luz, pode se comportar como uma onda semelhante a uma onda d’água, ou como uma partícula do tipo de uma bola de bilhar, dependendo da situação. Quando um fóton atinge um metal, ele age como uma bola de bilhar, esbarrando e expulsando elétrons do metal. Quando ele passa através de uma fenda estreita, ele se espalha como uma onda d’água.

No entanto, até agora pelo menos, só tínhamos observado objetos se comportando de uma forma ou de outra. Mais ou menos do jeito que jamais vemos o Super-Homem e Clark Kent no mesmo lugar ao mesmo tempo. Porém essas manchetes sugerem que os pesquisadores flagraram a luz no ato de ser, ao mesmo tempo, uma partícula e uma onda. Como e de que modo eles viram isto? Quais as implicações que isto teria sobre a natureza dual da matéria em nosso universo?

Tecnicamente, as manchetes não são incorretas. Porém, para mim e outros, elas implicam em algo mais radical do que aquilo que realmente foi observado. Para não me alongar muito, um fóton individual não pode ser observado se comportando simultaneamente como uma partícula e uma onda. Mas, se você juntar um grupo de fótons diferentes, pode observar alguns agindo como partículas e outros como ondas. Muitos dos relatos não deixam esta circunstância clara.

Os pesquisadores que realizaram a experiência, publicada na Nature Communications, estão na mesma frequência desta assertiva.

“Eu também acredito que um monte de pessoas está interpretando de forma exagerada o significado desses dados”, disse em um email o principal autor (do artigo) Fabrizio Carbone do Instituto Federal de Tecnologia da Suíça (EPFL) em Lausanne. Ele realizou o trabalho junto com colaboradores do EPFL, do Trinity College em Hartford, Connecticut, e do Laboratório Nacional Lawrence Livermore em Berkeley, California.

Os pesquisadores aprisionaram uma onda em um “nano-fio” superfino, cuja espessura é medida em nanômetros, ou seja, bilhonésimos de metro. É uma onda estacionária, tal como a vibração de uma corda de guitarra, com picos e vales que ficam sempre na mesma posição.

Para ser preciso, não é estritamente uma onda de luz, como sugerem as manchetes. Na verdade é um híbrido de uma onda de luz que dança dentro do fio e uma onda eletronagnética que desliza pela superfície do fio, produzida pelas partículas carregadas que se movem ao longo do fio. Elas ficam como que unificadas na extremidade. Este objeto composto é conhecido como um plasmon poláriton de superfície e você pode ler mais sobre ele na Wikipedia (Nota do tradutor: se você souber inglês…).

Para simplificar as coisas, vamos considerá-lo com sendo apenas uma onda de luz. Para efeitos desta discussão, não interessa se é feita de fótons ou de algum objeto híbrido. Ele age como uma onda.

Porém, quando os pesquisadores dispararam elétrons de encontro ao nano-fio, os elétrons algumas vezes foram acelerados de forma específica, indicando que eles haviam absorvido fótons indiviuais do nano-fio. Como pode a luz se comportar, ao mesmo tempo, como ondas e partículas?

A resposta é que essa luz é feita de mutios fótons diferentes. Cada um deles se comportou de forma diferente. Os pesquisadores observaram que alguns fótons agiram como partículas e outros agiram como ondas. O imageamento desses dois tipos (de comportamento) ao mesmo tempo é o que foi feito pela primeira vez em sua experiência.

Nada que vá forçar a reescrever os livros-texto de física, mas ainda assim muito legal! Os pesquisadores testemunharam um comportamento importante em nano-fios, que pode servir da base para futuros dispositivos ópticos e eletrônicos em nano-escala. Além disso, eles puderam contar quantos fótons estavam nas ondas estudadas e como os elétrons interagiram com eles. Porém, quando um elétron absorvia um dos fótons, eles não podiam precisar de onde o fóton tinha vindo dentro da onda.

Carbone mencionou um  artigo de 2011 da Science que, segundo ele, foi o que chegou mais perto de capturar a natureza dual dde um fóton. Pesquisadores, liderados por Aephraim Steinberg da Universidade de Toronto mediram uma propriedade tipo partícula de fótons individuais — sua posição média — sem destruir os padrões de interferência tipo ondas que eles criavam após (a medição). A publicação Physics World declarou essa experiência a  “Descoberta do Ano de 2011” bem merecidamente. No entanto, nem essa experiência conseguiu determinar as posições exatas dos fótons individuais, na medida em que eles progrediam para criar os padrões de interferência típicos de ondas de faixas claras e escuras em um detector.

E qual é a razão fundamental para esta limitação? É algo inerente à mecânica quântica, conhecida como o Princípio da Incerteza de Heisenberg. Seu nome vem do físico do século XX, Werner Heisenberg, e diz que não se póde medir duas variáveis complementares, tais como posição e momento, com total precisão. Na hora em que se mede uma delas, a precisão com que se poderia medir a outra é sacrificada.

Assim, se medirmos as propriedades tipo partícula do fóton, estaremos sacrificando suas propriedades tipo onda. Zere na posição de um fóton com grande precisão e ele não vai poder participar mais tarde da criação de um padrão de interferência tipo onda.

É possível medir fracamente algumas propriedades tipo onda e tipo partícula de um fóton ao mesmo tempo, segundo Carbone, conqueanto que as incertezas combinadas não violem o Princípio de Incerteza..

Mas, ao fim e ao cabo, talvez essa “dualidade onda-partícula” seja uma forma artificial de explicar o mundo quântico, me explicou Steinberg em um email.

“Embora eu frequentemente seja culpável por isso, eu mesmo, penso que é um pouco de confusão induzida pelo cantochão dos físicos em salmodear sobre comportamentos ‘tipo onda’ e ‘tipo partícula'”, escreve ele. “Nós temos uma grande teoria matemática que nos diz o que os fótons… fazem na verdade. E aí então temos a tendência humana de traçar analogias e dizer: ‘hmmm… neste caso parece com o que eu esperaria de uma onda d’água’ e ‘mas neste outro caso se parece com o que eu esperaria de uma bola de bilhar’. Mas os fótons não são ondas d’água, nem bolas de bilhar”, complementa ele.

“Temos que ser sempre muito cuidadosos para definir exatamente qual pergunta temos em mente”, prossegue Steinberg. “Se duas marolas se cruzarem em um lago e eu enfiar a mão em concha na água, tirar uma mancheia d’água e lhe perguntar ‘de qual marola vieram estas moléculas d’água?’, não há uma resposta”.

“E não há resposta porque a pergunta foi mal enunciada, não porque haja qualquer profundo mistério na física das ondas d’água”, sublinha Steinberg.

“No fim, a mecância quãntica continua a mesma. Quando se faz perguntas claras, cuidadosamente escolhidas e experimentalmente verificáveis, não há paradoxos”, de acordo com Steinberg.

“O que isso nos ensina é que ainda não conseguimos pensar corretamente sobre a mecânica quântica — não que haja qualquer problema com a teoria em si ou no modo como a usamos para fazer predições”.


Ben P. Stein, é o diretor do “Inside Science”, e vem cobrindo a física como um divulgador de ciência e editor desde 1991; siga-o no Tweetwe em @bensteinscience.

Uma gota de determinismo para a física quântica (mas, será mesmo?…)

Gotas causando ondulaçõess. Cortesia Shutterstock

Gotas causando ondulações.

Imagem cortesia de Shutterstock

Uma das coisas mais abracadabrantes para nós leigos é a tal “dualidade onda-partícula“. Um raio de um elétron parece estar em todos os lugares (na verdade não é mesmo “em todos os lugares”; apenas “em qualquer lugar de um determinado volume de espaço-tempo) enquanto ninguém está olhando, se comportando como uma onda (descrita por equações que definem o tal volume definido de espaço-tempo).

Mas basta você observar (entenda-se: “fazer uma medição”) o tal elétron e ele se comporta como um corpúsculo com carga elétrica, momento, momento angular e tal e coisa… Os budistas sustentam que “tudo é ilusão e impermanente”, mas isso já levar as coisas para o lado do misticismo. Além do que, experimente por sua mão em um fio “vivo” e desencapado que os elétrons vão mostrar para você que são bem reais e dolorosos.

No entanto, eu aprendi em meu curso secundário que esta tal dualidade onda-partícula foi uma ideia sugerida pelo físico francês Louis de Broglie e mais tarde, lendo um livro do próprio de Broglie sobre o assunto, ele meio que assume a paternidade deste abracadabra. Só que não é exatamente verdade que de Broglie julgasse que elétrons e outros “bixos” fossem mesmo ora onda, ora partícula. Ele, na verdade, propunha que as partículas andavam à deriva sobre as ondas do campo correspondente (o que implicava na existência de “variáveis ocultas”), algo assim como escolhos à deriva sobre as ondas do mar (é sempre bom lembrar que as ondas do mar são algo bidimensional e as ondas dos campos das forças fundamentais são tri(tetra)dimensionais).

Ao fim de muita discussão, prevaleceu o que se chama de “Interpretação de Copenhagen”, formulada por Niels Bohr e Werner Heisenberg que, em suma, diz que uma partícula é apenas uma probabilidade até que interaja com outra, quando passa por um “colapso da função de onda”. Essa interpretação levou a algumas críticas fortes – a mais conhecida é o “Gato de Schrödinger”, onde o gato está vivo e morto ao mesmo tempo, enquanto não se abrir a caixa – mas uma suposta “prova”, encontrada por John von Neumann, da impossibilidade de existirem “variáveis ocultas”, foi alegremente aceita, sem maiores exames (mais de 30 anos depois, descobriram que von Neumann estava errado, mas azeite, azar, azia…).

Em 1952 o Físico David Bohm ressuscitou a teoria das ondas-piloto, mas a comunidade da física não recebeu muito bem suas propostas. Afinal, a Equação de Schrödinger funciona muito bem e a Mecânica proposta por Bohm pressupõe que o comportamento das partículas é influenciado, ao fim e ao cabo, por todo o universo (o que parece misticismo e, com efeito, foi alegremente recebido por diversos místicos).

A famosa “dupla-fenda”

Experiência da dupla fenda. Imagem de Wikimedia Commons. (por Lookang com agradecimentos a Fu-Kwun Hwang e o autor do Easy Java Simulation = Francisco Esquembre).

Uma famosa “prova” da dualidade onda-partícula é a “dupla fenda“. Um feixe de elétrons é disparado contra uma antepara onde há duas fendas que permitem que alguns elétrons passem e, depois, se choquem contra uma tela sensível. Imediatamente se forma um padrão de interferência, como se ondas se reforçassem ou anulassem mutuamente. Mas, quando se cria um dispositivo para identificar a fenda por onde os elétrons passaram, o padrão de interferência desaparece.

Bom… A “pegadinha” é que se trata de um feixe de elétrons, não de um elétron isolado. A ideia de que “o elétron interfere com ele próprio” é “licença poética”. As ondas dos lugares geométricos, definidos pela equação de onda do elétron é que interferem entre si. Quando se identifica a fenda por onde passa cada elétron, na verdade você está interceptando o feixe e, é óbvio, não há mais “onda” alguma; há partículas.

O mesmo tipo de experimento funciona com fótons (e isso vai causar um probleminha para a novidade descrita a seguir).

Uma gota “quântica”

Agora, pesquisadores em Paris realizaram uma série de experiências fazendo vibrar uma superfície banhada com óleo de silício e descobriram que, em uma frequência particular, uma gotícula começa a saltar pela superfície do óleo. E que a trajetória dessa gotícula é guiada pelo contorno ondulado do banho, gerado pelas ondas causadas pela própria gotícula: uma interação entre onda e partícula muito semelhante àquilo proposto por de Broglie e suas ondas-piloto.

Na interpretação de de Broglie – Bohm, cada elétron passa através de uma única fenda, carregada por uma onda-piloto que – ela sim – passa pelas duas fendas ao mesmo tempo. Tal como uma série de escolhos levados a uma praia pelas ondas do mar que tivessem que, antes de chegar à praia, passar por uma barreira com duas fendas. Cada um dos objetos flutuantes passaria por apenas uma das fendas e iriam se distribuir, depois delas, segundo o padrão de interferência dessas ondas.

Os resultados finais são os mesmos: a Mecânica de Bohm é tão capaz de prever onde cada elétron vai passar como a Mecânica Quântica “Tradicional” (ou seja: não é capaz). A distribuição dos efeitos é sempre uma função estatística.

As gotículas também parecem capazes de reproduzir o “Efeito de Túnel“, formarem “Partículas Compostas“, em órbitas mutuamente estáveis, e exibir comportamentos análogos ao spin quântico e à atração eletromagnética. Quando confinadas a “currais” (áreas circulares cercadas), formam anéis concêntricos muito semelhantes às ondas estacionárias geradas por elétrons confinados em “currais quânticos”.

A coincidência das ondas estacionárias é surpreendente, não é mesmo?

Eu adorei a ideia de poder imaginar as partículas subatômicas como verdadeiras partículas, surfando sobre as ondas do espaço-tempo causadas pelos campos fundamentais.

Só que me dei conta que, no caso do fóton, a própria onda é a “partícula”. E lá se foram pelo ralo todas as lindas analogias…


Fonte: Fluid Tests Hint at Concrete Quantum Reality, Quanta Magazine; também publicado na Wired com o título Have We Been Interpreting Quantum Mechanics Wrong This Whole Time?

Experiência ALPHA do CERN mede a carga do anti-hidrogênio

Original em inglês porCian O’Luanaigh em 3 Jun 2014: CERN’s ALPHA experiment measures charge of antihydrogen.

Detalhe da experiência ALPHA: Inserção da Armadilha Penning do ALPHA trap no criostato que contém os magnetos confinadores do anti-hidrogênio (Imagem: Niels Madsen)

Em um artigo publicado hoje na Nature Communications, a experiência ALPHA no Desacelerado Antipróton (Antiproton Decelerator = AD) relata a medição da carga elétrica de átomos de anti-hidrogênio, que revelou ser a mesma compatível com zero até a oitava casa decimal. Embora esse resultado não seja surpresa alguma, uma vez que os átomos de hidrogênio são eletricamente neutros, esta é a primeira vez que a carga de um anti-átomo foi medida com uma precisão tão alta.

“Esta foi a primeira vez que fomos capazes de estudas o anti-hidrogênio com alguma precisão”, relata o porta-voz da ALPHA, Jeffrey Hangst. “Estamos otimistas quanto ao fato de que a técnica de confinamento do ALPHA permitirá vários desses vislumbres no futuro. Aguardamos pelo reinício do programa AD em agosto, de forma poder continuar a estudar o anti-hidrogênio com uma precisão cada vez maior”.

As antipartículas deveriam ser idênticas às partículas de matéria, exceto pelo sinal da carga elétrica. Assim é que o átomo de hidrogênio é composto de um próton com carga +1 e um elétron com carga -1, o átomo de anti-hidrogênio consiste de um antipróton com carga -1 e um posítron com carga +1. Entretanto, também sabemos que matéria e antimatéria não opostos exatos – a natureza parece ter uma preferência de 1 contra 10 bilhões pela matéria sobre a antimatéria, o que torna importante medir as propriedades de matéria e antimatéria com grande precisão: o objetivo principal dos experimentos do AD do CERN. O ALPHA consegue isto por meio de um complexo sistema de confinamento de partículas que permite a produção e armazenagem de átomos de anti-hidrogênio por períodos suficientemente longos para estudá-los em detalhe. A compreensão da assimetria entre matéria e antimatéria é um dos maiores desafios da física atual. Qualquer diferença detectável entre matéria e antimatéria poderia ajudar a resolver o mistério e abrir uma janela para uma nova física.

Para medir a carga do  anti-hidrogênio, a experiência ALPHA estudou as trajetórias dos átomos de anti-hidrogênio na presença de um campo elétrico. Se os átomos de anti-hidrogênio tivessem uma carga elétrica, o campo os desviaria, enquanto que átomos neutros não seriam afetados. O resultado, baseado em 386 eventos registrados, dá uma carga elétrica para o anti-hidrogênio de (-1.3±1.1±0.4) × 10-8, sendo os números “±” representativos das incertezas estatísticas e sistemáticas das medições.

Com o reinício da cadeia de aceleradores do CERN a caminho, o programa de pesquisa de antimatéria do laboratório também será reiniciado. Experimentos que incluem o ALPHA-2, uma versão melhorada da experiência ALPHA, vão colher dados, juntamente com as experiências ATRAP e ASACUSA, assim como o “novato” AEGIS que vai medir a influência da gravidade sobre o anti-hidrogênio.

Artigo na Nature Communications: “An experimental limit on the charge of antihydrogen

Matéria escura: até agora, nada!…

Photobucket

Um evento no ATLAS entre dois fótons. Os fótons são denotados pelos rastros de energia na cor verde.

                 Crédito da Imagem:  Experiência ATLAS © 2013 CERN | http://bit.ly/LegAIF

Original (em inglês) por Charles Q. Choi, Contribuidor do ISNS

(ISNS) — A matéria escura é presentemente um dos maiores mistérios do universo. Agora os cientistas revelam que o mais poderoso colisor de partículas do mundo não desencavou qualquer indício dessa forma hipotética de matéria, o que coloca novos limites para aquilo que ela pode ser.

A matéria escura é, hipoteticamente, uma substância invisível e enigmática que – se acredita – deve responder por quase cinco sextos de toda a matéria existente no cosmo. Os astrônomos começaram a suspeitar de sua existência na década de 1930, quando perceberam que o universo parecia possuir mais massa do que aquela das estrelas (e todo o resto de matéria observável). Por exemplo, a velocidade com que as estrelas orbitam o centro da Via Láctea é tão grande que elas já deveriam ter vencido a atração gravitacional do núcleo da galáxia e terem escapado para o vazio intergalático, mas alguma coisa as mantem no lugar, coisa esta que a maioria dos pesquisadores acredita ser a gravidade de um material até hoje não observado: a matéria escura.

Os cientistas já descartaram todas as formas conhecidas de matéria candidatas ao papel de matéria escura. Até o presente o consenso é que a matéria escura seja constituída de uma forma nova e invisível de partículas, as quais só interagiriam muito fracamente com a matéria conhecida.

A matéria escura não pode ser explicada por qualquer uma das partículas do Modelo Padrão da física de partículas, a melhor descrição atual para o mundo na escala subatômica. Desta forma, elas devem aparecer a partir de uma física que vá além do Modelo Padrão. Uma das possibilidades está na ideia conhecida como supersimetria, a qual sugere que todos os tipos de partículas conhecidos do Modelo Padrão têm uma contrapartida, ainda não detectada. Por exemplo, os elétrons teriam suas contrapartidas denominadas selétrons. Outra possibilidade é a existência de partículas conhecidas como áxions, originalmente propostas pelos físicos teóricos para solucionar um dos enigmas relacionados com a força nuclear forte, uma das quatro forças fundamentais do universo, que mantém coesos os prótons e nêutrons do núcleo atômico.

A maior parte das experiências que buscam a matéria escura envolve gigantescos detectores subterrâneos que procuram as raras colisões entre a matéria comum e partículas de matéria escura que passam através da Terra. No entanto, muitas das teorias sugerem que o maior colisor de partículas já construído, o Large Hadron Collider, pode gerar partículas de matéria escura. Embora essas partículas de matéria escura consigam escapar indetectadas pelos sensores da máquina, os cientistas do LHC em Genebra, Suíça, ou aqueles por todo o mundo que fazem a interpretação dos dados das colisões, poderiam inferir sua existência a partir do comportamento de outros produtos dessas colisões. Eles poderiam usar os dados das colisões para inferir detalhes desses pedacinhos de matéria escura, tais como suas massas e suas seções de choque — quer dizer, a probabilidade delas interagirem com outras partículas.

Buscas anteriores pela matéria escura no LHC procuravam por jatos individuais de partículas, formadas quando se estraçalha próton contra próton em níveis de energias sem precedentes. Durante a temporada de 2012 do LHC run, a colaboração ATLAS realizou experiências com colisões mais complexas que geravam não apenas um único jato, como também dois jatos estreitos adicionais.

Estas novas descobertas excluem enfaticamente vários potenciais candidatos a matéria escura e a pesquisa foi detalhada online na Physical Review Letters. Especificamente, o trabalho “coloca interessantes restrições nas tentativas de estender o Modelo Padrão de física de partículas de forma mínima para explicar a matéria escura”, segundo o físico de astropartículas Gianfranco Bertone da Universidade de Amsterdam (que não tomou parte na pesquisa).

Embora estas descobertas excluam alguns possíveis candidatos a matéria escura, “Eu não penso que isso seja realmente um grande problema para as teorias de matéria escura, no momento”, diz o físico de partículas Andreas Hoecker, vice coordenador da Experiência ATLAS no CERN. “A melhor  teoria que temos para a matéria escura, a supersimetria, não fica excluída com estes resultados”.

Os cientistas estão agora fazendo melhorias nos aceleradores do LHC. “Em meados de 2015, o acelerador vai ser novamente ligado e terá uma capacidade de quase o dobro da energia que antes”, diz Hoecker. Isto significa que as futuras experiências “poderiam procurar pela formação de partículas supersimétricas, tais como squarks, gluínos e neutralinos com massas muito maiores do que o permitido nos dados anteriores”. Não se espera que as experiências do LHC detectem áxions, já que estes teoricamente têm seções de choque muito baixa, além das capacidades do acelerador.

Além disto, por volta de 2022, os melhoramentos no LHC devem atingir uma luminosidade 10 vezes maior — ou seja, esmagar 10 vezes mais prótons contra um alvo, a cada seção. Isso pode gerar potenciais partículas de matéria escura em números bem maiores do que antes, talvez em número suficiente para sua detecção, a despeito da raridade de sua interação com outras partículas, acrescenta Hoecker.

Se o LHC não detectar coisa alguma, mesmo a essas energias maiores e maior luminosidade, “ainda fica muito difícil excluir totalmente os modelos de supersimetria, porém os cientistas provavelmente vão perder o interesse”, argumenta Bertone. “Possivelmente os pesquisadores vão ter que procurar em outro lugar”.


Charles Q. Choi é um escritor de ciências freelance com base em Nova York que já escreveu para The New York Times, Scientific American, Wired, Science, Nature, e várias outras publicações

Por que a bateria do seu laptop viciou…


ETH Zurich

Por que as baterias de íon de lítio falham

 IMAGEM: Partículas de um eletrodo de óxido de estanho, passando por mudanças estruturais durante o carregamento (1 a 3) e descarregamento (3 e 4).

Clique aqui para mais informações.

As baterias de íon de lítio estão presentes em nossos telefones celulares, laptops e câmeras digitais. Existem poucos dispositivos eletrônicos portáteis que não dependam dessas fontes de energia. Atualmente, os eletrodos das baterias contém materiais ativos conhecidos como compostos de intercalação. Esses materiais armazenam carga em suas estruturas químicas sem sofrerem uma mudança estrutural substancial. Isto torna essas baterias comparativamente duráveis e seguras. No entanto, esses materiais de intercalação têm uma limitação: a pequena densidade de energia, a quantidade de energia que pode ser armazenada por unidade de volume e massa.

Na procura poe baterias com mais densidade de energia, os cientistas realizaram experiências por mais de 20 anos com materiais capazes de fazerem e desfazerem liga com o lítio repetitivamente. As experiências em escala de laboratório mostraram que baterias feitas com esses materiais possuem densidades de energia muitas vezes superiores às dos materiais de intercalação; no entanto, esses materiais que fazem ligas ainda não são muito empregados pela indústria porque sua duração é limitada. Martin Ebner, estudante de Ph.D. no Laboratório de Nanoeletrônica do Departamento de Tecnologia da Informação e Engenharia Elétrica (D-ITET) explica: “sua capacidade tipicamente se atenua após um par de ciclos carga-descarga”. Isto é atribuído a uma enorme expansão – de até três vezes – do material do eletrodo durante o carregamento. Durante o descarregamento, o material se contrai novamente, mas não volta a seu estado original. As partículas do eletrodo se separam, a estrutura do eletrodo se desintegra e os fragmentos perdem o contato com o restante da célula.

Observando as baterias durante o funcionamento com raios-x

Para compreender melhor a complexa degradação eletroquímica e mecânica do eletrodo, bem como obter novos dados para o desenvolvimento de baterias melhores, Martin Ebner e a Professora Vanessa Wood do ETH, chefe do Laboratório de Nanoeletrônica do D-ITET, perceberam a necessidade de estudar o funcionamento de um eletrodo de bateria com um processo não invasivo. Dessa forma, eles se voltarm para um instrumento de imageamento desenvolvido pelo Professor Marco Stampanoni do ETH. O Professsor Stampanoni, é catedrático no Instituto de Engenharia Biomédica do D-ITET e opera o feixe de raios-x para tomografia microscópica da Fonte de Luz Suíça, a instalação de síncrotron no Instituto Paul Scherrer. A radiação síncrotron de raios-x, de espectro puro e intensa, permite a rápida aquisição de imagens de raios-x de alta definição que podem ser montadas por computação em filmes tridimensionais.

Os pesquisadores observaram o interior da bateria enquanto ela carregava e descarregava ao longo de 15 horas. Com isso conseguiram montar filmes inéditos que registraram os mecanismos de degradação que ocorrem nas baterias e quantificaram os processos que acontecem com cada uma das milhares de partículas dos eletrodos. Os resultados deste estudo serão publicados na Science; uma versão pré-impressão está disponível online na Science Express.

Mudanças estruturais irreversíveis

Os dados mostram que as partículas de óxido de estanho (SnO) se expandem durante o carregamento devido ao influxo de íons de lítio, o que causa um aumento no volume das partículas. Os cientistas demonstram que a litificação acontece em um processo de fora para dentro, que progride da superfície da partícula até seu núcleo. O material que sofre esta reação, se expande linearmente com a carga armazenada. As imagens de raios-x mostram que o carregamento destrói a estrutura da partícula de modo irreversível, formando rachaduras dentro das partículas. “A formação de rachaduras não é aleatória”, enfatiza Ebner. As rachaduras crescem em locais onde a retícula do cristal contém defeitos pré-existentes. Durante o descarregamento, o volume das partículas diminui; entretanto, o material não volta a seu estado original; portanto, o processo não é completamente reversível.

A mudança de volume das partículas individuais acarreta a expansão de todo o eletrodo, de 50 micrômetros até 120 micrômetros. Porém, durante o descarregamento, o eletrodo só se contrai até 80 micrômetros. Esta deformação permanente do eletrodo demonstra que o polímero agregante que une o eletrodo, ainda não está otimizado para materiais de grande expansão volumétrica. Isto é algo crítico para o desempenho de uma bateria, porque a deformação do agregante faz com que as partículas fiquem desconectadas do eletrodo e  bateria perca capacidade.

Além de demonstrar que a microscopia tomográfica por raios-x permite a observação de mudanças morfológicas nas partículas e eletrodos, os pesquisadores demonstraram que esta técnica pode também ser empregada para a obtenção de informações químicas quantitativas e com resolução espacial. Por exemplo, os pesquisadores analisaram a composição química por todo o eletrodo, para procurar por diferenças na dinâmica de litificação ao nível das partículas individuais e comparar isto ao comportamento médio das partículas. Esta abordagem é essencial para a compreensão da influência do tamanho e formato das partículas e a homogeneidade do eletrodo sobre o desempenho da bateria.

Tais vislumbres do funcionamento da bateria não seriam possíveis sem o dispositivo avançado de tomografia com raios-x da Fonte de Luz Suíça. “A visualização das baterias durante o funcionamento era praticamente impossível até os recentes avanços na tomografia por raios-x. Graças às instalações de qualidade mundialmente reconhecidas, desenvolvidas pelo Professor Stampanoni e sua equipe, fomos capazes de observar a bateria funcionando”, acrescenta entusiasticamente Wood.

Alternativas para os materiais cristalinos

Os pesquisadores escolheram o óxido de estanho como material modelo porque ele passa por uma série de transformações complexas, também presentes em outros materiais, o que permite uma compreensão mais profunda do comportamento de vários materiais para baterias. Essas observações fornecem a base para o desenvolvimento de novos materiais para eletrodos e estruturas de eletrodos que sejam tolerantes a expansão volumétrica. Para o Prof. Wood, os resultados de seu trabalho indicam os benefícios do uso de materiais amorfos ou com nano-estrutura, em lugar dos cristalinos. “Na busca por novos materiais, se deve ter em mente que eles só têm interesse para a indústria se puderem ser produzidos em largas quantidades e a baixo custo. Mesmo assim, os materiais amorfos e de nano-estrutura oferecem um campo grande o suficiente para inovações”, enfatiza Wood.

 

###

 

Referencia

Ebner M, Marone F, Stampanoni M, Wood V. Visualization and quantification of electrochemical and mechanical degradation in Lithium ion batteries. Science Express, publicado online em 17 de outubro de 2013.

Grafeno já era!… Conheça o Carbyno


Rice University

Nota do tradutor: o nome “Carbyne” em inglês pode ter vários significados. No caso específico, “carbyne” se refere ao (teoricamente possível) poliacetileno (-C≡C-)n e eu chamei de “carbyno”, fazendo um aportuguesamento do termo em inglês, com “y” e tudo.

O tradutor também deseja enfatizar que observou que este “press-release” é exageradamente bombástico, ao descrever uma substância que, apesar de ser teoricamente possível, ainda não foi sintetizada em quantidades suficientes para testar na prática as qualidades apregoadas, e a “American Chemical Society” é chegada a apregoar “progressos” que acabam não dando em nada…

O novo campeão dos Carbonos

Os teóricos da Universidade Rice calculam que as cadeias de carbyno, com um átomo de espessura, pode ser o material mais forte que pode existir

 IMAGEM: Concepção artística da aparência de uma cadeia de carbyno.

Clique aqui para mais informações.

HOUSTON – (9 de outubro de 2013) – O Carbyno será o mais forte de toda uma nova classe de materiais microscópicos, quando e se alguém puder sintetizá-lo em grande escala.

Se conseguirem, vão descobrir que as nano-hastes ou nano-cordas têm uma pletora de propriedades notáveis e úteis, tal como descreve um novo artigo do físico teórico Boris Yakobson, da Universidade Rice, e seu grupo. O artigo será publicado nesta semana na publicação Nano da American Chemical Society.

O Carbyno é uma cadeia de átomos de carbono ligada por ligações, ou duplas, ou, alternadamente, simples e triplas. Isso o faz um material realmente unidimensional, diferentemente das folhas de grafeno, com um único átomo de espessura, que têm um topo e um fundo, ou nano-tubos ocos que têm um lado de dentro e outro de fora.

De acordo com o retrato traçado pelos cálculos de Yakobson e seu grupo:

  • A resistência à tração – a capacidade de suportar o esticamento – supera “a de qualquer outro material conhecido” e é o dobro da do grafeno. (Os cientistas já calcularam que seria necessário um elefante, se equilibrando em cima de um lápis, para perfurar uma folha de grafeno)
  • Seu módulo de elasticidade (Young) é o dobro do grafeno e dos nano-tubos de carbono, e cerca de três vezes o do diamante.
  • Esticar o carbyno tão pouco como 10%, altera sua banda proibida (electronic band gap) significativamente.
  • Se for dotado de alças moleculares em suas extremidades, também pode ser torcido para alterar sua banda proibida. Com uma rotação de 90 graus, ele se torna um semi-condutor magnético.
  • Cadeias de carbyno podem receber moléculas colaterais, o que pode torná-las capazes de armazenar energia.
  • O material é estável a temperatura ambiente, resistindo bem à reticulação com cadeias próximas.

Isto é um notável conjunto de qualidades para uma simples cadeia de átomos de carono, como diz Yakobson.

“Se pode encará-lo como uma fita de grafeno extremamente fina, reduzida a um único átomo, ou um nano-tubo extremamente fino”, diz Yakobson. Poderia ser útil para sistemas nano-mecânicos, em dispositivos spintrônicos, como sensores, como materiais leves e fortes para aplicações mecânicas, ou para armazenagem de energia.

“Quaisquer que sejam as aplicações”, prossegue ele, “em termos acadêmicos é muito instigante conhecer a mais forte molécula possível”.

Com base nos cálculos, ele declara que o carbyno pode ser o mais alto estado de energia possível para o carbono estável. “Usualmente nos preocupamos em encontrar o “estado fundamental“, a configuração de átomos com a menor energia possível”, explica Yakobson. “No caso do carbono, este seria a grafite, seguida pelo diamante, nano-tubos e, por fim, fulerenos. Porém, ninguém se pergunta sobre a mais alta configuração de energia. Acreditamos que esta possa sê-lo, uma estrutura estável com a maior energia possível”.

As teorias sobre o carbyno começaram a aparecer no século XIX e a primeira tentativa de sintetizá-lo foi feita na URSS em 1960. Desde então, o carbyno tem sido observado em grafite comprimida, foi detectado em poeira interestelar e foi criado em pequenas quantidades pelos cientistas experimentais.

“Eu sempre me interessei pela estabilidade de fios ou qualquer outra coisa extremamente finos, e o quão fina uma haste se pode fazer com uma determinada substância química”, diz Yakobson. “Nós publicamos um artigo, há 10 anos, sobre silício, no qual explorávamos o que acontece com um nano-fio de silício na medida em que fica mais fino. Para mim, isto era apenas parte da mesma pergunta”.

Os pesquisadores da Rice, sob a liderança do estudante de pós-graduação Mingjie Liu e o pesquisador pós-doutorado Vasilii Artyukhov, tinham conhecimento de vários artigos que descreviam uma ou outra propriedade do carbyno. Eles se dispuseram a detalhar o  carbyno com modelos de computação, usando regras de lógica de primeira ordem pra estabelecer as interações energéticas dos átomos, segundo Artyukhov.

 IMAGEM: Nano-cordas ou nano-hastes de carbyno, uma cadeia de átomos de carbono, seriam mais fortes do que o carbeno ou o diamante (se puderem ser manufaturadas).

Clique aqui para mais informações.

“Nossa intenção era reunir tudo, construir um quadro mecânico completo do carbyno como material”, disse Artyukhov. “O fato dele ter sido observado nos diz que ele ao menos é estável sob tensão, senão simplesmente teria sido destruído”.

Yakobson diz que os pesquisadores ficaram surpresos em encontrar uma fixa proibida no carbyno tão sensível à torção. “Ele vai ser útil como um sensor para torção ou campos magnéticos, se conseguirmos um meio de fixá-lo a alguma coisa que o faça se enrolar”, diz ele. “Nós não estávamos procurando especificamente por isto; foi algo que surgiu como um produto colateral”.

“Isso é o que é bom em estudar as coisas cuidadosamente”, acrescenta Artyukhov.

Outra descoberta de grande interesse é a barreira de energia que impede os átomos em cadeias de carbono adjacentes de colapsarem umas sobre as outras. “Quando se fala de material teórico, é sempre bom ser cuidadoso para verificar se ele reage com ele próprio”, diz Artyukhov. “Isto nunca tinha sido realmente investigado para o carbyno”.

A literatura parecia indicar que o carbyno “não era estável e se desfaria em grafite ou fuligem”, diz ele.

Ao contrário, os pesquisadores descobriram que os átomos de carbono em cadeias separadas poderiam sobrepujar a barreira em um ponto, mas a rigidez das hastes iria impedir que elas se juntassem em outro local, ao menos em temperatura ambiente. “Iriam ficar parecidas com asas de borboleta”, disse Artyukhov.

“Novelos poderiam ficar grudados, mas não colapsariam inteiramente”, acrescenta Yakobson. “Isso poderia criar uma rede, altamente porosa e randômica, que poderia ser boa para adsorção”. Artyukhov diz que a área específica do carbyno é cerca de cinco vezes a do grafeno.

[Nota do tradutor: Alerta para hype escandaloso!] Quando o artigo da equipe ficou disponível neste verão nos arXiv, os noticiários científicos e mesmo alguns noticiários populares ficaram tão entusiasmados com os cálculos que começaram a especular sobre o artigo e suas implicações, antes que a equipe o submetesse à revisão por pares. Agora que o artigo inteiro está pronto para a publicação, os pesquisadores dizem que vão levar suas investigações em novas direções.

Eles estão examinando mais rigorosamente a condutividade do carbyno e cogitando também sobre outros elementos. “Conversamos sobre examinarmos diferentes elementos da tabela periódica para ver se alguns deles podem formar cadeias unidimensionais”, disse Yakobson.

 

###

 

O estudante de pós-graduação da Rice, Fangbo Xu e o ex-pesquisador pós-doutorado, Hoonkyung Lee, agora professor da Universidade Konkuk na Coréia do Sul, são os co-autores do artigo.

Extrato do artigo em http://pubs.acs.org/doi/abs/10.1021/nn404177r

O prêmio Nobel de Física de 2013

Photobucket

Foto de Englert: Pnicolet via Wikimedia Commons | Foto de Higgs: G-M Greuel via Wikimedia Commons | Imagem composta por Lalena Lancaster

Comitê do Nobel também menciona os experimentos do Large Hadron Collider como confirmação da partícula de Higgs.

8 de outubro de 2013
Por: 

Ben P. Stein, Diretor do Inside Science

(ISNS) – O Prêmio Nobel de Física de 2013 foi concedido ao cientista belga François Englert e ao cientista britânico Peter W. Higgs “pela descoberta teórica de um mecanismo que contribui para nossa compreensão da origem da massa das partículas subatômicas e que foi recentemente confirmado pela descoberta da partícula fundamental prevista, pelos experimentos ATLAS e CMS do Large Hadron Collider do CERN”.

Em 1964, Englert, em conjunto com um colega já falecido, Robert Brout, e Higgs publicaram, independentemente, artigos que davam uma explicação sobre como algumas partículas subatômicas, tais como elétrons e quarks, adquirem massa. Segundo seu trabalho teórico, essas partículas intergiriam com um campo invisível, existente no universo, agora conhecido como o Mecanismo de Higgs, para adquirirem suas massas. Em 4 de julho de 2012, dois grupos de pesquisas no Large Hadron Collider (LHC), no laboratório do CERN de física de partículas na Europa anunciaram a detecção de uma partícula que, como mais tarde foi confirmado, vem desse campo invisível.

“Ambos [os teóricos] fizeram uma contribuição para a explicação da origem da massa e estas contribuições não podem ser individualizadas. Afinal, o que eles fizeram foi essencial para o Modelo Padrão da Física de Partículas”, declarou Olga Botner, da Universidade de Uppsala na Suécia, ao anunciar o prêmio.

“Não surpresa alguma”, comento Drew Baden, um físico da Universidade de Maryland, em College Park, “e é uma história realmente interessante”.

Há cinquenta anos, os físicos enfrentavam um enorme problema. Eles sabiam que o universo era composto por partículas fundamentais, tais como elétrons, prótons e nêutrons, que serviam como peças para a montagem da matéria. Estas partículas eram governadas por forças, tais como o eletromagnetismo, que as punham em movimento. Entretanto, este Modelo Padrão da física de partículas tinha sérias limitações. Ele não podia explicar porque alguns objetos — tais como os elétrons — tinham massa e outros, tais como os fótons, não tinham. Pelo Modelo Padrão de 1963, nada teria massa e zuniria pelo universo afora na velocidade da luz. Não seria possível a formação de átomos e moléculas e as estrelas, planetas, galáxias e as pessoas não poderiam existir.

É aí que entra em cena um grupo de teóricos — físicos que pretendem descrever a natureza através da matemática — para resolver o problema de porque certas partículas no universo têm massa, enquanto outras não.

A resposta veio com a percepção de que o universo está imerso em campos. Por exemplo, o campo eletromagnético permeia o espaço e faz com que objetos com carga positiva sejam atraídos por outros com carga negativa. As forças eletromagnéticas são exercidas entre os objetos através da troca de fótons.

Na década de 1960, vários teóricos descobriram independentemente que tinham a solução para o enigma das massas para o Modelo Padrão. A solução que eles apresentaram envolvia a existência de outro campo invisível, agora conhecido como Campo de Higgs. Algumas partículas, tais como os fótons, não são afetadas por ele enquanto o atravessam. Outras, tais como os elétrons, experimentam uma resistência a seu movimento, ou inércia, o que lhes confere massa.

“Até a descoberta do Higgs, não havia um fiapo de indício experimental”, comenta Baden, um físico da equipe do CMS no LHC. Em lugar disso, segundo ele, o conceito todo veio de uma solução matemática para um problema, que mostrava como as partículas poderiam adquirir massa.

Vários teóricos descobriram a solução de Higgs. Primeiro, Englert e seu colega Brout, publicaram um artigo que previa esse campo invisível. Peter Higgs, de maneira independente, publicou um artigo que previa que uma partícula, que veio a ser denominada Bóson de Higgs, poderia ser emitida pelo campo, tal como os fótons são emitidos pelo campo eletromagnético. Outro grupo de teóricos, Gerald Guralnik, C. Richard Hagen e Tom Kibble, porteriormente publicaram independentemente um artigo que predizia o mesmo mecanismo.

Baden disse que a premiação simultânea para Englert e Higgs “uma solução de compromisso muito bonita”, assim como o reconhecimento dos experimentais do LHC que detectaram a partícula. Englert e Higgs “puseram a bola em movimento” quanto à ideia da existência de um campo invisível que permeia o espaço.

Ao longo de décadas, o Higgs permaneceu como a peça que faltava no Modelo Padrão. Ele explciava porque algumas partículas fundamentais tinham massa. No entanto, ele era incrivelmente difícil de detectar. Segundo as previsões, o próprio Higgs tinha massa. E ele era muito pesado, muito mais pesado do que qualquer outra partícula fundamental até então detectada. Para extrair uma partícula do campo de Higgs é necessária uma enorme quantidade de energia.

Somente depois da construção pelo CERN do LHC que os físicos puderam extrair de modo confiável as partículas de Higgs desse campo invisível. O LHC começou a funcionar em 2008.

O LHC acelera feixes de 500 trilhões de prótons — as partículas positivamente carregadas do núcleo dos átomos — até 99,99999 % da velocidade da luz, ou seja, uma energia de 4 teraeletron-volts, ou TeV. É o equivalente à energia de um trem em  disparada, concentrada em um raio de prótons subatômicos. O LHC esmaga dois desses feixes, um de encontro ao outro, para criar jorros de partículas. A famosa equação de Einstein, E=mc², diz que a energia pode ser convertida em massa e vice versa. A partir da pura energia dessa colisão, podem emergir novas partículas, totalmente diferentes dos prótons iniciais.

Em 4 de julho de 2012, os físicos das duas colaborações experimentais do LHC, ATLAS e CMS, anunciaram que tinham confirmado a existência de uma partícula parecida com o previsto Higgs. Sua massa aproximada era de 125 gigaelectron volts, ou GeV, muito maior do que qualquer outra partícula fundamental e cerca de 100 vezes mais pesada do que um próton. Durante o último ano, os cientistas confirmaram que  partículas observada era mesmo o Higgs. Dados anteriores, obtidos pelo acelerador Tevatron do Laboratório Nacional Fermi, também confirmavam alguns indícios da existência desta partícula.

Porém, com a confirmação do Higgs, os enigmas do universo estão longe de estarem solucionados. Embora o Higgs possa ser a última peça principal do Modelo Padrão, os físicos entendem que o Modelo Padrão ainda está incompleto. Por exemplo, ele só descreve três das quatro forças fundamentais do universo e deixa de fora a gravidade.

“Em minha opinião, o principal e mais fundamental problema ainda não resolvido, apesar de alguns progressos, é o problema da gravidade quântica, a quantização da gravidade”, declarou Englert, em uma coletiva de imprensa, imediatamente após o anúncio do Prêmio Nobel de 2013.

Englert também lembrou as questões da supersimetria, matéria escura e energia escura, mistérios que ainda estão por resolver.

O Modelo Padrão somente descreve a matéria comum do universo, o que agora se supõe compreender apenas um quinto da matéria existente no universo. Ele não prevê a matéria escura invisível, nem a energia escura, que foram o objeto do Prêmio Nobel de Física em 2011.

Peter Higgs não foi entrevistado quando do anúncio do Nobel por estar em gozo de férias.

Então, os teóricos e experimentalistas continuam com um monte de questões para responder. As soluções para essas questões provavelmente serão objetos dos próximos Prêmios Nobel de Física.


Ben P. Stein, diretor do Inside Science, vem cobrindo a física como escritor de ciências e editor desde 1991.

Um novo tipo de microscópio: Microscópio de Nêutrons

Massachusetts Institute of Technology

Novo tipo de microscópio usa nêutrons

Dispositivo pode abrir novas áreas de pesquisa de materiais e de amostras biológicas em pequeníssimas escalas

Original em inglês por: David L. Chandler, MIT News Office
4 de outubro de 2013
 

New kind of microscope uses neutrons

O pequeno protótipo de microscópio de nêutrons da equipe, pronto para os testes iniciais no Laboratório do Reator Nuclear do MIT. Os espelhos do microscópio ficam dentro da pequena caixa de metal, acima e à direita.

FOTO CORTESIA DOS PESQUISADORES (CLIQUE PARA AMPLIAR)

Pesquisadores do MIT, em conjunto com seus parceiros da NASA, desenvolveram um novo conceito para um microscópio que usará nêutrons — partículas subatômicas sem carga elétrica — em lugar de feixes de luz ou de elétrons, para criar imagens de alta resolução.

Entre outras características,  os instrumentos com base em nêutrons têm a capacidade de sondar o interior de objetos metálicos — tais como células combustíveis, baterias e motores, mesmo com estes em funcionamento — para aprender detalhes de sua estrutura interna. Os instrumentos de nêutrons também são peculiarmente sensíveis às propriedades magnéticas e aos elementos mais leves que são importantes em materiais biológicos.

O novo conceito foi delineado em uma série de artigos de pesquisas, neste ano, inclusive um publicado nesta semana em Nature Communications  por Dazhi Liu, pesquisador pós-doutorado do MIT, Boris Khaykovich, cientista pesquisador, professor David Moncton e quatro outros.

Moncton, um professor adjunto de física de diretor do Laboratório do Reator Nuclear do MIT, diz que foi Khaykovich quem propôs em primeiro lugar a ideia de adaptar um conceito já com 60 anos de focalizar raios-X com o uso de espelhos, para o desafio de construir um microscópio de nêutrons de alto desempenho. Até agora, a maioria dos instrumentos de nêutrons eram semelhantes a uma câmera pinhole: sistemas grosseiros de imageamento que apenas deixavam a luz passar através de um pequeno orifício. Sem eficientes componentes ópticos, tais dispositivos produziam imagens fracas com pouca resolução.

Além do pinhole

“Para os nêutrons, não havia dispositivos de focalização de alta qualidade”, prossegue Moncton. “Essencialmente todos os instrumentos de nêutrons, desenvolvidos ao longo de meio século, eram efetivamente câmeras pinhole”. Com relação a este novo avanço, diz ele que “Estamos levando o campo de imageamento com nêutrons das câmeras pinhole para uma era de genuína óptica”.

“O novo dispositivo de espelhos funciona como a lente formadora de imagens de um microscópio óptico”, acrescenta Liu.

Uma vez que os nêutrons interagem minimamente com a matéria, é difícil focalizar feixes deles para criar um telescópio ou microscópio. No entanto, em 1952 Hans Wolter propôs um conceito básico para raios-X, que foi mais tarde desenvolvido, sob os auspícios da NASA, para telescópios tais como o Observatório Espacial Chandra de Raios-X (projetado e gerenciado pelos cientistas do MIT). Feixes de nêutrons interagem fracamente, de forma muito semelhantes aos raios-X, e podem ser focalizados por um sistema óptico similar.

É um fato bem conhecido que a luz pode ser refletida por superfícies normalmente não refletivas, contanto que incidam sobre tal superfície em um ângulo bem aberto; isto é o princípio físico básico por trás das miragens dos desertos. Usando o mesmo princípio, espelhos com certos revestimentos podem refletir nêutrons incidentes em ângulos abertos.

Um dispositivo menor e mais preciso

O instrumento atual emprega vários cilindros refletores, aninhados um no interior do outro, de forma a aumentar a área de superfície disponível para a reflexão. O dispositivo resultante pode melhorar o desempenho dos sistemas de imageamento por nêutrons existentes por um fator de cerca de 50, segundo os pesquisadores — o que permite imagens mais nítidas, instrumentos muito menores, ou ambas as coisas.

A equipe primeiro projetou e otimizou o conceito digitalmente, então fabricou um pequeno instrumento de teste como prova-de-conceito, e demonstrou seu desempenho, usando uma instalação de feixe de nêutrons no Laboratório do Reator Nuclear do MIT. Trabalhos posteriores que necessitavam de um espectro de energias de nêutrons diferente, foram realizados no Laboratório Nacional Oak Ridge (ORNL) e no Instituto Nacional de Padrões e Tecnologia (NIST).

Um tal instrumento poderia ser usado para observar e caracterizar vários tipos de materiais e amostras biológicas; outros processos, não geradores de imagens, que exploram a dispersão de nêutrons, poderiam ser também beneficiados. Uma vez que os feixes de nêutrons têm energia relativamente baixa, eles são “uma sonda de dispersão muito mais sensível”, segundo Moncton, para fenômenos tais como “de que forma os átomos ou os momentos magnéticos se movem dentro de um material”.

Os pesquisadores planejam, a seguir, a construção de um sistema otimizado de microscopia a nêutrons em colaboração com o NIST, que já dispõe de uma grande instalação de pesquisas com feixes de nêutrons. Este novo instrumento deve custar uns poucos milhões de dólares.

Moncton sublinha o fato de que um recente avanço importante neste campo foi a construção de uma instalação de US$ 1,4 bilhões que provê um aumento de dez vezes no fluxo de nêutrons. “Dado o custo da produção dos feixes de nêutrons, é essencial equipá-los com o sistema óptico mais eficiente possível”.

Roger Pynn, um cientista de materiais da Universidade da Califórnia em Santa Barbara, que não esteve envolvido nesta pesquisa, diz que “Eu esperava que isso levasse a algumas grandes novidades no imageamento por nêutrons… Isso apresenta o potencial para algumas aplicações realmente novas da dispersão de nêutrons — algo que não é visto há algum tempo”.

Além dos pesquisadores do MIT, a equipe inclui Mikhail Gubarev e Brian Ramsey do Centro Marshall de Voo Espacial da NASA, e Lee Robertson e Lowell Crow do ORNL. O trabalho foi financiado pelo Departamento de Energia do Governo dos EUA.

Primeira medição experimental da carga fraca do próton


Carga Fraca do Proton é Medida pela Primeira Vez

Q-weak at Jefferson Lab has measured the proton's weak charge
O Q-weak do Jefferson Lab mediu a carga fraca do próton.

NEWPORT NEWS, Virgínia, 17 de setembro de 2013 — Pesquisadores realizaram a primeira medição experimental da carga fraca do próton em uma pesquisa realizada na Instalação Nacional do Acelerador de Partículas Thomas Jefferson do Departamento de Energia do Governo dos EUA (Jefferson Lab).

Os resultados, aceitos para publicação em Physical Review Letters, também inclui medições da carga fraca do nêutron e dos quarks up e down. Essas medições foram feitas mediante a combinação dos novos dados obtidos com dados publicados por outros experimentos. Embora estas medições preliminares sejam as medições mais precisas até hoje feitas, elas foram obtidas a partir da análise de apenas 4% do total dos dados coletados pelo experimento; a análise completa dos dados deverá levar mais um ano para ser completada.

A força fraca é uma das quatro forças fundamentais do nosso universo, junto com a gravidade, o eletromagnetismo e a força forte. Muito embora a força fraca só atue no nível subatômico, seus efeitos podem ser observados em nosso mundo do dia a dia. A força fraca desempenha um papel fundamentas nas reações nucleares que ocorrem dentro das estrela e são responsáveis por grande parte da radiação natural existente no universo.

O experimento Q-weak foi projetado por um grupo internacional de físicos nucleares que se reuniram há mais de uma década para propor uma nova medição no Jefferson Lab. Eles propuseram a primeira medição direta da carga fraca do próton, denotada pelo símbolo qpw – ou seja, a intensidade do puxão exercido pela força fraca dentro do próton, ou, em outras palavras, o quanto o próton interage através da força fraca. Uma vez que a carga fraca do próton é uma quantidade precisamente prevista pelo Modelo Padrão – o arcabouço teórico (porém bem testado) que descreve as partículas elementares e detalha como elas interagem – ela se torna um parâmetro ideal para medir experimentalmente a exatidão do Modelo Padrão.

Para realizar o experimento, os cientistas direcionaram um feixe muito intenso de elétrons para dentro de um contentor de hidrogênio líquido. Os elétrons foram polarizados longitudinalmente (girando ao longo ou em sentido contrário de seu movimento). Os elétrons que apenas resvalavam nos prótons (dispersão elástica, onde o próton permanece intacto), emergiam em pequenos ângulos e eram defletidos por poderosos eletromagnetos em oito detectores simetricamente dispostos.

A força fraca é muito mais fraca do que a eletromagnética. Em termos clássicos, se pode pensar nisso como para cada milhão de elétrons que interajam com os prótons através da força eletromagnética, apenas um vai interagir através da força fraca. Os físicos mediram essas poucas interações fracas, explorando uma importante diferença entre as duas forças – a força fraca viola um tipo de simetria conhecido como paridade, pela qual nosso universo “destro”, mediante a rotação de todas as direções espaciais, se torna “canhoto”. Em um mundo de paridade oposta, os elétrons que giram com seus eixos ao longo da direção de seu movimento, interagem como os prótons através da força eletromagnética, com a mesma intensidade. Quando a interação é através da força fraca, os elétrons com spin “destrógiro” interagem de forma diferente dos “levógiros”. Quando se mantém todos os demais parâmetros do experimento inalterados e somente a polarização do feixe de elétrons é revertida, os cientistas podem usar a diferença, ou “assimetria” das medições entre as duas polarizações para isolar o efeito da interação fraca. A meta é medir esta diferença, na faixa de ~200 partes por bilhão, tão precisamente como possível. Essa precisão é equivalente a medir a espessura de uma folha de papel no alto da Torre Eifel.

A análise inicial dos dados da experiência Q-weak deram um valor para qpw que está bem de acordo com a previsão do Modelo Padrão. No entanto, a colaboração dispõe de 25 vezes mais dados do que os usados nessa medição inicial. O resultado final deverá fornecer um rigoroso teste experimental para o Modelo Padrão, fornecendo novas restrições para a nova física nas escalas de energia que estão sendo exploradas no LHC do CERN.

“Os leitores devem encarar esses resultados primeiramente como uma medição da carga fraca do próton. Nossa publicação definitiva será focalizada nas implicações a respeito de potenciais novidades na física”, diz Roger Carlini, um cientista do staff do Jefferson e porta-voz da colaboração Q-weak.

O experimento Q-weak foi originalmente aprovado em janeiro de 2002. Um período de instalação de quase um ano, começou em 2009, seguido por um período de dois anos de coleta de dados de 2010 a 2012.

Várias conquistas técnicas na década passada tornaram este experimento possível. Estas incluem o feixe de elétrons de alta corrente, alta polarização e extremamente estável produzido pelo Acelerador Contínuo de Feixe de Elétrons do Jefferson Lab; o alvo de hidrogênico criogênico com a maior potência no mundo; detectores Cerenkov com extrema resistência à radiação; circuitos eletrônicos com ruído ultra baixo para a leitura dos sinais e medição precisa da corrente do feixe; e um sistema que mede a polarização do feixe com uma precisão melhor que 1%, usando um laser backscatter. Estas inovações técnicas permitiram a obtenção de uma incerteza assombrosamente pequena de 47 partes por bilhão para os dados divulgados até agora.

A colaboração Q-weak consiste de 97 pesquisadores de 23 instituições nos EUA, Canadá e Europa. O experimento foi financiado pelo Escritório de Ciências do Departamento de Energia do governo dos EUA, pela Fundação Nacional de Ciências dos EUA e pelo Conselho de Pesquisas de Ciências Naturais e Engenharia do Canadá. Também contribuíram as seguintes universidades: The College of William and Mary, Virginia Tech, George Washington University e Louisiana Tech University. Apoio técnico de TRIUMF, MIT/Bates e Jefferson Lab.

Os resultados serão publicados na edição de 13 de outubro (online) e 18 de outubro (impressa) da Physical Review Letters.

 

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM