Madeira e carvão são bons modelos em escala para o estudo de terremotos

Photobucket

Traduzido de: Wood And Charcoal Cut Earthquake Research Down To Size

Crédito da Imagem: Zyan via flickr | http://bit.ly/1Jng6al
Informações sobre direitos: http://bit.ly/NL51dk
Produtos de madeira podem se comportar como mini-terremotos.
Original publicado pelo ISNS em 17/07/2015
AutorBy: Michael Greshko, Contribuidor do ISNS.

(Inside Science) — As mesmas regras que governam o rangido de um piso de tábuas corridas ou os estalos de uma pilha de carvão seco, podem ser aquelas que governam as fraturas da crosta terrestre durante um terremoto. Dois estudos recentes, publicados em Physical Review Letters descobriram que todos esses eventos de estresse partilham os mesmos padrões matemáticos.

As descobertas podem ajudar a modelagem de terremotos e, talvez, permitir que pesquisadores no futuro possam replicar o “big one” em um computador pessoal.

Há muito tempo os sismologistas sabem que as relações entre os tamanhos e as frequências dos terremotos podem ser descritas pela matemática. Entretanto, mesmo após décadas de estudos, eles não são capazes de descrever quais processos físicos estão subjacentes a essas tendências.

Experimentos em escala reduzida demonstraram que os terremotos não podem ser inteiramente explicados pela fricção de rochas individuais. Comprima e faça romper uma rocha, como se ela estivesse a doze quilômetros de profundidade durante um terremoto e ela vai reagir de maneira extremamente violenta – tão violenta que, se a escala for ampliada para a de um terremoto, ela iria “literalmente arrancar sua cabeça enfiando suas pernas nela”, disse Thomas Heaton, um sismologista do Instituto de Tecnologia da Califórnia em Passadena. Algo torna os terremotos mais “suaves” do que a soma de suas partes – um persistente “paradoxo de estresse” que vem assolando a sismologia pelos últimos quarenta anos.

Para ajudar a responder essas questões irritantes, os cientistas têm procurado por sistemas de escala reduzida que possam imitar de maneira realística as revoluções intestinas da crosta terrestre em laboratóio. A ideia geral é que estresse é estresse e todos os materiais têm alguma maneira de se deformar para compensá-lo – o que inclui o carvão, como Haroldo Ribeiro¹, um físico da Universidade Estadual de Maringá, PR, Brasil, descobriu em seu estudo, publicado em 7 de julho.

Por incrível que pareça, tudo começou com um churrasco. Ribeiro percebeu que a prática comum de regar os tocos de carvão com álcool dava ao carvão uma carga elástica. O líquido evapora em taxas diferentes dentro e fora dos carvões, fazendo com que as pressões e estresses se acumulassem. À medida em que os carvões secavam, produziamm ruídos audíveis e Ribeiro começou a gravar essas “emissões acústicas” com um microfone.

Os padrões matemáticos que ele encontrou em suas gravações, reproduziam os padrões que haviam sido descobertos em terremotos. Em 1894, Fusakichi Omori, um pesquisador da Universidade Imperal de Tóquio, mostrou que o número de réplicas – os tremores que se seguem a um terremoto, às vezes mais suaves, outras menos – decaem de maneira previsível após o primeiro e maior tremor. Se ocorrerem 120 réplicas no primeiro dia após o terremoto, então haverá cerca de 60 no segundo dia e 40 no terceiro. Os “cracks” do carvão eram consistentes com a lei de Omon.

Separadamente, a frequência relativa entre os pipocos maiores e menores do carvão seguiam um padrão ordenado consistente com outro padrão de terremoto descoberto nos anos 1950 por Beno Gutenberg e Charles Francis Richter, sismologistas do Instituto de Tecnologia da Calfórnia. A lei de Gutenberg-Richter diz que terremotos 10 vezes mais poderosos do que um dado terremoto, ocorrem 10  vezes menos frequentemente.

E quando os “cracks” no carvão eram suficientemente grandes, suas maiores réplicas ficaram em niveis de energia cerca de 16 vezes mais fracos do que os iniciais. Exatamente como uma réplica de um terremoto real, tal como descoberto pelo sismologista sueco Markus Båth também nos anos 1950.

“A Terra não é tão diferente de um toco de carvão nesse particular”, diz Ribeiro. “Há a tensão, há os ‘cracks’ – de forma que é algo de se esperar”.

A 13 mil quilômetros de distância, perto de Helsinki, Finlândia, o físico Mikko Alava da Universdade de Helsinki e sua equipe de pesquisa trabalhavam em um problema semelhante. Como a madeira dobra e se quebra quando é comprimida? Eles examinaram os sons produzidos pela madeira quando colocada sob estresse.

“É um fatro conheicdo que a madeira estala quando se anda sobre um piso de tábuas ou se senta em uma cadeira”, diz Alava, “mas sempre ficou a questão: o que pode realmente afirmar no fim das contas?”

A equipe de Alava comprimiu blocos de pinho em tornos. Um microfone gravou cada gemido e estalo dos blocos, enquanto câmeras registravam sinais de estresse em suas superfícies. Embora a madeira parecesse se dobrar suavemente, as medições revelaram que ela na verdade reagia ao estresse em espasmos puntuais e intensos, tal como ocorre em avalanches e terremotos. Os “madeiremotos”, da mesma forma que os estalos dos carvões de Ribeiro, também seguiam as leis de Gutenberg-Richter e de Omori. A Physical Review Letters publicará o estudo de Alava em 20 de julho.

O fato de que materiais tão diferentes como o quebradiço carvão e a flexível madeira compartilhem reações similares ao estresse, segundo o físico da Univesidade de Cornell, James Sethna, nos diz que não devemos nos preocupar com “o que acontece ao nível das células da madeira ou ao nível de pedregulhos na falha sísmica”. Ao inves disso, deveríamos nos preocupar mais com o comportamento desses materiais em larga escala, por exemplo como eles, como um todo, lidam com os estresses na ponta de uma rachadura. O que faz com que uma pequena rachadura se torne uma rachadura de tamanho médio? E como rachaduras médias se transformam em grandes rachaduras?

Ribiero e Alava disseram estar planejando futuros estudos sobre a física universal das rachaduras, o que pode nos ajudar a compreender com perturbar uma área propensa a tremores de terra – quem sabe bombeando água em uma zona de fratura – e os impactos que isso pode ter na atividade sísmica. No entanto predizer exatamente quando e onde vai acontecer um grande terremoto vai continuar sendo cabulosamente difícil. É a mesma coisa que saber quantos gols o artilheiro do campeonato já fez em cada partida e predizer quando ele fará o próximo…


Michael Greshko é um escritor de ciências de Washington, D.C. que já escreveu para NOVA Next, the National Academies e para o NYTimes.com, entre outros. Seu Tweeter é @michaelgreshko.


Nota do Traduor:
1 – O nome correto é Haroldo Ribeiro e não “Ribiero” como grafado no original em inglês. Para sanar dúvidas, siga o link para o estudo.

Uma ruga no tempo divide o mundo quântico da realidade cotidiana

Photobucket

Quarta feira, 17 de junho de 2015
INSIDE SCIENCE NEWS SERVICE
Crédito da Imagem: Alan Cleaver via flickr | http://bit.ly/1G3bRzX
Informação sobre direitos autorais: http://bit.ly/NL51dk

A gravidade estica o tempo e limita os efeitos quânticos em escalas maiores.

Original (em inglês) por: Charles Q. Choi, Contribuidor

(Inside Science) — O mundo se torna um lugar nebuloso e surreal em seus níveis mais elementares, de acordo com a física quântica. Tem sido um mistério o motivo pelo qual os estranhos comportamentos quânticos não são observados nas escalas maiores do cotidiano. Agora pequisadores acreditam que o modo como a Terra distorce o tempo pode explicar essa divisão.

Uma das consequências desconcertantes da física quântica é que átomos e partículas subatômicas podem realmente existir em estados conhecidos como “superposições”, o que, por exemplo, significa que elas podem literalmente estar em dois ou mais lugares ao mesmo tempo, até que sejam “observadas” — ou seja, até que interajam com partículas em seu entorno de alguma forma. Este conceito é frequentemente ilustrado com uma analogia chamada de “Gato de Schrödinger“, no qual um gato está tanto vivo quanto morto, até que se verifique.

As superposições são extremamente frágeis. Uma vez que elas sejam perturbadas de alguma maneira, elas colapsam ou “perdem a coerência” para um único dos estados possíveis. Sendo assim, elas frequentemente envolvem apenas um máximo de umas poucas partículas — quanto maior for um objeto em estados superpostos, mais difícil será mantê-lo sem perturbações. No entanto, em qual escala termina o reino da física quântica e começa o da física clássica, e, mais ainda, por que existe esta fronteira, ainda é um mistério.

Agora pesquisadores sugerem que a teoria de espaço-tempo de Einstein pode ajudar essa mudança de física quântica para clássica, Os cientistas detalharam suas descobertas na edição online de 15 de junho da Nature Physics.

Há um século, a Teoria da Relatividade de Einstein explicou que a graviade decorre da curvatura do espaço-tempo provocada pela massa. Se visualizarmos várias bolas sobre uma folha de borracha, quanto mais massiva for uma bola, mais ela afunda a borracha e puxa as outras bolas para perto.

Uma consequência curiosa da Teoria da Relatividade é a dilatação do tempo, ou seja: o tempo passa mais devagar quanto mais próximo estivermos de um objeto massivo. Embora esse efeito na Terra seja pequeno, ainda é mensurável. “Se você vive no andar de cima de uma casa de dois andares, você vai envelhecer mais rápido que seu vizinho do térreo em cerca de 10 nanosegundos a cada ano”, diz o físico quântico Igor Pikovski do Centro de Astrofísica Harvard-Smithsonian. “Esse minúsculo efeito foi realmente confirmado em várias experiências com relógios muito precisos”.

Pikovski e seus colegas calcularam que, uma vez que os pequenos blocos de construção que compõem objetos maiores – tais como moléculas e, eventualmente, micróbios e partículas de poeira – se agrupem para formar tais objetos maiores, a dilatação do tempo experimentada no campor gravitacional da superfície da Terra pode suprimir as superposições. “Foi muito entusiasmante descobrir que a dilatação do tempo de Einstein pode ter influência”, declarou Pikovski.

A energia de um objeto o faz vibrar. De acordo com as leis da física quântica, quando um objeto está em superposição, todas as partes dele vibram em sincronia. No entando, a dilatação do tempo fará com que partes deste objeto que estejam em altitudes ligeiramente maiores, vibrem em frequências diferentes daqueles em menor altitude, da mesma forma como seu vizinho do andar de baixo vai envelhecer mais devagar que você. Quanto maior for a diferença de altutude entre as partes, maior será a defasagem. Para qualquer objeto suficientemente grande, essa defasagem será capaz de romper todas as superposições.

“Acho encantador ver novas ideias sobre a influência da gravidade em objetos quânticos” declarou o físico experimentar Holger Müller da Universidade da Califórnia em Berkeley, que não participou da pesquisa.

Para provar que este efeito ocorre, os cientistas precisam criar grandes objetos superpostos nos quais tenham suprimido todas as outras possíveis fontes de decoerência, tais como calor. Se a dilatação do tempo pode fazr colapsar as superposições, o limite de tamanho de um objeto superposto na Terra deve ser de cerca de um milímetro.

Müller declarou que a criação de um objeto superposto tão grande é pouqíssimo provável, uma vez que existem várias fontes potenciais para a decoerência, além da dilatação do tempo.

Pikovski foi mais otimístico: “Em princípio, deve ser possível superar essas limitações”, argumentou ele. “É apenas uma questão de tecnologia”. Ele sublinhou o fato de que, graças aos avanços tencológicos na criação de objetos em superposiçãos, os cientistas agora podem criar superposições em objetos do tamanho de milhares de átomos.

Tais descobertas sugerem que, fora do campo gravitacional da Terra, os cientistas sejam capazes de encontrar supeposições em objetos até maiores do que um milímetor, “Até agora, não encontramos nenhuma boa razão para crer que a teoria quântica seja quebrada”, afirma Pikovski.


Charles Q. Choi é um escritor de ciências freelance da cidade de Nova York que já escreveu artigos para The New York Times, Scientific American, Wired, Science, Nature e várias outras publicações. Ele tuíta em @cqchoi.


Nota do Tradutor

Estou “vendendo o peixe pelo preço que comprei”. Em outras palavras, por mais fascinante que a “explicação” proposta seja, eu vejo com muita reserva um efeito de dilatação temporal relativística na escala quântica, já que até o efeito da atração gravitacional é imperceptível nessa escala.

Em busca da matéria escura

Dark Energy Survey cria um guia detalhado para encontrar a matéria escura 

A análise dos dados ajudará os cientistas a compreender o papel da matéria escura na formação das galáxias

DOE/FERMI NATIONAL ACCELERATOR LABORATORY

IMAGE
IMAGEM: Este é o primeiro mapa do Dark Energy Survey que detalha a distribuição da matéria escura ao longo de uma grande área dos céus. As cores representam as densidades projetadas: vermelho e amarelo, as de maior densidade. O mapa de matéria escura reflete o quadro atual de distribuição de massas no universo, onde grandes filamentos de matéria se alinham com galáxias e aglomerados de galáxias. Os aglomerados de galáxias são representados pelas manchas cinzentas no mapa – manchas maiores representam aglomerados maiores. Este mapa cobre 3% da área dos céus que será eventualmente pesquisada pelo DES em sua missão de cinco anos.

CRÉDITO: DARK ENERGY SURVEY

 

Os cientistas do Dark Energy Survey divulgaram o primeiro de uma série de mapas da matéria escura no cosmos. Esses mapas, criados com uma das câmeras digitais mais poderosas do mundo, são os maiores mapas contínuos com este nível de detalhe e ajudarão nossa compreensão do papel da matéria escura na formação das galáxias. A análise da granulação da matéria escura nos mapas também permitirá aos cientistas exploraram a natureza da msiteriosa energia escura que se acredita estar causando a aceleração da expansão do universo.

Os novos mapas foram divulgados hoje na reunião de abril da American Physical Society em Baltimore, Maryland. Eles foram criados a partir dos dados obtidos pela Câmera de Energia Escura (Dark Energy Camera), um dispositivo de imageamento de  570 megapixels que é o principal instrumento do Dark Energy Survey (DES).

A matéria escura, a misteriosa substância que responde por cerca de um quatro do universo, é invisível até para os mais sensíveis instrumentos astronômicos porque não emite ou absorve luz. Mas seus efeitos podem ser vistos através do estudo de um fenômeno chamado de lente gravitacional – a distorção que ocorre quando a gravidade da matéria escura desvia a luz em torno de galáxias distantes. A compreensão do papel da matéria escura é parte do programa de pesquisa para quantificar o papel da energia escura, o objetivo principal deste levantamento.

A presente análise foi liderada por Vinu Vikram do Argonne National Laboratory (então na Universidade de Pennsylvania) e Chihway Chang do ETH Zurich. Vikram, Chang e seus colaboradores na Penn, no ETH Zurich, na Universidade de Portsmouth, na Universidade de Manchester e outras instituições associadas ao DES, trabalharam por mais de um ano para validar os mapas das lentes gravitacionais.

“Nós medimos as distorções quase imperceptíveis nas aparências de cerca de 2 milhões de galáxias para construir esses novos mapas”, declarou Vikram. “Eles são um testemunho, não só da sensibilidade da Câmera de Energia Escura, como também do rigoroso trabalho de nossa equipe de análise de lentes gravitacionais para compreender sua sensibilidade tão bem que fomos capazes de obter resultados de tamanha precisão”.

A câmera foi construída e testada no Fermi National Accelerator Laboratory, do Departamento de Energia do governo dos EUA, e montada no telescópio de 4 metros Victor M. Blanco no Observatório Internacional de Cerro Tololo no Chile. Os dados foram processados no Centro Nacional de Aplicações de Supercomputação na Universidade de Illinois em Urbana-Champaign.

O mapa da matéria escura divulgado hoje resulta das primeiras observações do DES e cobre 3% da área dos céus que será coberta nos cinco anos da missão do DES.  O levantamento acaba de completar seu segundo ano. Na medida em que os cientistas expandirem suas buscas, serão capazes de testar as correntes teorias cosmológicas, comparando as quantidades de matéria visível e escura.

As teorias correntes sugerem que, uma vez que existe muito mais  matéria escura do que matéria visível no universo, as galáxias devem se formar onde estejam presentes grandes concentrações de matéria escura (e, portanto, maior atração gravitacional). Até agora, as análises do DES sustentam esta hipótese: os mapas mostram grandes filamentos de matéria ao longo dos quais as galáxias e aglomerados de galáxias de matéria visível existem, assim como grandes vazios onde existem poucas galáxias. Os estudos subsequentes de alguns filamentos e vazios, assim como o enorme volume de dados coletados pelo levantamento, revelarão mais acerca desta interação entre massa e luz.

“Nossa análise, até agora, é coerente com o quadro previsto para nosso universo”, diz Chang. “Ao darmos um zoom para dentro dos mapas, pudemos medir como a matéria escura envolve galáxias de diferentes tipos e como evoluem em conjunto ao longo do tempo cósmico. Estamos ansiosos para usar os novos dados que estão chegando para podermos realizar testes mais precisos ainda dos modelos teóricos”

###

O Universo está acelerando?… Não tão depressa…

UNIVERSIDADE DO ARIZONA

Traduzido de: “Accelerating Universe? Not so fast”.

Certos tipos de supernovas, ou estrelas que passam por uma explosão, são mais diferentes do que se pensava, foi o que uma equipe de astrônomos da Univesidade do Arizona descobriu. Os resultados, relatados em dois artigos no Astrophysical Journal, têm implicações sobre importantes questões cosmológicas, tais como o quão rápido o universo vem se expandindo desde o Big Bang.

Mais importante ainda, as descobertas sugerem a possibilidade de que a aceleração da expansão do universo pode não ser tão grande quanto os livros texto dizem.

A equipe, liderada pelo astrônomo Peter A. Milne da UA, descobriu que as supernovas tipo Ia que eram consideradas tão uniformes que os cosmologistas as usavam como “faróis cósmicos” para medir as profundidades do universo, na verdade constituem duas populações diferentes. As descobertas são análogas a examinar uma seleção de lâmpadas de 100 W de uma loja de ferragens e descobrir que as luminosidades das mesmas variam.

“Descobrimos que as diferenças não são aleatórias, mas levam a separar as supernovas tipo Ia em dois grupos, onde o grupo que é minoria em nossas proximidades, é maioria nas grandes distâncias – e portanto quando o universo era mais jovem”, diz Milne, astrônomo associado do Departamento de Astronomia da UA e do Observatório Steward. “Existem populações diferentes lá fora e isso não era reconhecido. A suposição geral era que, perto ou longe, as supernovas tipo Ia eram as mesmas. Não parece ser esse o caso”.

A descoberta lança uma nova luz sobre a ideia atualmente aceita de que o universo está se expandindo cada vez mais rápido, esgarçado por uma força pouco entendida, batizada de energia escura. Esta ideia se baseia em observações que resultaram no Prêmio Nobel de Física de 2011, concedido aa três cientistas, entre os quais o ex-aluno da UA Brian P. Schmidt.

Os laureados com o Nobel descobriram independentemente que várias supernovas aparentavam ser mais tênues do que o previsto porque tinham se movido mais para longe da Terra do que deveriam, se o universo estivesse se expandindo em uma taxa constante. Isso indicava que a taxa com a qual as estrelas e galáxias estão se separando umas das outras estaria aumentando; em outras palavras, algo estava esgarçando o universo cada vez mais rápido.

“A ideia subjacente a este raciocínio” explica Milne, “é que as supernovas tipo Ia têm sempre a mesma luminosidade — todas elas acabam de modo bem semelhante quando explodem. Assim que souberam o motivo, passaram a usar essas estrelas como marcos quilométricos para medir o universo distante”.

“As supernovas muito distantes deveriam ser iguais às próximas porque se pareciam com elas, mas, porque elas são menos brilhantes do que se esperaria, isto levou à conclusão de que elas estão mais longe do que se pensava, o que, por sua vez, levou à conclusão de que o universo está se expandindo mais depressa do que no passado”.

Milne e seus coautores — Ryan J. Foley da Universidade do Illinois em Urbana-Champaign, Peter J. Brown da Universidade Texas A&M  e Gautham Narayan do Observatório Astronômico Ótico Nacional (National Optical Astronomy Observatory = or NOAO) em Tucson — observaram uma grande amostra de supernovas tipo Ia em ultravioleta e luz visível. Para este estudo, eles combinaram observações feitas com o Telescópio Espacial Hubble com as feitas pelo satélite Swift da NASA.

Os dados coletados pelo Swift foram cruciais porque as diferenças entre as populações — pequenos desvios para o vermelho ou para o azul — são sutis na luz visível que tinha sido utilizada para detectar as supernovas tipo Ia anteriormente, mas só ficaram óbvias com as observações posteriores com o Swift na faixa do ultravioleta.

“Estes são grandes resultados”, comentou Neil Gehrels, principal investigador do satélite Swift, coautor do primeiro artigo. “Estou encantado que o Swift tenha proporcionado observações tão importantes, relacionadas com uma meta totalmente independente de sua missão primária. Isto demonstra a flexibilidade de nosso satélite em responder prontamente a novos fenômenos”.

“A percepção de que existiam dois grupos de supernovas tipo Ia começou com os dados do Swift”, diz Milne. “Então analisamos outros conjuntos de dados para ver se víamos o mesmo. E descobrimos que a tendência estava presente em todos os conjuntos de dados”.

“À medida em que se volta atrás no tempo, vemos uma mudança na população de supernovas”, acrescenta ele. “A explosão tem algo de diferente, algo que não salta aos olhos na faixa de luz visível, mas visível no ultravioleta”.

“Como ninguém tinha percebido isto antes, todas essas supernovas eram enfiadas no mesmo saco. No entanto, se você olhar para 10 delas nas proximidades, elas estarão mais “avermelhadas” do que outra amostra de 10 supernovas mais distantes”.

Os autores concluem que alguns relatos de aceleração da expansão do universo podem ser explicados por diferenças na coloração entre os dois grupos de supernovas, o que daria uma aceleração menor do que a inicialmente calculada. Isto, por sua vez, levaria a menos energia escura do que se calcula correntemente.  .

“Nossa proposta é que nossos dados sugerem que pode haver menos energia escura do que dizem os atuais livros texto, no entanto não conseguimos traduzir isto em números”, disse Milne. “Até nosso artigo, as duas populações de supernovas eram tratadas como sendo da mesma população. Para obter a resposta final, será necessário realizar todo o trabalho de novo, separadamente para as populações azul e vermelha”.

 

###

O artigo da pesquisa está disponível online em http://iopscience.iop.org/0004-637X/803/1/20/.

Não! Você não pode flagrar um fóton se comportando ao mesmo tempo como onda e partícula.

Photobucket
Traduzido de: No, You Cannot Catch An Individual Photon Acting Simultaneously As A Pure Particle And Wave

13 de março de 2015 
Por: Ben P. Stein, Diretor do ISNS
 Crédito da Imagem: Fabrizio Carbone, EPFL

Na semana passada, a Internet se acendeu com manchetes dramáticas vindas do mundo da ciência: “Pela Primeira Vez na Física, a Luz é Capturada (agindo como) Partícula e Onda” = notícia da NBC NEWS: In a Physics First, Light is Captured as Both Particle and Wave, “A Luz é Fotografada Como Onda e Partícula Simultaneamente = notícia da SwissInfo: Light Photographed as a Simultaneous Wave and Particle, e “A Dualidade Onda-Partícula da Luz é Imageada Pela Primeira Vaz” = notícia no Wired: Light’s Wave-Particle Duality Imaged For The First Time, só para mencionar algumas.

Estas manchetes soam revolucionárias, surpreendentes e profundas para qualquer um de nós que tenha um conhecimento no mínimo marginal dos conceitos mencionados. A física quântica sugere que todos os objetos existentes no universo tenham uma natureza dupla. Um fóton, a unidade básica da luz, pode se comportar como uma onda semelhante a uma onda d’água, ou como uma partícula do tipo de uma bola de bilhar, dependendo da situação. Quando um fóton atinge um metal, ele age como uma bola de bilhar, esbarrando e expulsando elétrons do metal. Quando ele passa através de uma fenda estreita, ele se espalha como uma onda d’água.

No entanto, até agora pelo menos, só tínhamos observado objetos se comportando de uma forma ou de outra. Mais ou menos do jeito que jamais vemos o Super-Homem e Clark Kent no mesmo lugar ao mesmo tempo. Porém essas manchetes sugerem que os pesquisadores flagraram a luz no ato de ser, ao mesmo tempo, uma partícula e uma onda. Como e de que modo eles viram isto? Quais as implicações que isto teria sobre a natureza dual da matéria em nosso universo?

Tecnicamente, as manchetes não são incorretas. Porém, para mim e outros, elas implicam em algo mais radical do que aquilo que realmente foi observado. Para não me alongar muito, um fóton individual não pode ser observado se comportando simultaneamente como uma partícula e uma onda. Mas, se você juntar um grupo de fótons diferentes, pode observar alguns agindo como partículas e outros como ondas. Muitos dos relatos não deixam esta circunstância clara.

Os pesquisadores que realizaram a experiência, publicada na Nature Communications, estão na mesma frequência desta assertiva.

“Eu também acredito que um monte de pessoas está interpretando de forma exagerada o significado desses dados”, disse em um email o principal autor (do artigo) Fabrizio Carbone do Instituto Federal de Tecnologia da Suíça (EPFL) em Lausanne. Ele realizou o trabalho junto com colaboradores do EPFL, do Trinity College em Hartford, Connecticut, e do Laboratório Nacional Lawrence Livermore em Berkeley, California.

Os pesquisadores aprisionaram uma onda em um “nano-fio” superfino, cuja espessura é medida em nanômetros, ou seja, bilhonésimos de metro. É uma onda estacionária, tal como a vibração de uma corda de guitarra, com picos e vales que ficam sempre na mesma posição.

Para ser preciso, não é estritamente uma onda de luz, como sugerem as manchetes. Na verdade é um híbrido de uma onda de luz que dança dentro do fio e uma onda eletronagnética que desliza pela superfície do fio, produzida pelas partículas carregadas que se movem ao longo do fio. Elas ficam como que unificadas na extremidade. Este objeto composto é conhecido como um plasmon poláriton de superfície e você pode ler mais sobre ele na Wikipedia (Nota do tradutor: se você souber inglês…).

Para simplificar as coisas, vamos considerá-lo com sendo apenas uma onda de luz. Para efeitos desta discussão, não interessa se é feita de fótons ou de algum objeto híbrido. Ele age como uma onda.

Porém, quando os pesquisadores dispararam elétrons de encontro ao nano-fio, os elétrons algumas vezes foram acelerados de forma específica, indicando que eles haviam absorvido fótons indiviuais do nano-fio. Como pode a luz se comportar, ao mesmo tempo, como ondas e partículas?

A resposta é que essa luz é feita de mutios fótons diferentes. Cada um deles se comportou de forma diferente. Os pesquisadores observaram que alguns fótons agiram como partículas e outros agiram como ondas. O imageamento desses dois tipos (de comportamento) ao mesmo tempo é o que foi feito pela primeira vez em sua experiência.

Nada que vá forçar a reescrever os livros-texto de física, mas ainda assim muito legal! Os pesquisadores testemunharam um comportamento importante em nano-fios, que pode servir da base para futuros dispositivos ópticos e eletrônicos em nano-escala. Além disso, eles puderam contar quantos fótons estavam nas ondas estudadas e como os elétrons interagiram com eles. Porém, quando um elétron absorvia um dos fótons, eles não podiam precisar de onde o fóton tinha vindo dentro da onda.

Carbone mencionou um  artigo de 2011 da Science que, segundo ele, foi o que chegou mais perto de capturar a natureza dual dde um fóton. Pesquisadores, liderados por Aephraim Steinberg da Universidade de Toronto mediram uma propriedade tipo partícula de fótons individuais — sua posição média — sem destruir os padrões de interferência tipo ondas que eles criavam após (a medição). A publicação Physics World declarou essa experiência a  “Descoberta do Ano de 2011” bem merecidamente. No entanto, nem essa experiência conseguiu determinar as posições exatas dos fótons individuais, na medida em que eles progrediam para criar os padrões de interferência típicos de ondas de faixas claras e escuras em um detector.

E qual é a razão fundamental para esta limitação? É algo inerente à mecânica quântica, conhecida como o Princípio da Incerteza de Heisenberg. Seu nome vem do físico do século XX, Werner Heisenberg, e diz que não se póde medir duas variáveis complementares, tais como posição e momento, com total precisão. Na hora em que se mede uma delas, a precisão com que se poderia medir a outra é sacrificada.

Assim, se medirmos as propriedades tipo partícula do fóton, estaremos sacrificando suas propriedades tipo onda. Zere na posição de um fóton com grande precisão e ele não vai poder participar mais tarde da criação de um padrão de interferência tipo onda.

É possível medir fracamente algumas propriedades tipo onda e tipo partícula de um fóton ao mesmo tempo, segundo Carbone, conqueanto que as incertezas combinadas não violem o Princípio de Incerteza..

Mas, ao fim e ao cabo, talvez essa “dualidade onda-partícula” seja uma forma artificial de explicar o mundo quântico, me explicou Steinberg em um email.

“Embora eu frequentemente seja culpável por isso, eu mesmo, penso que é um pouco de confusão induzida pelo cantochão dos físicos em salmodear sobre comportamentos ‘tipo onda’ e ‘tipo partícula'”, escreve ele. “Nós temos uma grande teoria matemática que nos diz o que os fótons… fazem na verdade. E aí então temos a tendência humana de traçar analogias e dizer: ‘hmmm… neste caso parece com o que eu esperaria de uma onda d’água’ e ‘mas neste outro caso se parece com o que eu esperaria de uma bola de bilhar’. Mas os fótons não são ondas d’água, nem bolas de bilhar”, complementa ele.

“Temos que ser sempre muito cuidadosos para definir exatamente qual pergunta temos em mente”, prossegue Steinberg. “Se duas marolas se cruzarem em um lago e eu enfiar a mão em concha na água, tirar uma mancheia d’água e lhe perguntar ‘de qual marola vieram estas moléculas d’água?’, não há uma resposta”.

“E não há resposta porque a pergunta foi mal enunciada, não porque haja qualquer profundo mistério na física das ondas d’água”, sublinha Steinberg.

“No fim, a mecância quãntica continua a mesma. Quando se faz perguntas claras, cuidadosamente escolhidas e experimentalmente verificáveis, não há paradoxos”, de acordo com Steinberg.

“O que isso nos ensina é que ainda não conseguimos pensar corretamente sobre a mecânica quântica — não que haja qualquer problema com a teoria em si ou no modo como a usamos para fazer predições”.


Ben P. Stein, é o diretor do “Inside Science”, e vem cobrindo a física como um divulgador de ciência e editor desde 1991; siga-o no Tweetwe em @bensteinscience.

Uma gota de determinismo para a física quântica (mas, será mesmo?…)

Gotas causando ondulaçõess. Cortesia Shutterstock

Gotas causando ondulações.

Imagem cortesia de Shutterstock

Uma das coisas mais abracadabrantes para nós leigos é a tal “dualidade onda-partícula“. Um raio de um elétron parece estar em todos os lugares (na verdade não é mesmo “em todos os lugares”; apenas “em qualquer lugar de um determinado volume de espaço-tempo) enquanto ninguém está olhando, se comportando como uma onda (descrita por equações que definem o tal volume definido de espaço-tempo).

Mas basta você observar (entenda-se: “fazer uma medição”) o tal elétron e ele se comporta como um corpúsculo com carga elétrica, momento, momento angular e tal e coisa… Os budistas sustentam que “tudo é ilusão e impermanente”, mas isso já levar as coisas para o lado do misticismo. Além do que, experimente por sua mão em um fio “vivo” e desencapado que os elétrons vão mostrar para você que são bem reais e dolorosos.

No entanto, eu aprendi em meu curso secundário que esta tal dualidade onda-partícula foi uma ideia sugerida pelo físico francês Louis de Broglie e mais tarde, lendo um livro do próprio de Broglie sobre o assunto, ele meio que assume a paternidade deste abracadabra. Só que não é exatamente verdade que de Broglie julgasse que elétrons e outros “bixos” fossem mesmo ora onda, ora partícula. Ele, na verdade, propunha que as partículas andavam à deriva sobre as ondas do campo correspondente (o que implicava na existência de “variáveis ocultas”), algo assim como escolhos à deriva sobre as ondas do mar (é sempre bom lembrar que as ondas do mar são algo bidimensional e as ondas dos campos das forças fundamentais são tri(tetra)dimensionais).

Ao fim de muita discussão, prevaleceu o que se chama de “Interpretação de Copenhagen”, formulada por Niels Bohr e Werner Heisenberg que, em suma, diz que uma partícula é apenas uma probabilidade até que interaja com outra, quando passa por um “colapso da função de onda”. Essa interpretação levou a algumas críticas fortes – a mais conhecida é o “Gato de Schrödinger”, onde o gato está vivo e morto ao mesmo tempo, enquanto não se abrir a caixa – mas uma suposta “prova”, encontrada por John von Neumann, da impossibilidade de existirem “variáveis ocultas”, foi alegremente aceita, sem maiores exames (mais de 30 anos depois, descobriram que von Neumann estava errado, mas azeite, azar, azia…).

Em 1952 o Físico David Bohm ressuscitou a teoria das ondas-piloto, mas a comunidade da física não recebeu muito bem suas propostas. Afinal, a Equação de Schrödinger funciona muito bem e a Mecânica proposta por Bohm pressupõe que o comportamento das partículas é influenciado, ao fim e ao cabo, por todo o universo (o que parece misticismo e, com efeito, foi alegremente recebido por diversos místicos).

A famosa “dupla-fenda”

Experiência da dupla fenda. Imagem de Wikimedia Commons. (por Lookang com agradecimentos a Fu-Kwun Hwang e o autor do Easy Java Simulation = Francisco Esquembre).

Uma famosa “prova” da dualidade onda-partícula é a “dupla fenda“. Um feixe de elétrons é disparado contra uma antepara onde há duas fendas que permitem que alguns elétrons passem e, depois, se choquem contra uma tela sensível. Imediatamente se forma um padrão de interferência, como se ondas se reforçassem ou anulassem mutuamente. Mas, quando se cria um dispositivo para identificar a fenda por onde os elétrons passaram, o padrão de interferência desaparece.

Bom… A “pegadinha” é que se trata de um feixe de elétrons, não de um elétron isolado. A ideia de que “o elétron interfere com ele próprio” é “licença poética”. As ondas dos lugares geométricos, definidos pela equação de onda do elétron é que interferem entre si. Quando se identifica a fenda por onde passa cada elétron, na verdade você está interceptando o feixe e, é óbvio, não há mais “onda” alguma; há partículas.

O mesmo tipo de experimento funciona com fótons (e isso vai causar um probleminha para a novidade descrita a seguir).

Uma gota “quântica”

Agora, pesquisadores em Paris realizaram uma série de experiências fazendo vibrar uma superfície banhada com óleo de silício e descobriram que, em uma frequência particular, uma gotícula começa a saltar pela superfície do óleo. E que a trajetória dessa gotícula é guiada pelo contorno ondulado do banho, gerado pelas ondas causadas pela própria gotícula: uma interação entre onda e partícula muito semelhante àquilo proposto por de Broglie e suas ondas-piloto.

Na interpretação de de Broglie – Bohm, cada elétron passa através de uma única fenda, carregada por uma onda-piloto que – ela sim – passa pelas duas fendas ao mesmo tempo. Tal como uma série de escolhos levados a uma praia pelas ondas do mar que tivessem que, antes de chegar à praia, passar por uma barreira com duas fendas. Cada um dos objetos flutuantes passaria por apenas uma das fendas e iriam se distribuir, depois delas, segundo o padrão de interferência dessas ondas.

Os resultados finais são os mesmos: a Mecânica de Bohm é tão capaz de prever onde cada elétron vai passar como a Mecânica Quântica “Tradicional” (ou seja: não é capaz). A distribuição dos efeitos é sempre uma função estatística.

As gotículas também parecem capazes de reproduzir o “Efeito de Túnel“, formarem “Partículas Compostas“, em órbitas mutuamente estáveis, e exibir comportamentos análogos ao spin quântico e à atração eletromagnética. Quando confinadas a “currais” (áreas circulares cercadas), formam anéis concêntricos muito semelhantes às ondas estacionárias geradas por elétrons confinados em “currais quânticos”.

A coincidência das ondas estacionárias é surpreendente, não é mesmo?

Eu adorei a ideia de poder imaginar as partículas subatômicas como verdadeiras partículas, surfando sobre as ondas do espaço-tempo causadas pelos campos fundamentais.

Só que me dei conta que, no caso do fóton, a própria onda é a “partícula”. E lá se foram pelo ralo todas as lindas analogias…


Fonte: Fluid Tests Hint at Concrete Quantum Reality, Quanta Magazine; também publicado na Wired com o título Have We Been Interpreting Quantum Mechanics Wrong This Whole Time?

Experiência ALPHA do CERN mede a carga do anti-hidrogênio

Original em inglês porCian O’Luanaigh em 3 Jun 2014: CERN’s ALPHA experiment measures charge of antihydrogen.

Detalhe da experiência ALPHA: Inserção da Armadilha Penning do ALPHA trap no criostato que contém os magnetos confinadores do anti-hidrogênio (Imagem: Niels Madsen)

Em um artigo publicado hoje na Nature Communications, a experiência ALPHA no Desacelerado Antipróton (Antiproton Decelerator = AD) relata a medição da carga elétrica de átomos de anti-hidrogênio, que revelou ser a mesma compatível com zero até a oitava casa decimal. Embora esse resultado não seja surpresa alguma, uma vez que os átomos de hidrogênio são eletricamente neutros, esta é a primeira vez que a carga de um anti-átomo foi medida com uma precisão tão alta.

“Esta foi a primeira vez que fomos capazes de estudas o anti-hidrogênio com alguma precisão”, relata o porta-voz da ALPHA, Jeffrey Hangst. “Estamos otimistas quanto ao fato de que a técnica de confinamento do ALPHA permitirá vários desses vislumbres no futuro. Aguardamos pelo reinício do programa AD em agosto, de forma poder continuar a estudar o anti-hidrogênio com uma precisão cada vez maior”.

As antipartículas deveriam ser idênticas às partículas de matéria, exceto pelo sinal da carga elétrica. Assim é que o átomo de hidrogênio é composto de um próton com carga +1 e um elétron com carga -1, o átomo de anti-hidrogênio consiste de um antipróton com carga -1 e um posítron com carga +1. Entretanto, também sabemos que matéria e antimatéria não opostos exatos – a natureza parece ter uma preferência de 1 contra 10 bilhões pela matéria sobre a antimatéria, o que torna importante medir as propriedades de matéria e antimatéria com grande precisão: o objetivo principal dos experimentos do AD do CERN. O ALPHA consegue isto por meio de um complexo sistema de confinamento de partículas que permite a produção e armazenagem de átomos de anti-hidrogênio por períodos suficientemente longos para estudá-los em detalhe. A compreensão da assimetria entre matéria e antimatéria é um dos maiores desafios da física atual. Qualquer diferença detectável entre matéria e antimatéria poderia ajudar a resolver o mistério e abrir uma janela para uma nova física.

Para medir a carga do  anti-hidrogênio, a experiência ALPHA estudou as trajetórias dos átomos de anti-hidrogênio na presença de um campo elétrico. Se os átomos de anti-hidrogênio tivessem uma carga elétrica, o campo os desviaria, enquanto que átomos neutros não seriam afetados. O resultado, baseado em 386 eventos registrados, dá uma carga elétrica para o anti-hidrogênio de (-1.3±1.1±0.4) × 10-8, sendo os números “±” representativos das incertezas estatísticas e sistemáticas das medições.

Com o reinício da cadeia de aceleradores do CERN a caminho, o programa de pesquisa de antimatéria do laboratório também será reiniciado. Experimentos que incluem o ALPHA-2, uma versão melhorada da experiência ALPHA, vão colher dados, juntamente com as experiências ATRAP e ASACUSA, assim como o “novato” AEGIS que vai medir a influência da gravidade sobre o anti-hidrogênio.

Artigo na Nature Communications: “An experimental limit on the charge of antihydrogen

Planetas que orbitam estrelas binárias


University of Bristol

Um planeta, duas estrelas: uma nova pesquisa mostra como se formam planetas circumbinários

 

Por dos Sóis em Tatooine (do Filme “Guerra nas Estrelas”)

WikiMedia Commons


O planeta natal de Luke Skywalker, Tatooine, teria se formado longe de sua posição mostrada no universo do filme “Guerra nas Estrelas”. É o que diz um novo estudo realizado pela Universidade de Bristol com suas contrapartidas deste universo real, observadas pelo Telescópio Espacial Kepler.

Tal como o Tatooine da ficção, o planeta Kepler-34(AB)b é um planeta circumbinário, ou seja, sua órbita é em torno de duas estrelas. Existem poucos ambientes mais extremos do que um sistema estelar binário para a formação de planetas. As poderosas perturbações gravitacionais, vindas das duas estrelas, sobre os blocos de construção de planetas pode levar a colisões destruidoras que esfarelam o material. Então, como se pode explicar a presença de planetas assim?

Em uma pesquisa publicada nesta semana em Astrophysical Journal Letters, a Dra Zoe Leinhardt e seus colegas da Escola de Física de Bristol realizaram simulações em computador dos estágios iniciais da formação de planetas em torno de estrelas binárias, empregando um modelo sofisticado que calcula os efeitos da gravidade e das colisões sobre e entre um milhão desses “blocos de construção” de planetas.

Eles descobriram que a maioria desses planetas tem que ter se formado muito mais longe do centro de gravidade do sistema estelar binário e depois migrado para sua posição atual.

A Dra Leinhardt declarou: “Nossas simulações mostram que o disco circumbinário é um ambiente hostil até mesmo para objetos grandes e de forte gravidade. Levando em conta os dados sobre colisões, assim como a taxa de crescimento físico de planetas, descobrimos que Kepler 34(AB)b teria tido enormes dificuldades para se formar onde hoje o encontramos”.

Com base nessas conclusões sobre Kepler-34, parece provável que todos os planetas circumbinários atualmente conhecidos também tenham passado por significativas migrações desde os locais onde se formaram – com a possível exceção de Kepler-47 (AB)c que fica mais distante das estrelas binárias do que qualquer outro planeta circumbinário.

Stefan Lines, principal autor do estudo, declarou: “Os planetas circumbinários capturaram a imaginação de muitos escritores e diretores de filmes de ficção científica – nossa pesquisa mostra o quão notáveis são esses planetas. Compreender mais sobre onde eles se formam, vai ajudar em futuras missões de busca por planetas semelhantes à Terra em sistemas estelares binários”.

###

Artigo

‘Forming circumbinary planets: N-body simulations of Kepler-34’ por S. Lines, Z. M. Leinhardt, S. Paardekooper, C. Baruteau e P. Thebault em Astrophysical Journal Letters

 

Matéria escura: até agora, nada!…

Photobucket

Um evento no ATLAS entre dois fótons. Os fótons são denotados pelos rastros de energia na cor verde.

                 Crédito da Imagem:  Experiência ATLAS © 2013 CERN | http://bit.ly/LegAIF

Original (em inglês) por Charles Q. Choi, Contribuidor do ISNS

(ISNS) — A matéria escura é presentemente um dos maiores mistérios do universo. Agora os cientistas revelam que o mais poderoso colisor de partículas do mundo não desencavou qualquer indício dessa forma hipotética de matéria, o que coloca novos limites para aquilo que ela pode ser.

A matéria escura é, hipoteticamente, uma substância invisível e enigmática que – se acredita – deve responder por quase cinco sextos de toda a matéria existente no cosmo. Os astrônomos começaram a suspeitar de sua existência na década de 1930, quando perceberam que o universo parecia possuir mais massa do que aquela das estrelas (e todo o resto de matéria observável). Por exemplo, a velocidade com que as estrelas orbitam o centro da Via Láctea é tão grande que elas já deveriam ter vencido a atração gravitacional do núcleo da galáxia e terem escapado para o vazio intergalático, mas alguma coisa as mantem no lugar, coisa esta que a maioria dos pesquisadores acredita ser a gravidade de um material até hoje não observado: a matéria escura.

Os cientistas já descartaram todas as formas conhecidas de matéria candidatas ao papel de matéria escura. Até o presente o consenso é que a matéria escura seja constituída de uma forma nova e invisível de partículas, as quais só interagiriam muito fracamente com a matéria conhecida.

A matéria escura não pode ser explicada por qualquer uma das partículas do Modelo Padrão da física de partículas, a melhor descrição atual para o mundo na escala subatômica. Desta forma, elas devem aparecer a partir de uma física que vá além do Modelo Padrão. Uma das possibilidades está na ideia conhecida como supersimetria, a qual sugere que todos os tipos de partículas conhecidos do Modelo Padrão têm uma contrapartida, ainda não detectada. Por exemplo, os elétrons teriam suas contrapartidas denominadas selétrons. Outra possibilidade é a existência de partículas conhecidas como áxions, originalmente propostas pelos físicos teóricos para solucionar um dos enigmas relacionados com a força nuclear forte, uma das quatro forças fundamentais do universo, que mantém coesos os prótons e nêutrons do núcleo atômico.

A maior parte das experiências que buscam a matéria escura envolve gigantescos detectores subterrâneos que procuram as raras colisões entre a matéria comum e partículas de matéria escura que passam através da Terra. No entanto, muitas das teorias sugerem que o maior colisor de partículas já construído, o Large Hadron Collider, pode gerar partículas de matéria escura. Embora essas partículas de matéria escura consigam escapar indetectadas pelos sensores da máquina, os cientistas do LHC em Genebra, Suíça, ou aqueles por todo o mundo que fazem a interpretação dos dados das colisões, poderiam inferir sua existência a partir do comportamento de outros produtos dessas colisões. Eles poderiam usar os dados das colisões para inferir detalhes desses pedacinhos de matéria escura, tais como suas massas e suas seções de choque — quer dizer, a probabilidade delas interagirem com outras partículas.

Buscas anteriores pela matéria escura no LHC procuravam por jatos individuais de partículas, formadas quando se estraçalha próton contra próton em níveis de energias sem precedentes. Durante a temporada de 2012 do LHC run, a colaboração ATLAS realizou experiências com colisões mais complexas que geravam não apenas um único jato, como também dois jatos estreitos adicionais.

Estas novas descobertas excluem enfaticamente vários potenciais candidatos a matéria escura e a pesquisa foi detalhada online na Physical Review Letters. Especificamente, o trabalho “coloca interessantes restrições nas tentativas de estender o Modelo Padrão de física de partículas de forma mínima para explicar a matéria escura”, segundo o físico de astropartículas Gianfranco Bertone da Universidade de Amsterdam (que não tomou parte na pesquisa).

Embora estas descobertas excluam alguns possíveis candidatos a matéria escura, “Eu não penso que isso seja realmente um grande problema para as teorias de matéria escura, no momento”, diz o físico de partículas Andreas Hoecker, vice coordenador da Experiência ATLAS no CERN. “A melhor  teoria que temos para a matéria escura, a supersimetria, não fica excluída com estes resultados”.

Os cientistas estão agora fazendo melhorias nos aceleradores do LHC. “Em meados de 2015, o acelerador vai ser novamente ligado e terá uma capacidade de quase o dobro da energia que antes”, diz Hoecker. Isto significa que as futuras experiências “poderiam procurar pela formação de partículas supersimétricas, tais como squarks, gluínos e neutralinos com massas muito maiores do que o permitido nos dados anteriores”. Não se espera que as experiências do LHC detectem áxions, já que estes teoricamente têm seções de choque muito baixa, além das capacidades do acelerador.

Além disto, por volta de 2022, os melhoramentos no LHC devem atingir uma luminosidade 10 vezes maior — ou seja, esmagar 10 vezes mais prótons contra um alvo, a cada seção. Isso pode gerar potenciais partículas de matéria escura em números bem maiores do que antes, talvez em número suficiente para sua detecção, a despeito da raridade de sua interação com outras partículas, acrescenta Hoecker.

Se o LHC não detectar coisa alguma, mesmo a essas energias maiores e maior luminosidade, “ainda fica muito difícil excluir totalmente os modelos de supersimetria, porém os cientistas provavelmente vão perder o interesse”, argumenta Bertone. “Possivelmente os pesquisadores vão ter que procurar em outro lugar”.


Charles Q. Choi é um escritor de ciências freelance com base em Nova York que já escreveu para The New York Times, Scientific American, Wired, Science, Nature, e várias outras publicações

Esta semana no EurekAlert

ESO

Descoberto o primeiro planeta orbitando uma “gêmea” do Sol em um aglomerado estelar

 IMAGEM: Concepção artística de um dos três novos exoplanetas descobertos no aglomerado estelar Messier 67.

Clique aqui para mais informações.

O Observatório Europeu do Sul (ESO), no Chile, anunciou a descoberta de três planetas no aglomerado estelar Messier 67, um dos quais orbita uma estrela “gêmea” de nosso Sol.

Embora já se saiba que exoplanetas são comuns, pouquíssimos deles foram encontrados em aglomerados estelares, o que é até um pouco estranho, se considerarmos que a maioria das estrelas nasce dentro desses aglomerados..

Anna Brucalassi (do Instituto Max Planck de Física Extraterrestre, na Alemanha), principal autora do estudo diz: “No aglomerado Messier 67, as estrelas são todas da mesma idade e composição de nosso Sol. Isso faz desse aglomerado um laboratório perfeito para estudar quantos planetas podem se formar em um ambiente tão populoso e se eles tendem a se formar em torno de estrelas mais ou menos massivas”.

A equipe empregou o instrumento HARPS (High Accuracy Radial velocity Planet Searcher = Buscador de Planetas [por meio da medição da] Velocidade Angular de Alta Precisão), montado no telescópio de 3,6m no Observatório La Silla, cujos resultados foram cotejados com vários outros dados de observatórios pelo mundo inteiro.

O aglomerado fica a cerca de 2500 anos-luz de distância, na direção da constelação de Câncer, e contem cerca de 500 estrelas. Muitas das estrelas do aglomerado são mais tênues do que aquelas onde usualmente se procura por exoplanetas, o que levou as capacidades do HARPS ao limite. Os três planetas descobertos – dois deles orbitando estrelas similares ao Sol e um que orbita uma mais massiva que já evoluiu para o estágio de gigante vermelha – os dois primeiros tem uma massa de cerca de um terço da massa de Júpiter e orbitam sua estrela-mãe em períodos de sete e cinco dias, respectivamente. O terceiro leva 122 dias para orbitar a estrela-mãe e é mais massivo do que Júpiter.

Links

Artigo que relata a pesquisa: “Three planetary companions around M67 stars”, por A. Brucalassi et al., a ser publicado em Astronomy & Astrophysics
(pré-publicação online: – http://www.eso.org/public/archives/releases/sciencepapers/eso1402/eso1402a.pdf

Fotos do telescópio de 3,6m do ESO – http://www.eso.org/public/images/archive/search/?adv=&subject_name=3.6

 


California Institute of Technology

Himiko e a aurora do cosmo

 IMAGE: A composite color image of Himiko based on Hubble, Subaru, and Spitzer data. On the left is a Hubble image with the position of Himiko marked with a square. Top…Click here for more information.

Um dos mais fascinantes objetos descobertos pelo Telescópio Subaru – o telescópio de 8,2m operado pelo Observatório Astronômico Nacional do Japão, localizado no monte Mauna Kea no Hawaii – é uma “bolha espacial”, batizada de Himiko (uma lendária rainha do Japão antigo). Himiko apresenta três “bolhas” visíveis e foi identificada como uma enorme galáxia com um halo gasoso que cobre mais de 55.000 anos-luz. Himiko não só é enorme, como é muito distante e a imagem que vemos é de uma época cerca de 800 milhões de anos após o Big Bang, quando o universo tinha apenas 6% de seu tamanho atual e as estrelas e galáxias estavam apenas começando a se formar.

Em busca da resposta para como uma galáxia tão primeva poderia ter energia suficiente para aquecer uma nuvem de gás tão grande, uma equipe de astrofísicos da CalTech, da Universidade de Tóquio e do Centro Harvard-Smithsonian de Astrofísica combinou os resiltados de observações do Telescópio Espacial Hubble e do novo rádio-telescópio ALMA (Atacama Large Millimeter/submillimeter Array). E, junto com a resposta à pergunta inicial, obtiveram mais uma surpresa.

As imagens do Hubble – que detecta luz visível e utra-violeta – mostravam três aglomerados estelares que cobriam um espaço de 20.000 anos-luz cada; portanto, três galáxias típicas da época de Himiko, em processo de fusão, todas elas com intensa formação de estrelas que, somadas, equivalem a uma centena de massas solares por ano – o que é mais do que suficiente para explicar Himiko e seu halo gasoso. A tripla fusão de galáxias é, por si só, um evento raro.

A surpresa apareceu com os dados do ALMA. Embora Himiko estivesse brilhando nas faixas da luz visível e no ultra-violeta, nas faixas que o ALMA observa – submilimétrica e rádio-frequência – ela era quase apagada. Normalmente, regiões de intensa formação de estrelas criam nuvens compostas de carbono, oxigênio e silício (no jargão dos astrônomos, tudo mais massivo que hidrogênio e hélio é um “metal”) e essas nuvens quando aquecidas, reemitem a radiação ultra-violeta na faixa de rádio-frequência. Isso sugeria uma baixa “metalicidade” de Himiko.

A conclusão dos pesquisadores é que Himiko é tão antiga que é composta quase que exclusivamente por hidrogênio e hélio, elementos formados no próprio Big Bang. E antes de chegarem a esta conclusão, os cientistas tiveram que cuidadosamente descartar outras possibilidades, tais como a aparência de Himiko ser causada por um efeito tal como o de lente gravitacional ou por um gigantesco buraco negro no seu centro.

O artigo com os resultados é intitulado “An Intensely Star-Forming Galaxy at Z ~ 7 with Low Dust and Metal Content Revealed by Deep ALMA and HST Observations”, publicado na edição de 1/12/2013 do Astrophysical Journal

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM