domingo, 25 de agosto de 2002

A elusiva matéria escura


Marcelo Gleiser
especial para a Folha

A ciência nem sempre avança a passos certos. Muito pelo contrário, o processo de desenvolvimento das teorias científicas é marcado por pistas falsas, divergências de opinião e vários recomeços após tentativas fracassadas. Essa luta toda não é uma fraqueza da ciência, mas consequência de nossas próprias limitações ao lidar com os desafios impostos pela natureza. É sempre bom lembrar que sem dúvida o conhecimento não avança.

Dos vários desafios atuais, um dos mais fascinantes é o da matéria escura. Ao contrário da matéria luminosa, como a que vemos em estrelas e certas nuvens de gás, ela não produz a sua própria luz. Sua existência foi proposta para explicar um aparente problema com a velocidade de rotação das estrelas em galáxias.

Galáxias são aglomerados de estrelas e gás, principalmente hidrogênio e hélio. Como tudo no Universo, de planetas a estrelas, as galáxias também giram. A sua velocidade de rotação é medida através da observação da rotação das estrelas em torno do centro da galáxia.

No século 17, o físico inglês Isaac Newton propôs as três leis de movimento e a lei da atração gravitacional, que juntas ditam como as estrelas devem girar em torno do centro das galáxias. De acordo com a segunda lei de movimento de Newton, a aceleração de um objeto é proporcional à força aplicada sobre ele dividida pela sua massa. Quando essa lei, junto com a lei da atração gravitacional, é aplicada ao movimento das estrelas em galáxias, a previsão é que a velocidade de rotação das estrelas atinja um valor máximo a uma certa distância do centro e comece a cair a partir daí.

Surpreendentemente, não é o que se observa. Na maioria das galáxias, a velocidade de rotação chega a um valor máximo mas, em vez de cair a partir dali, ela fica aproximadamente constante. As observações discordam da teoria de Newton, a mais aceita da física clássica.

Das duas, uma: ou a teoria de Newton tem de ser modificada para grandes distâncias, ou existe mais matéria do que a luminosa que vemos nas galáxias. Essa última hipótese leva à matéria escura, um tipo de matéria cuja presença só pode ser detectada por sua atração gravitacional sobre outras formas de matéria luminosa, como as estrelas nas galáxias.

As primeiras idéias sobre matéria escura datam da década de 1930, quando o astrônomo Fritz Zwicky mostrou que as velocidades de galáxias em aglomerados de galáxias (sistemas onde várias galáxias giram uma em torno da outra, atraídas pela gravidade) são muito maiores do que o que se pode inferir devido à existência apenas da matéria luminosa.

Hoje, a maioria dos astrônomos e físicos acredita que essa matéria escura seja muito mais abundante do que a matéria de que nós somos feitos. Para os proponentes dessa hipótese, cerca de um terço do Universo é composto de matéria escura, enquanto apenas 5% é composto de matéria luminosa. O problema com esse cenário é que, até hoje, ninguém conseguiu detectar essa matéria escura, apesar dos esforços. Essa dificuldade tem levado alguns físicos a optar pela primeira solução, modificar a teoria de Newton.

A proposta que vem sendo levada mais a sério é a de Mordehai Milgrom, físico israelense do Instituto de Pesquisas Weizmann. Segundo Milgrom, quando as acelerações são muito pequenas, como é o caso das estrelas em galáxias, ou de galáxias em aglomerados de galáxias, a segunda lei de Newton é modificada de forma que a força seja proporcional ao quadrado da aceleração.

Nesse esquema, chamado Mond (sigla em inglês de "dinâmica newtoniana modificada"), uma mesma aceleração pode ser obtida com uma força menor, ou seja, com uma gravidade mais fraca. A modificação de Milgrom se encaixa muito bem nas observações, fazendo até certas previsões que foram confirmadas. Mas ela é apenas uma teoria fenomenológica, desenhada para funcionar.

Resta ver se existe algum princípio mais fundamental que determina essa modificação, ou se o Universo é repleto de matéria exótica. Nesse meio tempo, a crise inspira a criatividade dos físicos.

domingo, 18 de agosto de 2002

Em busca da supersimetria


Marcelo Gleiser
especial para a Folha

O desenvolvimento da física deve muito ao conceito de simetria. Em geral, a natureza é complexa demais para ser descrita exatamente, em todos os detalhes. Felizmente, muitas vezes é possível desprezar a maioria das complicações, focando a atenção no essencial.

Se um objeto é apenas aproximadamente esférico, como a Terra, que é achatada nos pólos e, portanto, tem forma oblonga, nós o aproximamos como sendo esférico. Em algumas aplicações da física nuclear, ótimos resultados podem ser obtidos considerando idênticas as massas do próton e do nêutron, mesmo que em realidade o nêutron tenha uma massa ligeiramente maior.

À parte a utilidade dessas simplificações, a busca por padrões e simetrias em processos físicos revela propriedades inesperadas. Átomos em estados excitados só podem emitir radiação em certas frequências, que dependem da simetria global do sistema. Mas é na física das partículas elementares que o conceito de simetria atinge o seu auge.

Tudo o que se sabe hoje sobre o mundo dos constituintes fundamentais da matéria está resumido no chamado Modelo Padrão. São 12 as partículas de matéria, seis quarks (que compõem, entre outros, o próton e o nêutron) e seis léptons (o elétron é um deles). São quatro as forças que regem as interações entre as partículas fundamentais: a gravidade, o eletromagnetismo e as forças nucleares fraca e forte. As forças entre as partículas de matéria também são descritas por partículas, chamadas bósons.

Uma imagem útil é a de dois patinadores no gelo atirando bolas de tênis entre si. Os patinadores são as partículas de matéria e as bolas de tênis são as partículas de força, descrevendo a interação entre as partículas de matéria. Por exemplo, dois elétrons, tendo a mesma carga elétrica, se repelem. Essa repulsão é descrita pela troca de fótons, os bósons da força eletromagnética.

O Modelo Padrão foi tenazmente construído através da constante interação entre experimento e teoria durante os últimos 50 anos, mas é incompleto. Várias questões permanecem em aberto.
As 12 partículas de matéria aparecem em três "famílias" de quatro partículas cada, dois léptons e dois quarks. A família que conhecemos melhor é a que contém o elétron, o seu neutrino e os quarks "up" e "down", que compõem o próton e o nêutron. Por que não quatro ou dez famílias? Por que existem apenas três forças fora a gravidade? Por que essas forças têm intensidades tão diferentes? E como construir uma teoria em que as quatro forças sejam descritas como sendo apenas uma, a força unificada?

Tentativas de resposta invocam teorias que vão além do Modelo Padrão, supondo a existência de simetrias e propriedades que ainda não foram detectadas. A mais promissora tem o nome de supersimetria, pois relaciona os dois tipos de partícula, as de matéria e as de força.
Segundo as teorias supersimétricas, cada partícula de matéria tem como companheira uma de força, e vice-versa. Com isso, essas teorias dobram o número de partículas elementares. Apesar de a supersimetria ter sido proposta há 28 anos, até agora nenhuma dessas partículas supersimétricas foi observada.

Apesar disso, as promessas dessas teorias são grandes o suficiente para justificar o otimismo de muitos físicos. Sem dúvida, a supersimetria pode resolver vários dos problemas do Modelo Padrão, explicando, por exemplo, por que as forças têm intensidades diferentes, ou como possivelmente construir uma teoria unificada das quatro forças.

Como a física é uma ciência baseada na validação empírica das teorias, otimismo, por maior que seja, jamais será suficiente. Será necessária uma demonstração experimental da validade da supersimetria, possivelmente através da detecção direta de partículas supersimétricas.

Nos próximos anos, duas máquinas serão capazes de detectar (ou não) essas elusivas parceiras supersimétricas. Uma é o acelerador Tevatron do Fermilab (EUA), e a outra, o acelerador LHC do Cern (Suíça). Como prêmios Nobel estão em jogo, a disputa EUA-Europa é intensa. Claro, existe sempre a possibilidade de a supersimetria não existir. Afinal, a natureza tende a ser mais esperta do que nós. E talvez não tão simétrica assim.

domingo, 11 de agosto de 2002

Turbilhão digital

Marcelo Gleiser

A vida moderna, mais do que nunca, se transforma num ritmo acelerado, devido ao incessante passo dos avanços tecnológicos. A tendência é que esse ritmo continue sempre a aumentar, mesmo que isso venha a requerer grandes inovações científicas.

Por exemplo, a miniaturização crescente dos computadores, que hoje têm processadores com milhões de componentes eletrônicos, chegará forçosamente a um limite, em que o seu tamanho será comparável ao dos átomos. Quando isso ocorrer, o progresso em computação terá de usar um novo tipo de máquina, baseada em processadores que serão compostos por moléculas, os chamados computadores quânticos. Fica difícil acompanhar essas novas tecnologias e a ciência por trás delas. E essa dificuldade tem sérias consequências sociais. Neste ensaio, reflito mais sobre os desafios educacionais dessa revolução do que sobre a sua ciência.

Mesmo que seja óbvio que o progresso digital não só é inevitável como bem-vindo, existem certos efeitos colaterais que devem ser pensados com muito cuidado. É praticamente impossível, sem o devido poder aquisitivo, se manter em dia com todos os tecnobrinquedos que existem no mercado. São DVDs, HDTVs (televisores de alta definição), palm pilots (computadores de bolso), telefones celulares com acesso à internet, câmaras digitais e por aí a fora.

Se eu repetir essa lista em cinco anos, ela certamente terá aparelhos que ainda nem imaginamos. Isso sem falar na constante produção de novas versões de programas, cada vez mais poderosas, que, para serem rodadas, precisam de computadores cada vez mais rápidos.
O alto custo e a constante renovação das tecnologias promove a existência de uma "subclasse" tecnológica, os deixados às margens do turbilhão digital. E, como o motor fundamental da sociedade moderna são a geração e a troca de informação, esses novos marginalizados digitais sofrem uma grande desvantagem no mercado de trabalho. Essa estratificação social é ainda maior em países onde a distribuição de renda é muito polarizada, como é o caso brasileiro.
Uma possibilidade é implantar um vasto programa de "internetização" das escolas, especialmente as públicas, aliado à formação de professores treinados no uso dessas novas tecnologias como instrumentos pedagógicos. O problema é que um plano dessa natureza, em um país com as dimensões do Brasil, é extremamente caro. É impossível que o governo, sozinho, possa arcar com os custos. E não é só isso. Devido à constante renovação tecnológica, esse compromisso tem de ser permanente.

Sem ter a presunção de querer oferecer aqui uma solução para um problema de tal complexidade (entender o comportamento dos átomos ou do Universo primordial é bem mais simples), gostaria apenas de sugerir uma opção que pode ter alguma utilidade. Por que não oferecer incentivos fiscais para que o setor privado possa financiar em parte essa "internetização" das escolas e o preparo dos professores? A lei de incentivo audiovisual tem sido extremamente importante, por exemplo, no sustento da indústria de documentários. Não seria difícil imaginar algo semelhante para a educação. E os incentivos fiscais não precisam se restringir a empresas. O contribuinte individual também poderia tê-los.

A explosão que está ocorrendo atualmente com a existência da internet e o fácil acesso à informação trará (e já está trazendo) profundas modificações sociais. Em princípio, é possível que cada um tenha uma voz, e que essa voz seja ouvida e opiniões sejam trocadas pelo mundo inteiro, sem nenhuma interferência geográfica (existe uma barreira linguística, mas a verdade é que o inglês é, de fato, a língua da rede).

Muitos estudantes brasileiros já participam desse debate. Mas muitos não sabem o que é a internet, ou como se liga um computador. Eu vejo isso como um grande desperdício de potencial humano, algo que deveria ser uma preocupação de todos. O governo declarou guerra ao analfabetismo e deu grandes passos na direção certa. Talvez seja hora de a sociedade como um todo se mobilizar na guerra pela "internetização" das escolas.

A comunidade acadêmica pode ter aqui um papel crucial, por meio de uma interação maior entre as instituições de ensino superior e de ensino médio. Por exemplo, com programas como "o cientista vai à escola", em que pesquisadores colaborem com educadores no desenho de instrumentos pedagógicos em suas áreas, como demonstrações em salas de aula usando recursos da internet. As possibilidades são inúmeras. E a necessidade, a julgar pela difusão da internet na vida dos estudantes das classes mais altas, é cada vez maior.

domingo, 4 de agosto de 2002

A dramática história da Terra


Marcelo Gleiser
especial para a Folha

Tentar recriar o passado não é nada fácil. Especialmente quando a maioria das pistas deixadas foi metodicamente apagada pelo tempo, o grande inimigo da memória. O arqueólogo tenta reconstruir a história de uma civilização usando as poucas pistas que encontra -pedaços de vasos e urnas, pontas de flechas e lanças, partes de um túmulo ou de uma pedra funerária. O paleontólogo tenta reproduzir os detalhes da evolução da vida a partir de fósseis que, na maioria das vezes, mal reconstroem uma pata ou uma asa. Já o geólogo tenta recontar a história da Terra por meio do estudo metódico das rochas, por exemplo das variações em sua composição química e em sua estrutura cristalográfica, ou da maneira como elas se amontoam em camadas cuja ordem funciona como um relógio: as mais profundas são as mais antigas.

As três profissões lutam contra o mesmo inimigo, a decomposição e a erosão gradual dos materiais, que é extremamente acentuada aqui na Terra, devido ao enorme dinamismo de sua atmosfera. O desafio é extrair o maior número de detalhes usando o que ficou registrado nos diversos materiais. No caso do geólogo, na memória das rochas.

A geologia teve uma infância relativamente tranquila. No início do século 19, o britânico Charles Lyell publicou o livro "Princípios de Geologia", no qual propôs a doutrina conhecida como gradualismo (ou uniformitarianismo), segundo a qual as mudanças na crosta terrestre são extremamente lentas, imperceptíveis dentro de parâmetros humanos de tempo.
No final da década de 1960, essa visão ganhou grande ímpeto, com a verificação da chamada tectônica de placas, teoria que concebe a crosta terrestre formada por várias camadas rochosas, que flutuam lentamente em várias direções, com velocidades de alguns centímetros por ano, comparáveis à velocidade de crescimento das unhas.

O leitor pode facilmente verificar, comparando mapas da África e da América do Sul, como os continentes se encaixam um no outro, como peças de um quebra-cabeças. Segundo o gradualismo, os incidentes mais violentos na história terrestre se limitam a erupções vulcânicas, terremotos e mudanças climáticas, como grandes dilúvios ou eras glaciais. Hoje, sabe-se que essa visão conta apenas metade da história: a outra metade não tem nada de gradual.
Basta olharmos para a superfície da Lua com um par de binóculos para detectar, imediatamente, inúmeras crateras, cicatrizes das violentas colisões que marcaram a história do satélite. São mais de 30 mil crateras conhecidas, com tamanhos os mais variados.
É fácil reproduzir (muito modestamente) o que ocorre em uma colisão entre um asteróide ou um cometa e um corpo celeste sólido, como a Lua ou a Terra. O leitor pode fazer essa experiência na próxima vez em que visitar um lago ou uma praia: jogue pedras de tamanhos diferentes na água, com velocidades diferentes.

Primeiro se observa o deslocamento da água, marcado pela cavidade que circunda o ponto de impacto. Depois, vê-se uma coluna de água erguer-se no meio da cavidade, cuja altura cresce com a energia do impacto -quanto maior a energia, maior a sua altura. Finalmente, ondas circulares se propagam concentricamente a partir do ponto de impacto, dissipando a energia da colisão.

O que ocorreu na Lua ocorreu também na Terra (e em todos os planetas e luas do Sistema Solar), se bem que se conhecem menos de 200 crateras na superfície terrestre. A erosão aqui é mesmo extremamente eficiente, mas não é perfeita. Várias técnicas vêm sendo desenvolvidas para descobrir impactos do passado.

A chamada cratera do Meteoro, aberta há 50 mil anos nos EUA por um asteróide rico em ferro e níquel com 45 metros de diâmetro, é o exemplo mais bem-preservado de um impacto. Até 1960, acreditava-se que a cratera houvesse sido deixada por uma erupção vulcânica. Mas a análise das rochas locais mostrou um processo de vitrificação típico das altíssimas temperaturas que ocorrem durante um impacto (mais de 1.500C).

Outro método é o das imagens de satélites: o lago Mistatin, no Canadá, revelou-se na verdade uma cratera de 38 milhões de anos. A ilha central no lago é o que restou da coluna criada pelo impacto. Até mesmo a desordem no campo magnético das rochas pode acusar um local de impacto.

Gradualismo e catastrofismo oferecem mais do que uma visão complementar do passado terrestre: essas doutrinas mostram que criação e destruição também são complementares, e que nós não estaríamos aqui sem uma combinação dos dois.