domingo, 31 de dezembro de 2000

O futuro é nossa responsabilidade

Virada de ano. Chegamos ao famoso 2001. Tenho certeza de que muitos de vocês conhecem a obra-prima de Arthur C. Clarke, se não o livro, ao menos o filme lançado em 1969, igualmente brilhante, de Stanley Kubrick. O filme começa (quase) com uma espaçonave da Pan American (falida há anos), que transporta pessoas até uma base lunar. E esse é só o início: o filme conta a história de uma missão tripulada a Júpiter, em uma espaçonave controlada por um computador inteligente chamado HAL.

Um detalhe interessante: o nome HAL é obtido subtraindo uma letra das 3 que compõe a sigla IBM (I-1=H, B-1=A, M-1=L). Como profecia tecnológica, a obra não poderia estar mais errada. Não temos vôos comerciais até a Lua ou uma base lunar, muito menos vôos tripulados a Júpiter ou inteligência artificial.

Por outro lado, obras de ficção científica não têm a obrigação de ser precisas em suas projeções e fantasias futurísticas. O que é importante é que elas nos inspirem e nos façam refletir sobre o presente e o futuro. E isso "2001 - Uma Odisséia no Espaço" faz de sobra.

O filme tem um lado metafísico, representado pelo famoso monolito negro, que aparece em momentos de transição na história das idéias. Por exemplo, ele surge quando primatas bípedes descobrem que podem usar ossos como armas para matar animais e inimigos. Aparece na base lunar e novamente durante a descida até Júpiter.

O que esses monolitos são para Clarke é revelado em outros filmes e livros. Mas eu prefiro o mistério de sua presença mantido nesse filme, pois podemos equacioná-la tanto com Deus quanto com outra divindade, como uma inteligência extraterrestre que nos observa atentamente e que talvez nos inspire.

A possibilidade de vida extraterrestre, inteligente ou não, é hoje assunto de grande interesse, não só da ficção científica, mas também da pesquisa científica. Isso praticamente não era verdade em 1969. O mesmo se aplica aos computadores inteligentes: estamos ainda longe de construir uma máquina que possa "pensar", obedecendo a comandos em um programa, mas, também, criando algo de novo, inesperado (definir o que é "pensar" é assunto para outra coluna).

Mas, se ainda não temos as máquinas inteligentes, temos ao menos um aferradíssimo debate científico sobre inteligência artificial e muitos projetos que visam justamente construir tais máquinas.

Se nossos sonhos não fossem maiores do que nossa realidade, nós ainda estaríamos morando nas cavernas.

Para mim, essa é a mensagem mais importante da obra de Clarke. O futuro depende de nossa imaginação, de nossa dedicação e de nossa responsabilidade como cidadãos em um planeta finito.

Como disse o grande escritor português José Saramago, tolerância apenas não basta -precisamos respeitar também as diferenças no outro, sejam elas políticas, econômicas, culturais ou religiosas. E, acrescento, precisamos igualmente respeitar nosso frágil planeta.

Se sonhos devem ser grandes o suficiente para inspirar a realidade de amanhã, o amanhã só será possível se nós o permitirmos. Não quero deprimir ninguém na véspera do Ano Novo, mas o efeito estufa, a poluição, o buraco na camada de ozônio, o desflorestamento global, a fome, a pobreza, as doenças velhas e novas que continuam a causar sofrimento em bilhões de pessoas, tudo isso também faz parte do nosso futuro. E fingir que esses problemas não existem, ou que não irão nos afetar, sejamos ricos ou pobres, moradores da Grande São Paulo ou do sertão baiano, é absurdo. Sonhar é preciso, mas viver também é preciso.

Em cem anos nós redefinimos a vida na sociedade: rádio, TV, remédios os mais diversos, computadores, raio laser, raios X, aviões, ônibus espacial, viagem à Lua, estação espacial, Telescópio Espacial Hubble, bomba de hidrogênio, energia nuclear, carros, arranha-céus, 6 bilhões de pessoas na Terra, 170 milhões de brasileiros (você se lembra do hino da Copa de 1970? "Noventa milhões em ação, pra frente Brasil...") etc.

E o próximo século? Viagem tripulada a Marte, ao centro da Terra, inteligência artificial, seres bioeletrônicos manufaturados por meio de mistura de tecidos biológicos com componentes eletrônicos, o uso internacional da energia solar como alternativa ao petróleo e à energia nuclear, o controle completo da poluição global, o fim do efeito estufa, o fim do buraco na camada de ozônio, uma maior igualdade social, o fim (ou perto disso) da fome e da discriminação na Terra, a "internetização" completa da sociedade, o fim do analfabetismo, o fim das guerras. Acho que já está bom. Feliz futuro -aquele que nós tornarmos possível.

domingo, 24 de dezembro de 2000

A estrela de Belém

Tendo Jesus nascido em Belém da Judéia, no tempo do rei Herodes, eis que vieram magos do Oriente a Jerusalém, perguntando: Onde está o rei dos judeus recém-nascido? Com efeito, vimos sua estrela no seu surgir e viemos homenageá-lo [Mateus 2, 1-2].
Assim é descrita a chegada dos reis magos a Belém no "Evangelho Segundo São Mateus". A famosa estrela ilumina os céus, celebrando o nascimento do Redentor. Que objeto celeste foi esse, que brilhou nos céus durante o dia?
Na Capela Scrovegni, em Pádua, Itália, encontra-se um dos afrescos mais belos do grande mestre toscano Giotto di Bondone, a "Adoração dos Magos", pintado no ano de 1304.
Giotto é famoso por ter sido o primeiro pintor a dar expressões humanas aos personagens da iconografia cristã. Mas hoje, para nós, a importância desse quadro é outra. Nele, Giotto representou a estrela de Belém como sendo um cometa. E não qualquer cometa, mas o cometa de Halley, que ele viu em 1301.
Essa interpretação não era novidade. Pelo menos desde 1500 a.C. os chineses já relacionavam cometas a mensagens divinas, em geral ligadas à morte de líderes políticos. Com raríssimas exceções, qualquer evento celeste inusitado, como um eclipse, um meteorito, um cometa ou uma "nova" estrela, era um mau agouro, um emissário de calamidades que estavam por vir.
Origen de Alexandria (185-253), além de ter sido um dos primeiros arquitetos da teologia cristã, foi também o primeiro cristão a argumentar que cometas, às vezes, podem trazer boa sorte.
Ele sugeriu que a estrela de Belém tivesse sido um cometa ou um meteoro: "A estrela que foi vista no leste, nós consideramos ser uma estrela nova, tal como esses objetos celestes que aparecem de vez em quando, cometas ou meteoros. Nós lemos no Tratado sobre Cometas, de Caermão, o Estóico, que, em algumas ocasiões, quando algo de bom estava por acontecer, cometas aparecem nos céus".
Origen inspirou-se em uma profecia em "Números": "Um astro procedente de Jacó se torna chefe, um cetro se levanta, procedente de Israel" [Números 24, 17". O "cetro" sobre Israel simbolizava, segundo Origen, um cometa.
São Tomás de Aquino (1225-1274) também interpretou a estrela de Belém como um sinal criado e dirigido por Deus, mas não um cometa com a missão benigna defendida por Origen.
"Cometas não aparecem durante o dia ou variam seu percurso ordinário", argumentou São Tomás. Para ele, o sinal celeste representava o inevitável fim dos tempos, anunciado através do nascimento de Jesus Cristo.
Apesar da enorme influência de São Tomás, a imagem da estrela de Belém como sendo um cometa benigno foi propagada no livro "A Lenda Dourada", de Jacó de Voragine (1230-1298), Arcebispo de Gênova. Giotto muito provavelmente conhecia a obra de Voragine, que era mais popular entre mercadores e artesãos do que a própria Bíblia.
Qual é hoje a interpretação mais provável para o evento celeste que marcou o nascimento de Jesus? Não existe um consenso. Antes de mais nada, temos de supor que o evento realmente ocorreu e que não foi apenas um símbolo alegórico de um acontecimento fundamental para a religião dos cristãos. Afinal, o próprio Origen de Alexandria insistiu que, das três interpretações possíveis para a Bíblia -a literal, a moral e a alegórica-, a última era a mais adequada.
É pouco provável que a interpretação da estrela de Belém como um cometa esteja correta. Cometas têm uma luminosidade baixa e difusa e, devido à cauda, não se parecem muito com estrelas.
É mais provável que a estrela de Belém tenha sido uma supernova ou uma nova, ambas fenômenos decorrentes de grandes explosões estelares.
Uma supernova ocorre quando estrelas com massas superiores a oito vezes a massa do Sol esgotam seu combustível e implodem devido à sua própria gravidade. Essa implosão reverte sua direção quando a matéria das camadas superiores da estrela choca-se com o núcleo denso, liberando quantidades enormes de energia. Tão grandes que podem fazer uma supernova brilhar por meses a fio, mesmo durante o dia.
Mas a possibilidade maior é que a Estrela de Belém tenha sido mesmo uma nova próxima, que brilha apenas por dias ou semanas. Uma nova ocorre quando duas estrelas orbitam muito perto uma da outra. Uma das estrelas, uma anã branca -o resto mortal e compacto de uma estrela como o Sol- "suga" a matéria da outra estrela até acumular uma quantidade de hidrogênio em sua superfície que, devido à altíssima temperatura, detona como uma bomba termonuclear gigantesca. Essa sim é uma celebração à altura da inauguração da Era Cristã. Feliz Natal a todos.

domingo, 17 de dezembro de 2000

Uma origem violenta da vida na Terra?

Uma das questões mais intrigantes para os cientistas de hoje é a questão da origem da vida. O problema começa justamente com a definição, ou com a falta dela, do que seja vida. Por incrível que pareça, não existe ainda um consenso de como definir vida.

De qualquer forma, sabemos que organismos vivos têm as seguintes características: 1) eles reagem ao meio em que vivem e, em geral, têm a capacidade de se curar quando feridos; 2) eles podem crescer, ingerindo alimentos e transformando-os em energia; 3) eles se reproduzem, passando algumas de suas características para sua prole; 4) eles podem sofrer modificações genéticas e, portanto, evoluir de modo a adaptar-se (ou não) a mudanças no meio ambiente.

Mas essas quatro regras estão longe de ser absolutamente válidas, existindo muito espaço para interpretações paralelas. Eis alguns exemplos que ilustram a complexidade do fenômeno vida:
Estrelas respondem à atração gravitacional de seus vizinhos, podem crescer por acréscimo de material à sua volta, geram energia e se "reproduzem" ao propiciar o nascimento de outras estrelas durante seus momentos finais, e estas contêm algumas de suas características.

Ao esgotar seu combustível nuclear, estrelas passam à sua fase final de forma explosiva; essas explosões podem gerar instabilidades gravitacionais em nuvens de gás que estejam por perto. Por sua vez, essas nuvens instáveis contraem-se devido à sua própria gravidade, gerando novas estrelas. Mas acho que todos vocês concordam que estrelas não são vivas. Um vírus é cristalino e inerte quando isolado. Mas, quando alojado em uma célula, ele exibe todas as propriedades de um ser vivo, usando o material genético da célula para crescer e se reproduzir.

Muitos cientistas acreditam que o vírus é justamente a ponte entre o vivo e o inanimado, um organismo tão simples que não consegue manter-se vivo por si só, mas complexo o suficiente para viver por meio de outros seres vivos. Hoje, o consenso parece ser que a distinção entre o vivo e o inanimado não deva seguir uma lista rígida de parâmetros, mas adaptar-se à complexidade de cada situação.

Visto que temos problemas definindo o que é vida, não é nenhuma surpresa aceitar que também não entendemos sua origem. Aqui na Terra, formada há 4,6 bilhões de anos, os primeiros sinais de organismos vivos datam de 3,85 bilhões de anos atrás. Tais organismos, simples unicelulares, reinaram por pelo menos 1 bilhão de anos, até organismos mais complexos, mas ainda unicelulares, como as amebas, aparecerem.

Recentemente, a história da vida na Terra teve uma grande surpresa: pesquisadores descobriram que a vida saiu da água muito antes do que se imaginava. Não há 1,2 bilhão de anos, mas há 2,6 bilhões, uma diferença enorme. Quanto mais tempo de vida, mais fácil é gerar estruturas complexas. Talvez a imagem que aprendemos na escola do peixe que cria patas em lugar de barbatanas e sai da água não seja tão precisa assim. Aparentemente, essas formas terrestres de vida eram muito primitivas, semelhantes às encontradas então nos oceanos.

Essas datas são interessantes porque justamente há 3,9 bilhões de anos a Terra e a Lua foram submetidas a um intenso bombardeio de asteróides e cometas, detritos gerados durante a formação do Sistema Solar. Esse bombardeio foi confirmado pela análise de rochas lunares, que mostram uma abundância de materiais vitrificados durante essa época. Esses materiais são típicos das enormes temperaturas que ocorrem devido a impactos com objetos celestes.
A colisão de um meteoro ou cometa literalmente derrete superfícies rochosas que, ao se solidificarem novamente, assumem um aspecto amorfo, ou vitrificado. Na Terra, devido a erosão e a efeitos geológicos, é praticamente impossível encontrar rochas tão antigas ainda preservadas. Mas o que aconteceu com a Lua certamente aconteceu com a Terra.

Esse bombardeio pode ter criado as condições necessárias para tornar a vida na Terra possível, como calor e vários compostos orgânicos que existem em asteróides e cometas. Ou, quem sabe, a vida possa ter vindo de carona em alguns desses bólidos celestes. Qualquer que seja a resposta correta (eu prefiro a primeira opção), parece claro que, sem os bombardeios celestes, a vida não teria surgido aqui. As colisões podem destruir, mas também podem criar.

domingo, 10 de dezembro de 2000

Elogio da razão pura

A ciência, como a religião, tem seus profetas, aqueles que enxergam mais longe do que outros, muito antes do que todos. Claro, as "revelações" vislumbradas pelos profetas da ciência não têm nada de sobrenatural, visto que elas se baseiam em uma combinação de lógica e de intuição, muitas vezes alimentadas por observações ou resultados experimentais.

Mas, em casos raros, esses profetas descrevem o que posteriormente se constatará ser verdade de forma tão inesperada que só posso chamá-los de visionários da ciência, os que enxergam sem precisar olhar. O filósofo alemão Immanuel Kant (1724-1804) é um desses raros visionários da ciência.Kant é bem mais conhecido por sua filosofia do que por sua ciência, mesmo tendo sido igualmente fascinado por ambas.

Durante a juventude, eram o cosmos e a ciência newtoniana, com sua simplicidade e abrangência, que alimentavam sua imaginação. Para ele, como para muitos outros racionalistas do século 18, Deus era visto como o criador do Universo e de suas leis naturais, enquanto o homem era seu decodificador.Em 1755, com apenas 31 anos, Kant escreveu o tratado "História Universal Natural e Teoria dos Céus", dedicado a Frederico, o Grande, rei da Prússia. Kant esperava impressionar o rei o bastante para ganhar uma posição acadêmica em alguma universidade.

Infelizmente, seu editor foi à falência pouco antes de publicar o tratado, e Frederico jamais recebeu sua cópia. Nesse tratado encontramos verdadeiras jóias do pensamento kantiano e de sua belíssima visão cósmica.

A visão kantiana do Universo baseava-se numa hierarquia de estruturas que se repetia dos planetas às galáxias. Manifestação material do infinito poder criativo de Deus, o Universo replicava-se em todas as dimensões, das menores escalas às maiores.

Foi Kant quem sugeriu, antes de qualquer outro, que o Universo é composto por inúmeras galáxias como a Via Láctea, todas elas repletas de estrelas que, como o Sol, seriam rodeadas de planetas. Esses, por sua vez, rodeados por satélites. As mesmas estruturas, grosso modo, repetindo-se pelo Universo afora.

Kant imaginou um processo de formação para o Sistema Solar que, em muitos aspectos, sobrevive até hoje. Para ele, o sistema nasceu de uma nuvem de gás que se contraiu sob a própria gravidade.

No início era o caos, com átomos dispersos pelo cosmos. Instabilidades nessa matéria primordial atraíram mais matéria, criando uma combinação de movimentos de contração gravitacional e rotação. Na medida em que a recém-formada nebulosa encolhia e rodava, ela também se achatava nos pólos.Instabilidades locais, semelhantes às que geraram a grande nebulosa, criaram os planetas e seus satélites. Kant sabia que as órbitas planetárias se encontram todas praticamente num mesmo plano que atravessa o Sol, como um disco atravessando uma bola de tênis (não em escala).

Seu modelo reproduzia essas observações, ao menos qualitativamente. Aliás, essa é uma das críticas ao Kant cientista: que ele argumentou o Universo, ao invés de calculá-lo, como fez Laplace. Sua intuição era absolutamente cristalina, movida por uma visão teopoética do cosmos -razão inspirada pela emoção.

A visão de Kant foi além da formação do Sistema Solar e da repetição das hierarquias cósmicas. Também especulou, corretamente, que ciclos de criação e destruição pontuam a história do Universo.

Imaginou que a mesma matéria que cria planetas e cometas vai também destruí-los, já que "nos confins do tempo" tais objetos cairão no centro de suas órbitas. Kant imaginou que isso eventualmente criará uma "conflagração", explosão que reespalhará a matéria pelo cosmos, recriando o caos primordial.

Mais uma vez, pequenas instabilidades nessa matéria irão crescer, criando novos sóis e planetas, reiniciando a dança cósmica que Kant chamou de "Fênix da Natureza". Portanto, para Kant, o Universo repetia os ciclos de vida e morte das pessoas e de tudo na Natureza, com exceção da alma, fez questão de dizer, que é eterna. Sua obra, sem dúvida, é.

domingo, 3 de dezembro de 2000

Uma luz muito coerente

O laser é, tanto quanto o computador, parte imprescindível de nosso dia-a-dia: impressoras a laser, discos laser, DVDs, cirurgias e outros procedimentos médicos. Sem dúvida, o laser, que virou quarentão este ano, merece o nosso respeito como uma das invenções mais críticas do século 20. Daí que hoje gostaria de celebrá-lo, dedicando esta crônica a esse importante aliado de nosso laser.

Desculpem-me, caros leitores, mas não resisti a trocar o "z" pelo "s".Tudo começou em 1905, quando Einstein postulou que a luz pode ser interpretada tanto como uma onda, algo que já se sabia, quanto como uma partícula, o fóton, algo que tomou muita coragem na época. A luz visível é apenas uma das várias manifestações da radiação eletromagnética, que inclui as ondas de rádio, as radiações infravermelha e ultravioleta, os raios X e os raios gama.

A única diferença entre esses tipos de radiação é a frequência, que cresce das ondas de rádio até os raios gama. Einstein argumentou que a radiação eletromagnética pode ser representada por essas pequenas "balas" de radiação, cuja energia cresce com a frequência. Os fótons das ondas de rádio, de menor frequência, têm as menores energias, enquanto que aqueles dos raios gama são os mais energéticos.

O segundo componente que precisamos para entender como funcionam os lasers é o simples modelo atômico proposto por Niels Bohr em 1913. Segundo Bohr, o átomo pode ser representado por um pequeno núcleo de carga positiva e por elétrons que giram em torno desse núcleo em órbitas discretas. A novidade aqui é a idéia de órbitas discretas: é como se os elétrons só pudessem andar em trilhos concêntricos circundando o núcleo, não podendo andar no espaço entre os trilhos.

O trilho mais próximo do núcleo é o "estado fundamental" do átomo; os elétrons não podem cair no núcleo. Para subir de uma órbita para outra, os elétrons precisam de energia, tal como nós precisamos de energia para subir uma escada. Essa energia é fornecida por fótons, que precisam ter energias exatamente iguais à diferença de energia entre as duas órbitas. O elétron "come" (absorve) o fóton e com isso tem energia suficiente para subir de nível. Já um elétron em um nível superior (ou excitado) só pode descer emitindo um fóton com energia idêntica à diferença de energia entre as duas órbitas.

Portanto átomos em estados excitados emitem fótons ou radiação com frequência determinada.Imagine um átomo no estado fundamental. Se o bombardearmos com fótons de energia adequada, os elétrons irão absorvê-los e migrar para estados excitados. Esse processo é conhecido como "absorção estimulada". Caso o átomo esteja em um estado excitado, duas coisas podem acontecer: ou ele decai espontaneamente, emitindo um fóton com a frequência adequada (emissão espontânea), ou estimulamos seu decaimento bombardeando-o com fótons de frequência adequada (emissão estimulada). Esse último processo é fundamental no funcionamento do laser.

Isso porque, quando um fóton estimula o decaimento do átomo, outro fóton será liberado durante o decaimento, com energia idêntica à do primeiro. Ou seja, usamos um e pegamos dois. Uma situação semelhante acontece quando tentamos recuperar uma bola que ficou presa em uma árvore atirando outra bola. Se formos bem sucedidos, recuperamos a bola que jogamos e a que estava presa. Portanto, se prepararmos um número grande de átomos em um estado excitado e bombardearmos um desses átomos com um fóton, obtemos dois fótons (o usado como "bala" e o liberado no decaimento).

Esses dois fótons se chocam com dois outros átomos, liberando dois outros fótons (quatro no total), esses quatro liberam oito, e assim por diante, em uma incrível amplificação do efeito inicial. Daí a sigla "laser", que vem do inglês "Amplificação de Luz por Emissão Estimulada de Radiação". Mais ainda, todos esses fótons têm exatamente a mesma energia, formando radiação altamente coerente. Por isso o laser tem um tom tão intenso.Os lasers mais comuns usam uma combinação de gases hélio e neônio. Essa mistura é estimulada por uma descarga elétrica que põe átomos de neônio em um estado excitado. Quando um fóton estimula seu decaimento, outros fótons são emitidos, gerando uma luz vermelha muito familiar. Na próxima vez que você ouvir um CD, essa familiar e intensa luz vermelha será menos misteriosa

domingo, 26 de novembro de 2000

Quando os mestres erram

Hoje gostaria de contar uma história que exemplifica como a idéia de autoridade intelectual opera na comunidade científica, muitas vezes com efeitos negativos. Isso porque a imagem do grande mestre projeta uma aura de infalibilidade que é falsa: grandes mentes também erram.Durante os anos 20 e 30, a comunidade astronômica britânica era dominada pela figura de Arthur Eddington.

Foi ele quem provou, por meio de observações de um eclipse do Sol em 1919, que a teoria da relatividade geral de Einstein estava correta. Foi ele quem desvendou, em grande parte, a composição química do Sol e como as estrelas operam, contrabalançando a tendência de implodir pela gravidade e a pressão criada pelas altas temperaturas no centro.

Quando Eddington falava, os astrônomos ouviam.Na Índia, em 1930, um estudante de 19 anos, Subrahmanyan Chandrasekhar, estava fascinado com os novos desenvolvimentos da física, a relatividade geral e a mecânica quântica. Ele decidiu fazer seu doutorado em Cambridge, Inglaterra, onde lecionavam seus ídolos, Eddington e R. Fowler, que em 1926 havia proposto uma resolução radical para um paradoxo levantado por Eddington: o que acontece com uma estrela quando ela esgota seu combustível interno e esfria?

A teoria dizia que ela passaria por uma sucessão de estados de equilíbrio, encolhendo, esquentando e se reequilibrando até esfriar novamente, encolher, esquentar etc. "Alto lá!", exclamou Eddington. "Se isso for verdade, a estrela irá então encolher até desaparecer? Certamente deve haver uma lei da natureza que impeça esse absurdo."A "lei" foi proposta por Fowler, com base na mecânica quântica. Ele mostrou que, quando a estrela encolhe e sua densidade passa de um determinado valor, os elétrons no centro da estrela vão ser espremidos tão perto uns dos outros que uma nova pressão passa a operar.

Podemos visualizar o que ocorre imaginando que cada elétron está confinado a uma pequena célula que, com o aumento da compressão, tende a diminuir. Os elétrons reagem movendo-se a altíssimas velocidades dentro de suas células, gerando pressão que as mantêm firmes, interrompendo o processo de contração.Eddington gostou da explicação, que salvava estrelas ultracompactas chamadas "anãs brancas" da completa implosão. Entra em cena Chandrasekhar que, ainda no navio para a Inglaterra, resolve estudar se os elétrons conseguem balancear contrações arbitrariamente altas.

Afinal, é razoável supor que estrelas com massas bem maiores que a do Sol causem pressões mais altas no centro. Usando métodos aproximados, ele obteve resultado surpreendente: se a massa da anã branca for 1,4 vezes maior que a massa solar, os elétrons são incapazes de contrabalançar o colapso. Chandrasekhar chega a Cambridge e conta a Fowler seu resultado. Infelizmente, a recepção de Fowler e da comunidade astronômica foi fria.Chateado, Chandrasekhar resolve estudar assuntos menos controversos para seu doutorado.

Diploma na mão, ele decide apresentar seus resultados sobre a massa "crítica" das anãs brancas na Sociedade Real de Astronomia. Para sua surpresa, na mesma noite o venerado Eddington também iria falar. Chandrasekhar apresenta os resultados de forma clara e brilhante. Eddington responde criticando severamente as idéias de Chandrasekhar e apresentando sua própria versão do que acontece com as anãs brancas, que, sabemos hoje, estava errada.

Mas quem iria contrariar o grande Eddington? Ele não podia aceitar uma estrela implodindo indefinidamente.O golpe em Chandrasekhar foi tão duro que, por quase 20 anos, ele não trabalhou no assunto. Mas ele estava certo e Eddington, errado. Em 1982, Chandrasekhar ganhou o Prêmio Nobel, por essa e muitas outras contribuições à astrofísica.Para nós, fica a lição de que, em ciência, autoridade pode cegar a visão de muitos durante um bom tempo. Mas, cedo ou tarde, se Davi tiver melhores idéias do que Golias, ele vai vencer a batalha.

domingo, 19 de novembro de 2000

Em defesa da ciência básica

Marcelo Gleiser
Volta e meia, em cartas de leitores desta coluna ou em palestras abertas ao público, sou criticado por dedicar-me ao estudo de questões básicas da ciência e não a problemas mais imediatos que afligem a humanidade, como a fome, as doenças, a poluição, entre outros. O argumento, que tem as melhores intenções, é mais ou menos o seguinte: os cientistas deveriam ajudar a melhorar a qualidade de vida, e não perder tempo com o que acontece perto de um buraco negro, com o funcionamento das estrelas, com as partículas fundamentais da matéria ou com a compreensão da origem do Universo. Por que cientistas "perdem tempo" com questões tão removidas do nosso dia-a-dia quando eles poderiam estar tentando desenvolver novas curas para a Aids ou o câncer ou controlando o buraco da camada de ozônio? Será que não sentem uma obrigação ética de usar seus talentos para ajudar aos outros? Dada a importância da questão, acho que vale a pena elaborar o que poderia chamar de "apologia da ciência básica". Antes de mais nada, é importante definir o que é ciência básica, algo não tão simples. Ao distinguirmos ciência básica de ciência aplicada, estamos supondo que ela trata de questões que não estão diretamente ligadas a aplicações imediatas, como a criação de novas tecnologias. O problema com essa definição, que reflete parte da confusão causada por meus críticos (e de todos os outros cientistas básicos), é que é muito difícil prever se questões que agora parecem tão esotéricas irão encontrar aplicações práticas no futuro. Como ilustração, cito o desenvolvimento da mecânica quântica, que estuda o mundo dos átomos e moléculas. Quando cientistas como Planck, Einstein, Bohr e Heisenberg tentavam entender o comportamento do átomo no início do século, eles jamais poderiam imaginar que de suas investigações brotaria uma revolução tecnológica que transformou o mundo. Desse questionamento básico emergiram invenções como transistores, semicondutores e laseres, que dominam nossa realidade plena de computadores, fibras óticas, telefones celulares etc. E foi do estudo da física atômica que foram descobertas radiações como o raio X, que revolucionou a medicina e que, por sua vez, ajudou outras revoluções, como a da biologia molecular e a da genética. Julgar a ciência básica a curto prazo cria a falsa idéia de que especulações teóricas jamais poderão ser relevantes na prática, sejam sobre átomos ou sobre estrelas. Outro ponto importante é o número de cientistas que se dedicam à ciência básica, contra os que trabalham em pesquisa aplicada. Sem a menor dúvida, físicos trabalhando em áreas mais teóricas são minoria absoluta. Apesar de não ter dados exatos, arriscaria que eles não passam de 10% a 20% dos físicos trabalhando em universidades e indústrias. Mais ainda, é injusto supor que mesmo os físicos ou os matemáticos trabalhando em assuntos esotéricos não se "importem" com os problemas do mundo. Será que devemos fazer a mesma crítica a banqueiros, a escritores, a comerciantes ou a motoristas de táxi? Não só a maioria desses cientistas leciona em universidades, educando centenas de jovens por ano, como muitos deles têm atividades paralelas, ligadas à preservação do ambiente (caso deste colunista) ou à preservação da democracia neste e em outros países. Ofereço um último argumento. A humanidade precisa de pelo menos alguns sonhadores, daqueles indivíduos que criam novas visões de mundo por meio de suas fantasias, sejam elas artísticas ou intelectuais. Um quadro não ajuda a combater a fome, mas ajuda a criar uma estética que nos eleva acima da trivialidade diária, que nos ajuda a expandir nossos horizontes. Uma teoria nova sobre a origem do Universo também. São poucos os pintores e astrofísicos deste mundo. E, por eles existirem, o mundo é um lugar mais especial. Precisamos ter a generosidade de criar um mundo onde pintores, astrofísicos, banqueiros, comerciantes e motoristas de táxi possam todos voltar a sua atenção para os problemas que afligem a humanidade. Cada um de nós deve pensar globalmente e atuar localmente, cientistas ou não.

domingo, 12 de novembro de 2000

Domando o demônio de Maxwell

Outro dia apareceu na minha sala um senhor muito bem apessoado, de terno e gravata, portando uma série de papéis e planos em sua maleta. O visitante abriu seus planos, complicadíssimos, de uma máquina com um enorme pêndulo feito de um material magnético que, segundo seu inventor, poderia funcionar para sempre, em flagrante violação das leis da termodinâmica, a parte da física que estuda o efeito da temperatura no comportamento de sistemas. Se sua invenção funcionasse como anunciado, ela viraria mesmo a física ao avesso. Infelizmente, a engenhoca precisava de um dispositivo descartável bastante familiar, uma pilha elétrica, consumindo mais energia do era capaz de gerar.

O desejo de construir uma máquina capaz de funcionar para sempre, gerando mais energia do que consome, é um sonho muito antigo. Caso isso fosse possível, o problema econômico relacionado ao custo de combustíveis desapareceria, e o mundo seria um lugar muito diferente. De certa forma, o movimento perpétuo está relacionado à busca da imortalidade, da libertação da necessidade de estarmos sempre a construir o que naturalmente decai. Esse aspecto castrador da natureza é expresso nas duas primeiras leis da termodinâmica.

A primeira diz que, em um sistema isolado, não é possível gerar ou destruir energia, apenas transformá-la: uma pilha transforma energia química em energia elétrica, por exemplo. A segunda lei diz que o calor sempre flui de um corpo mais quente para um mais frio. Só assim o sistema realiza trabalho. Em outra versão, ela diz que um sistema isolado sempre evolui de um estado mais organizado para um mais desorganizado.

Se você pingar uma gota de mercurocromo em um copo d'água, ela se dispersará. Mas o contrário -a gota voltar a agregar-se espontaneamente dentro da água- jamais acontecerá. Escondido nessa lei está o fato que para criarmos ordem temos de gastar energia. Uma máquina, dispositivo capaz de criar ordem, necessariamente consome energia para fazê-lo. Na segunda metade do século 19, o grande físico escocês James Clerk Maxwell achou que podia driblar a segunda lei. Ele imaginou um ser, seu demônio, que vivia em uma caixa cheia de um gás a uma temperatura fixa. A caixa era dividida por uma partição com uma pequena porta, e o gás inicialmente estava todo em um lado.

A temperatura de um gás está relacionada à velocidade média de suas moléculas: há moléculas com velocidades maiores e menores que a média. O demônio abria a porta apenas para deixar passar as moléculas mais rápidas. Com isso, ele conseguiria separar o gás entre as duas partições, uma com moléculas mais velozes e outra com as mais lentas. E, como a velocidade está relacionada à temperatura, o demônio separaria o gás em uma parte mais quente e outra mais fria, a condição básica para que um sistema possa realizar trabalho.O que Maxwell não incluiu em sua análise foi que seu demônio, seja ele um ser sobrenatural ou um dispositivo eletrônico, também precisa de energia para operar.

Quando essa energia extra é incluída, o sistema caixa-demônio gasta mais energia do que é capaz de gerar. Venceu a segunda lei. Recentemente, um par de físicos revisitou esse problema usando não um demônio, mas uma caixa minúscula cheia de microondas e um átomo. Esse sistema é descrito pela mecânica quântica, onde efeitos que Maxwell consideraria impossíveis são perfeitamente normais. Aplicando a essa caixa um campo magnético que varia periodicamente, os cientistas argumentam que é possível gerar vibrações que liberam mais energia do que a usada para causá-las. Isso porque, na física quântica, partículas não são descritas como bolas de gude, mas como ondas, que podem interagir de forma coerente, criando cristas e depressões.

A energia depositada pelas oscilações do campo magnético é distribuída nas ondas, fazendo com que o átomo oscile como uma rolha boiando no mar. Essas oscilações geram energia que pode, em princípio, ser extraída. Será que a segunda lei foi vencida pela mecânica quântica? Aparentemente sim, mas por enquanto o sistema só existe em teoria. E não é claro que a termodinâmica possa ser aplicada à esse sistema. De qualquer forma, talvez o demônio de Maxwell venha a existir um dia, mesmo se apenas no mundo do muito pequeno

domingo, 5 de novembro de 2000

Clonando a ressurreição

A espécie animal mais assassina da natureza é, sem dúvida, o homem. É uma grande ironia que tenhamos a petulância de nos acharmos a espécie mais inteligente. Para mim, separar inteligência de sabedoria é absurdo. Mas é o que acontece, quando vemos nossa "inteligência" sendo usada para construir armas e armadilhas cada vez mais eficientes para caçar animais. O marfim dos elefantes, as peles das onças, dos jacarés e de tantos outros animais, será que é tão difícil assim viver sem esses "produtos"? A desculpa dada é que os caçadores são pobres e precisam disso para sobreviver, que o problema é econômico. Sem dúvida é um problema econômico. Daqueles ricos que não têm a noção do que está por trás de um casaco de peles ou de brincos de marfim, de quais são as consequências da destruição das espécies.

Se esse mercado desaparecesse, os caçadores iriam caçar outras coisas, de preferência animais que não estão em extinção. Melhor ainda, eles iriam mudar de profissão. Mesmo a caça de subsistência já foi corrompida pelo consumismo desenfreado de partes de animais com que enfeitamos nossa casa ou corpo. Recentemente, cientistas nos EUA anunciaram a primeira clonagem de uma espécie em extinção, o gauro indiano, um parente do búfalo. O bebê gauro nascerá este mês, do ventre de uma vaca. O processo de clonagem tem várias etapas. Primeiro, devemos ter um óvulo que será o recipiente do material genético da espécie em extinção. No caso do gauro, o óvulo usado foi o de uma vaca comum. Usando uma seringa bem fina, os cientistas extraem o material genético do óvulo recipiente, que se encontra no seu núcleo. O que resta no óvulo é o citoplasma, pronto para receber o material genético da espécie a ser clonada.

Para tal, células da pele do animal em extinção, chamadas fibroblastos, são injetadas na parede interior da membrana que envolve o óvulo. Um choque elétrico funde a célula da pele com o citoplasma do óvulo. Algumas horas após a fusão, começa a divisão celular que inicia o desenvolvimento de um novo ser, o clone do animal do qual se retirou a célula da pele. Em alguns dias, essa mistura celular transforma-se em uma massa com mais de cem células, que é então implantada no útero da "mãe". Em alguns meses, nasce o clone do animal em extinção. Com a tecnologia de clonagem de animais em extinção, o debate sobre a preservação das espécies se torna crucial. Infelizmente, oportunistas irão dizer que agora, com essa tecnologia, não precisamos mais temer a extinção, pois sempre poderemos clonar animais da espécie em perigo. Portanto, vamos caçar mais onças, jacarés e baleias, que tudo bem!

Obviamente, esse argumento é absurdo. Um dos problemas fundamentais da clonagem é que ela apenas duplica o material genético, destruindo a diversidade genética da espécie. Ou seja, reconstruiríamos uma espécie em extinção com centenas de cópias idênticas de alguns indivíduos. Imagine um mundo habitado por bilhões de cópias das mesmas cem pessoas! Mesmo que a clonagem ofereça a esperança de podermos repovoar certas espécies, teremos de criar meios de variar artificialmente seu material genético, talvez misturando-o com o de espécies afins, um processo arbitrário e eticamente complicado.

O melhor antídoto contra a extinção é a conscientização e a destruição do mercado de consumo que promove a caça desses animais. E a clonagem de espécies já extintas? Se podemos clonar uma espécie em extinção, por que não um mamute ou mesmo um dinossauro, como no filme "Parque dos Dinossauros"? Em princípio, se tivermos o material genético dessas espécies em bom estado de preservação, sua clonagem é possível. Felizmente, ao menos na minha opinião, devido a milhares (ou milhões) de anos de fossilização e mudanças de temperatura, o material genético dessas espécies se encontra em péssimo estado. Ainda não podemos usar a clonagem para ressuscitar espécies. Paradoxalmente, apesar dessa técnica representar uma grande conquista da ciência moderna, ela também representa a pobreza do espírito humano.

Clonando a ressurreição

A espécie animal mais assassina da natureza é, sem dúvida, o homem. É uma grande ironia que tenhamos a petulância de nos acharmos a espécie mais inteligente. Para mim, separar inteligência de sabedoria é absurdo. Mas é o que acontece, quando vemos nossa "inteligência" sendo usada para construir armas e armadilhas cada vez mais eficientes para caçar animais. O marfim dos elefantes, as peles das onças, dos jacarés e de tantos outros animais, será que é tão difícil assim viver sem esses "produtos"?

A desculpa dada é que os caçadores são pobres e precisam disso para sobreviver, que o problema é econômico. Sem dúvida é um problema econômico. Daqueles ricos que não têm a noção do que está por trás de um casaco de peles ou de brincos de marfim, de quais são as consequências da destruição das espécies.

Se esse mercado desaparecesse, os caçadores iriam caçar outras coisas, de preferência animais que não estão em extinção. Melhor ainda, eles iriam mudar de profissão. Mesmo a caça de subsistência já foi corrompida pelo consumismo desenfreado de partes de animais com que enfeitamos nossa casa ou corpo.

Recentemente, cientistas nos EUA anunciaram a primeira clonagem de uma espécie em extinção, o gauro indiano, um parente do búfalo. O bebê gauro nascerá este mês, do ventre de uma vaca. O processo de clonagem tem várias etapas. Primeiro, devemos ter um óvulo que será o recipiente do material genético da espécie em extinção. No caso do gauro, o óvulo usado foi o de uma vaca comum. Usando uma seringa bem fina, os cientistas extraem o material genético do óvulo recipiente, que se encontra no seu núcleo. O que resta no óvulo é o citoplasma, pronto para receber o material genético da espécie a ser clonada. Para tal, células da pele do animal em extinção, chamadas fibroblastos, são injetadas na parede interior da membrana que envolve o óvulo. Um choque elétrico funde a célula da pele com o citoplasma do óvulo. Algumas horas após a fusão, começa a divisão celular que inicia o desenvolvimento de um novo ser, o clone do animal do qual se retirou a célula da pele. Em alguns dias, essa mistura celular transforma-se em uma massa com mais de cem células, que é então implantada no útero da "mãe". Em alguns meses, nasce o clone do animal em extinção.

Com a tecnologia de clonagem de animais em extinção, o debate sobre a preservação das espécies se torna crucial. Infelizmente, oportunistas irão dizer que agora, com essa tecnologia, não precisamos mais temer a extinção, pois sempre poderemos clonar animais da espécie em perigo. Portanto, vamos caçar mais onças, jacarés e baleias, que tudo bem! Obviamente, esse argumento é absurdo.

Um dos problemas fundamentais da clonagem é que ela apenas duplica o material genético, destruindo a diversidade genética da espécie. Ou seja, reconstruiríamos uma espécie em extinção com centenas de cópias idênticas de alguns indivíduos. Imagine um mundo habitado por bilhões de cópias das mesmas cem pessoas! Mesmo que a clonagem ofereça a esperança de podermos repovoar certas espécies, teremos de criar meios de variar artificialmente seu material genético, talvez misturando-o com o de espécies afins, um processo arbitrário e eticamente complicado. O melhor antídoto contra a extinção é a conscientização e a destruição do mercado de consumo que promove a caça desses animais.

E a clonagem de espécies já extintas? Se podemos clonar uma espécie em extinção, por que não um mamute ou mesmo um dinossauro, como no filme "Parque dos Dinossauros"? Em princípio, se tivermos o material genético dessas espécies em bom estado de preservação, sua clonagem é possível. Felizmente, ao menos na minha opinião, devido a milhares (ou milhões) de anos de fossilização e mudanças de temperatura, o material genético dessas espécies se encontra em péssimo estado. Ainda não podemos usar a clonagem para ressuscitar espécies.
Paradoxalmente, apesar dessa técnica representar uma grande conquista da ciência moderna, ela também representa a pobreza do espírito humano.

domingo, 29 de outubro de 2000

Davi, Golias e o destino do Sol

O Sol, como qualquer outra estrela, não brilhará para sempre: em aproximadamente cinco bilhões de anos ele esgotará suas reservas de combustível e entrará em fase de decadência, pontuada pelos mais diversos efeitos cataclísmicos. Isso porque estrelas passam suas vidas combatendo a própria implosão que sua gravidade lhes impõe. Imagine uma pessoa deitada sobre um colchão de molas. Quanto mais pesada for essa pessoa, ou melhor, quanto maior for a sua massa, mais as molas terão de trabalhar para contrabalançar o colapso do colchão.

O mesmo acontece com o Sol. Se nós o representarmos como uma cebola gigante, camada sobre camada, as camadas superiores exercerão uma enorme força gravitacional sobre as inferiores, equivalentes ao colchão sob uma ou mais pessoas. É na região central do Sol que as absurdas energias que contrabalançam a pressão gravitacional são produzidas, por meio do processo de fusão nuclear, o mesmo que causa as explosões das bombas de hidrogênio. Portanto, a existência do Sol se deve a esse equilíbrio entre sua tendência a implodir, devido à sua enorme massa, e a explodir, devido à fusão nuclear de hidrogênio na região central.

Fusão em quê? O hidrogênio se transforma no segundo elemento mais leve, o hélio. Essa mudança revela de forma belíssima a transformação de massa em energia prevista na teoria da relatividade de Einstein, encapsulada na famosa fórmula E=mc2. Basicamente, a massa do produto final das reações de fusão é menor do que a massa dos produtos iniciais, e o excesso é convertido em radiação. Se o Sol, em um ato desesperado de autocanibalismo, usa sua própria matéria para produzir a energia necessária para sua estabilidade, o que acontecerá quando ele devorar todas as suas entranhas, isto é, quando ele tiver convertido todo o hidrogênio de sua região central em hélio?

A resposta mais curta é que ele começará a fundir o hélio em outro elemento, no caso, o carbono. Mas vários efeitos extremamente dramáticos acontecem entre as duas fusões (hélio e carbono), incluindo a transformação do Sol em uma estrela do tipo "gigante vermelha", cujo raio será maior do que a órbita de Mercúrio. Expansões estelares desse tipo ocorrem quando o calor gerado em seu interior é maior do que a implosão gravitacional pode contrabalançar. Eu espero que a essa altura já tenhamos colonizado outras partes da galáxia; caso contrário, esse será o fim da vida na Terra.

Enquanto o envelope da estrela cresce, sua região central encolhe devido à sua gravidade, já que a fusão de hélio ainda não começou. A pressão é tão grande que os elétrons não circulam mais em torno dos núcleos atômicos, mas movem-se livremente no meio da congestão. A um certo ponto, um novo efeito passa a ser importante, o Davi que irá derrotar o gigante Golias. Segundo a física quântica, elétrons e outras partículas, como o próton e o nêutron, são extremamente anti-sociais e tentam se evitar ao máximo. De fato, esse efeito de repulsão é conhecido como o Princípio de Exclusão de Pauli, proposto pelo físico austríaco Wolfgang Pauli em 1925. Quando elétrons são forçados a coexistir em volumes muito pequenos, como nas regiões centrais de estrelas em crise, eles reagem movendo-se a altíssimas velocidades, criando uma enorme contrapressão. O colapso da estrela é detido por um efeito que ocorre na escala subatômica, o micro balanceando o macro.

Esse efeito torna-se crucial no estágio final de evolução do Sol. Após curto período de fusão de hélio em carbono, a região central, agora rica em carbono, não consegue fundir-se em outro elemento mais pesado (para estrelas mais maciças que o Sol, isso não ocorre). Ela continua a contrair-se devido à sua própria gravidade até que os elétrons digam: "Chega de aperto!", reagindo de forma que o colapso pára e os restos da estrela encontram sua paz final. Essa bola de carbono e elétrons, do tamanho da Terra e com metade da massa do Sol, chama-se "anã branca". Ela continuará a resfriar-se até desaparecer na escuridão do espaço. Fria, mas com a dignidade de quem brilhou por dez bilhões de anos.

domingo, 22 de outubro de 2000

Viagem virtual ao centro da Terra


Em 1981, o físico norte-americano Marvin Ross propôs algo que chocaria o próprio Júlio Verne, escritor francês que nos levou -ou pelo menos a nossa imaginação- ao centro da Terra: o interior dos planetas Urano e Netuno era repleto de diamantes, "diamantes no céu", como ele chamou seu artigo, inspirado na canção dos Beatles.
Ross baseou-se em experiências que estudam o comportamento da matéria a pressões e temperaturas altíssimas, como no interior dos planetas do Sistema Solar. Para simular tais ambientes, as experiências têm de gerar pressões milhões de vezes maiores do que a pressão atmosférica terrestre e temperaturas de milhares de graus.

É claro que essas experiências usam métodos extremos. O mais dramático emprega explosões nucleares para causar ondas de choque em amostras de materiais diversos. Outro, menos dramático, usa balas ultra-rápidas, que atingem velocidades de até 10 km/s, dez vezes maiores do que as balas comuns. O impacto com alvos diversos cria uma onda de choque que gera pressões e temperaturas comparáveis às encontradas no interior de planetas.

Tanto bombas quanto balas duram apenas frações de segundo, o que não é tempo suficiente para fazer medições muito precisas do que acontece com a amostra. De qualquer forma, experimentos usando esses métodos, no início dos anos 80, indicaram que certos gases comuns nos planetas gigantes, como o metano (CH4, um átomo de carbono e quatro de hidrogênio), se dissociam em componentes básicos quando submetidos a pressões como no interior de planetas. Foram esses experimentos que inspiraram Ross a propor a teoria de diamantes no céu: caso o carbono fosse mesmo dissociado sob altas pressões, afundaria em direção ao centro do planeta, como uma chuva de diamantes.


Essa imagem, mesmo que poética, ainda está longe de ser confirmada. Não é possível enviar sondas que analisem o interior de planetas distantes. Aliás, nem mesmo o da Terra, que permanece uma das grandes incógnitas da ciência.

Outro método muito utilizado no estudo de matéria a altas pressões é uma prensa de diamante: uma amostra de material é posta entre dois cristais de diamante e espremida por um pistão. Com isso, simulam-se pressões de até 5,6 milhões de atmosferas, o atual recorde, maior que no centro da Terra. O problema é que o expediente não sustenta temperaturas elevadas. Acima de 2.000C, o sistema deixa de funcionar. Portanto, outro método tem de ser usado.

Aqui entram os computadores. Usando simulações chamadas de dinâmica molecular, é possível simular as interações dentro de um grupo relativamente pequeno de átomos quando submetidos a altas pressões e temperaturas. Apesar de esse método também ter problemas, computadores cada vez mais poderosos vêm resolvendo vários deles.

O mais óbvio vem de essas simulações serem feitas em uma "grade" fixa (para representar átomos em um computador, é preciso especificar suas posições e velocidades em relação a uma grade, como se cada um ocupasse um vértice num tabuleiro de xadrez). O problema é que, quando a matéria é submetida a pressões altas, ela se rearranja em redes cristalinas diferentes, por exemplo passando de uma forma cúbica para uma piramidal. Como simular essa maleabilidade numa grade fixa? Mais ainda, as interações entre os vários átomos obedecem às leis da mecânica quântica, consideravelmente mais complicadas do que as da física clássica. Incorporá-las numa simulação não é fácil.

Usando grades maleáveis, com forças fictícias que simulam as interações entre grupos com centenas de átomos, físicos mostraram que o metano se dissocia, mesmo, sob altas temperaturas e pressões. E que o interior da Terra é mesmo rico em ferro líquido, cujas propriedades sob altas pressões permaneciam desconhecidas. Ainda não sabemos se existem diamantes no céu, mas a possibilidade existe, ao menos nas viagens virtuais ao centro dos planetas.

domingo, 15 de outubro de 2000

Física com adrenalina

Quem acha que físicos ou outros cientistas levam uma vida pacata, reclusos em suas salas em universidades ou laboratórios, está muito enganado. A pesquisa em ciência é uma atividade extremamente competitiva, uma "corrida de ratos", como se costuma dizer nos Estados Unidos.
Isso porque em ciência, ao contrário das Olimpíadas, não existem medalhas de prata ou bronze. Ou você é o primeiro a encontrar a resposta a uma pergunta-chave ou a desvendar um novo fenômeno, ou é o último. A comunidade científica concede um "empate" quando dois ou mais grupos chegam a uma mesma conclusão quase que ao mesmo tempo. Mas isso é extremamente raro. Ao descobridor, fora a emoção de ter dado um passo avante no conhecimento humano, vêm as honras, prêmios, fama etc. Aos outros, a satisfação dúbia de ter confirmado os resultados de quem chegou ao degrau mais alto do pódio.

Da mesma forma que a cobiçada medalha de ouro incentiva os atletas a estar sempre se superando, a busca pelo conhecimento incentiva a competitividade científica. Agora mesmo, um excelente exemplo disso está ocorrendo no Centro Europeu de Física de Partículas em Genebra, Suíça, conhecido como Cern.

O Cern é um laboratório gigantesco, um consórcio entre vários países do mundo inteiro. Seu grande rival é o Fermilab, um laboratório norte-americano perto da cidade de Chicago. Ambos usam enormes aceleradores de partículas para estudar a estrutura da matéria a distâncias subnucleares, ou seja, dentro mesmo do núcleo atômico.

O objetivo desses laboratórios é descobrir os tijolos fundamentais que, combinados, resultam na matéria que compõe o Universo no presente e que o compunha na sua infância, quando as energias eram comparáveis às que regem os processos subnucleares.

Até o momento, a ciência já descobriu 12 partículas fundamentais da matéria, uma delas o familiar elétron. A elas juntam-se as partículas que transmitem as forças entre esses tijolos de matéria, que recebem o nome pouco poético de bósons de calibre. Esse conjunto de partículas de matéria e de força é conhecido como "modelo padrão de partículas".

Existe uma outra partícula no modelo padrão chamada bóson de Higgs, em homenagem ao físico escocês Peter Higgs. Essa partícula é o centro das atrações no Cern e no Fermilab. Isso por dois motivos: primeiro, ela é a partícula que, segundo o modelo padrão, gera a massa de todas as outras partículas. Segundo, porque ela ainda não foi descoberta. Na verdade, nós nem sabemos se ela existe!

No Cern, o acelerador que vem procurando pelo bóson de Higgs chama-se Grande Colisor de Elétrons e Pósitrons, ou LEP. O LEP funciona há 11 anos e tem contribuído muito na busca pelo Higgs. Ainda não o achou explicitamente, mas pôs um limite mínimo na sua massa. Até abril deste ano, o LEP havia concluído que o Higgs tem uma massa no mínimo 108 vezes maior que a do próton.

Em abril a coisa mudou de figura. Os cientistas do Cern acharam alguns sinais que aparentemente indicavam a presença do elusivo bóson de Higgs, com massa cerca de 115 vezes maior que a do próton. Para isso, eles tiveram que puxar o LEP até o seu limite de funcionamento, já que achar partículas de maior massa requer colisões de maior energia.

Esse furor todo ia de encontro a um problema burocrático, pois o LEP estava para ser fechado no início de outubro, para dar lugar à construção de outra máquina muito mais poderosa.
Mas como deixar passar uma oportunidade dessas? Serão necessários pelo menos sete anos até a nova máquina ficar pronta e, nesse meio tempo, o Fermilab terá maiores energias e poderá detectar o Higgs conclusivamente.

A pressão da possível descoberta é tão grande que a diretoria do Cern resolveu adiar o fechamento do LEP até o dia 2 de novembro, na esperança de que seus cientistas dobrem o número de eventos semelhantes aos que indicaram a presença do Higgs. Quanto maior o número de eventos, melhor a qualidade estatística dos dados e, portanto, maior a probabilidade de uma detecção real. Com poucos eventos fica difícil separar o Higgs de outras pistas falsas.

Claro, se outros eventos com gosto de Higgs aparecerem até 2 de novembro, vai ser difícil convencer os cientistas do Cern de que sua máquina terá de ser desmantelada para dar lugar a uma outra. Por outro lado, se o Cern atrasar a construção nova, muito dinheiro será perdido. Será que encontrar o Higgs antes dos norte-americanos justifica milhões de francos suíços gastos? Enquanto isso, os cientistas no Cern trabalham dia e noite, com muita adrenalina, para resolver o mistério da massa.

domingo, 24 de setembro de 2000

Um mar no espaço


Em 1979, as sondas espaciais Voyager 1 e 2 passaram perto das quatro grandes luas de Júpiter (existem ao menos 16), revelando alguns de seus incríveis segredos, incluindo superfícies torturadas e extremamente ativas. Io, por exemplo, tem vulcões que ejetam matéria rica em enxofre a altitudes de 200 quilômetros. A missão apenas aguçou a curiosidade dos astrônomos, que acreditam que Júpiter e suas luas representem um Sistema Solar em miniatura.

Podemos visualizar o Sistema Solar como uma bola de pingue-pongue (o Sol) atravessada na metade por um disco digital (o plano eclíptico) onde estão localizadas as órbitas planetárias (um modelo fora de escala, obviamente). Ou seja, as órbitas planetárias estão aproximadamente centradas em torno do equador solar. O mesmo acontece com Júpiter e suas luas. Portanto, estudando o modelo jupiteriano, os astrônomos podem aprender muito sobre a formação e evolução do Sistema Solar.

Por isso a Nasa (agência espacial norte-americana) enviou outra missão para Júpiter chamada, apropriadamente, Galileu -o primeiro a ver as luas de Júpiter. A sonda acaba de passar pelas luas, prestando atenção especialmente em Europa. Aparentemente, Europa é a menos interessante das quatro grandes luas; sua superfície não apresenta as marcas dramáticas de vulcanismo como em Io, ou as crateras de Ganimede e Calisto. Ao contrário, a superfície de Europa parece bastante pacata, marcada apenas por longas linhas que indicam a presença de falhas geológicas. No entanto, quando a sonda Galileu tirou fotos com resolução de 20 metros, ficou claro que Europa é coberta por uma camada de gelo, com uma espessura estimada em torno de sete quilômetros. As fotos revelaram, ainda, estruturas semelhantes a icebergs, paralisados pelo gelo à sua volta, como carros em um congestionamento caótico.

Mas a grande surpresa, que já era uma suspeita de vários astrônomos, é o que está por baixo dessa espessa crosta de gelo: um oceano de água salgada, cobrindo todo o planeta, envolvendo uma região central rica em ferro. Ou seja, foi encontrada água líquida no espaço. E em quantidades enormes, talvez até duas vezes maiores que nos oceanos terrestres. Mais ainda, a atração gravitacional entre Júpiter e Europa é tão grande que a pobre lua é constantemente distorcida pelo planeta gigante, uma amplificação do efeito que provoca as marés aqui na Terra. Essas distorções geram uma enorme quantidade de energia no interior da lua, capaz de aquecer seus oceanos. A água em Europa pode ser quente!

Como a presença de água é um ingrediente fundamental para a existência da vida (ao menos as formas que conhecemos), Europa passou a ocupar a posição de honra, junto a Marte, para a existência de vida extraterrestre.

Os leitores familiares com o filme de ficção científica russo "Solaris" (distribuído, infelizmente, como a resposta soviética ao filme "2001 - Uma Odisséia no Espaço") devem lembrar-se do planeta, coberto por um oceano, cuja manifestação de vida era poder materializar os medos e fantasias do inconsciente humano. Certamente, esse não é o caso de Europa. Mas, quem sabe se nossas fantasias com relação à vida extraterrestre não estão sendo materializadas pela presença de seu oceano líquido?

O leitor deve estar se perguntando como é possível determinar a presença de um oceano, imerso sob uma crosta de gelo, em um mundo tão distante. As medidas feitas pela sonda Galileu são baseadas no magnetismo local de Europa. Tal como a Terra, Júpiter tem um campo magnético. Só que, no caso de Júpiter, ele é muito mais forte, com consequências importantes para as suas luas. Em Europa, a orientação local do campo magnético de Júpiter muda a cada 5,5 horas. Quando mudanças em um campo magnético ocorrem em um meio condutor de eletricidade (como a água do mar ou ferro), correntes elétricas locais aparecem, criando, por sua vez, um campo magnético secundário, que pode ser detectado com instrumentos equivalentes a bússolas sofisticadas.

As medidas feitas pela sonda Galileu indicam que uma camada de água salgada com dez quilômetros de profundidade é o melhor candidato a meio condutor em Europa. Mas a resposta final só virá em seis anos, quando uma nova missão for enviada a Europa, procurando por água salgada e, quem sabe, vida.

domingo, 17 de setembro de 2000

Três lições copernicanas

Parece fácil, hoje, afirmar que o Sol está no centro do Sistema Solar e que os planetas giram à sua volta em órbitas elípticas. Como poderíamos pensar diferente, visto que esse é o arranjo mais "óbvio" de nossa vizinhança cósmica?

Na verdade, a coisa não é bem assim. O que vemos é o Sol girar em torno da Terra, e não o oposto. Afinal, não é o Sol que nasce no leste e se põe no oeste? Fazer a Terra girar em torno do Sol é, no mínimo, contra-intuitivo. Não é à toa que apenas em 1543, com a publicação do livro de Nicolau Copérnico onde ele descreve o Sistema Solar com o Sol no centro, é que começou -lentamente- a ficar claro que nem sempre o que vemos ou percebemos do mundo é o que corresponde à realidade. Estranha essa idéia de que o arranjo do cosmo pode ser tão distinto daquilo que o bom senso ditaria. Essa é a primeira lição copernicana: os sentidos podem construir uma realidade falsa se não tiverem a razão a seu lado.

Por que Copérnico resolveu desafiar dois milênios de "sabedoria", baseada na filosofia de Aristóteles? A igreja havia já adotado a descrição aristotélica do cosmo, onde a Terra ocupava o centro, sendo circundada pela Lua, Sol, planetas e estrelas. A parte mais oportuna desse arranjo cósmico para a igreja era a separação que Aristóteles fazia entre o mundo sublunar, onde mudanças e transformações materiais podiam ocorrer, e o resto do cosmo, onde tudo era eternamente igual. A decadência humana era então associada a mudanças materiais (e carnais) perto da Terra, enquanto a perfeição ficava longe, na morada de Deus.

Pôr o Sol no centro era destruir esse arranjo, pois transformava a Terra em mais um planeta e não no centro de mudanças e transformações. E o Sol, sendo perfeito e eterno, não poderia pertencer à subesfera da decadência. Para pôr o Sol no centro, era necessário criar uma nova física, em que a Terra e os planetas obedecessem aos mesmos princípios.

Dois motivos levaram Copérnico a dar esse passo, ambos baseados em um impulso estético. O primeiro, que os movimentos celestes deveriam ser em órbitas circulares e com velocidades constantes. Essa idéia era quase que sagrada, um princípio criado por Platão, o mestre de Aristóteles. Por que o círculo? Pois ele, sendo a figura geométrica mais perfeita, onde todos os pontos são equivalentes, deveria, sem dúvida, ter sido a escolha do Demiurgo, a divindade que arquitetou o cosmo e suas estruturas.

O segundo princípio estético usado por Copérnico era, claro, o arranjo dos planetas em torno do Sol. Conhecia-se já, na época, o período orbital dos planetas, o tempo que eles demoram para dar uma volta completa em torno do Sol. Portanto, raciocinou Copérnico, basta arranjá-los em ordem crescente, de modo que Mercúrio, de período mais curto, fique mais perto do Sol e Saturno, de período mais longo, fique mais longe (não se conheciam ainda os outros planetas, Urano, Netuno e Plutão, invisíveis a olho nu). Com esses princípios estéticos, Copérnico criou um novo arranjo do Sistema Solar, desafiando o pensamento aristotélico, mesmo sem ter qualquer prova de que suas idéias estavam certas. Essa é a segunda lição copernicana: a inspiração para a ciência muitas vezes é guiada por princípios estéticos.

Mas estética não garante precisão. Apenas através de uma confirmação direta, baseada em medidas e sua análise quantitativa, é que podemos julgar ou não a validade de uma hipótese sobre a natureza, por mais atraente ou elegante que ela seja. A estética é uma sedutora ambígua, fundamental e traiçoeira.

Passaram-se mais de 50 anos até que as idéias copernicanas começaram a ser aceitas. Por que toda a demora? Será que os astrônomos da época eram incompetentes? A virada começou com Kepler e Galileu no início do século 17, ambos grandes defensores de Copérnico, por motivos diferentes. A razão foi a falta de confirmação observacional dessas idéias, aliada a um número relativamente pequeno de pessoas trabalhando em astronomia na época. Mais ainda, a posição da igreja e dos luteranos também não ajudava muito. Os seguidores de Copérnico tiveram um trabalho muito maior do o próprio, pois eles tiveram de testar as idéias e aprimorá-las, como foi o caso de Kepler com as órbitas elípticas, que seriam extremamente "feias" para Copérnico.

Essa é a terceira lição copernicana: em ciência, como em qualquer outra atividade criativa, ninguém pode trabalhar sozinho. O conhecimento é como uma corrente em que cada idéia é um elo, uns mais fracos, outros mais fortes, forjados todos pela nossa curiosidade.

domingo, 10 de setembro de 2000

Independência, só de perto

.
Durante os anos 50, um dos grandes sonhos da física, encontrar os componentes mais fundamentais da matéria, estava se tornando um dos seus maiores pesadelos. Isso porque a própria idéia de que a estrutura da matéria pode ser compreendida pela combinação de alguns tijolos fundamentais não parecia ter mais fundamento: experiências realizadas em colisores de partículas, máquinas capazes de colidir prótons, elétrons e outras partículas a velocidades próximas à da luz revelaram centenas de novas partículas "elementares", as chamadas ressonâncias bariônicas, ou hádrons.

Como centenas de partículas não podem lá ser muito fundamentais, das duas, uma: ou esses tijolos básicos de matéria não existem, ou essas centenas de partículas não são fundamentais.
Venceu a segunda hipótese. No início da década de 60, o físico norte-americano Murray Gell-Mann propôs que os hádrons eram feitos de combinações de partículas mais fundamentais, que ele, tirando a palavra de James Joyce, chamou de quarks. Os seis tipos de quarks compõem as centenas de hádrons, da mesma forma que o elétron, o próton e o nêutron, em números diferentes, compõem os 92 elementos da tabela periódica.

Se o átomo é mantido coeso devido à atração elétrica entre prótons e elétrons, os hádrons são mantidos pela chamada força forte, que atua nos quarks como uma espécie de cola. Por exemplo, podemos imaginar um próton como se fosse uma esfera com três quarks dentro, como sementes numa fruta. O interessante é que os hádrons têm outra característica que os torna semelhantes aos átomos.

Átomos são eletricamente neutros. O próton não, mas os quarks carregam também um outro tipo de "carga", que chamamos de cor. Fora as duas cargas elétricas (positiva e negativa), os quarks podem ter três cores -vermelha, verde e azul. Um hádron sempre tem cor neutra, isto é, ele é feito de uma combinação das três cores, ou de uma cor e sua anticor.

Anticor? Pois é, partículas têm suas antipartículas, com cargas inversas. Por exemplo, o elétron, negativo, tem o pósitron, positivo. Antiquarks têm anticores.

Portanto, hádrons são mantidos coesos pela força forte, são neutros segundo a carga "cor" e são compostos por quarks e antiquarks. As semelhanças entre força forte e eletromagnética terminam aqui. A força forte só atua em distâncias nucleares, enquanto a força elétrica tem um alcance que cai com o quadrado da distância entre as duas cargas.

A propriedade mais misteriosa da força forte é o "confinamento". Segundo observações experimentais e a teoria que descreve a força forte, quarks jamais aparecem livres, sendo condenados a estar sempre dentro de hádrons. A força forte atua de tal modo que, apenas quando os quarks estão muito próximos eles, se comportam como partículas livres.
Quando tentamos separá-los, a atração fica cada vez mais forte, como uma mola. Se continuarmos a tentar separá-los, a energia que depositamos nos quarks acaba por criar mais quarks, como a mola que se quebra em duas. Isolar um quark é como responder ao enigma Zen: "Qual é o som de uma mão aplaudindo?"

Essa propriedade de confinamento representa um grande desafio aos teóricos que tentam calcular, por exemplo, a massa do próton. A teoria, chamada cromodinâmica quântica (QCD), aludindo às cores dos quarks, baseia-se na idéia de que a interação entre quarks se dá por troca de partículas chamadas glúons, da mesma forma que a interação elétrica se dá pela troca de fótons. A diferença entre fótons e glúons é que os glúons podem interagir, sendo de alguma forma responsáveis pelo confinamento.

Os cálculos envolvidos são extremamente complexos, exigindo supercomputadores capazes de realizar trilhões de operações por segundo (teraflops), os mais rápidos do mundo. Mesmo assim, ainda não se conseguiu calcular a massa do próton, teste fundamental da QCD. Mas evidências experimentais variadas e resultados numéricos preliminares dão confiança aos proponentes da QCD, a teoria de um mundo bizarro onde a liberdade só é possível muito de pertinho.

domingo, 3 de setembro de 2000

Os perigos das manipulações genéticas

O rápido desenvolvimento da engenharia genética está forçando uma reavaliação da questão do controle da pesquisa científica pelos órgãos legislativos. Este controle foi praticamente perdido durante a década de 70, quando as primeiras experiências envolvendo a manipulação explícita de genes foram desenvolvidas. O que existia antes, "cruzar" animais ou plantas para criar novas raças ou híbridos, é coisa bem diferente, pois não envolve a manipulação direta dos genes.

Todos sabem que cães e gatos são espécies diferentes e que não se misturam: entretanto, por meio da manipulação genética direta, essas duas espécies podem, em princípio, ser "misturadas".Uma das técnicas mais comuns de manipulação genética é a passagem de genes de um organismo a outro usando vírus ou bactérias: os genes de um organismo são transplantados ao vírus, que, por sua vez, é implantado no organismo em que se deseja depositar o material genético. Esse organismo pode ser um peixe ou uma espécie de milho ou tomate.

Com isso, os genes espalham-se pelo organismo, transformando seu material genético e, portanto, algumas de suas propriedades. Por exemplo, podem-se desenvolver espécies de milho resistentes a certos insetos que o usam como alimento, controlando geneticamente certas pragas agrícolas; ou um tipo de tomate que cresce mais rápido e é mais produtivo. Até aí tudo bem, a ciência a serviço da população, como deveria ser. Podemos imaginar um futuro em que os alimentos modificados geneticamente irão solucionar um dos maiores problemas que afligem a humanidade, a fome.

O dilema começa ao examinarmos os possíveis efeitos ambientais dos alimentos transgênicos.Se microrganismos são usados como "pontes" genéticas, transmitindo material de uma planta a outra ou de um animal a outro, como podemos nos certificar de que esse material não se espalhará para outras plantas ou animais? Para responder a essa questão, virologistas dos Institutos Nacionais de Saúde (NIH) dos EUA desenvolveram experiência em que um gene causador de câncer em ratos foi transplantado para uma bactéria, que foi então implantada em outros animais, para observar se estes também desenvolveriam câncer.

Em caso afirmativo, a experiência provaria que o câncer pode se tornar uma doença contagiosa por meio da manipulação genética. Os cientistas começaram errando, escolhendo uma bactéria frágil. Por quê? Porque eles não tinham nenhum interesse em comprovar os perigos da manipulação genética; existiam outros interesses em jogo -políticos, econômicos e também de controle da pesquisa científica. Mesmo assim, a bactéria infectou alguns animais com câncer, segundo os NIH.

Esses resultados não foram publicados em jornais científicos, e o jornal "The New York Times" anunciou, citando depoimento oficial dos NIH de 1979, que os "riscos são menores do que o temido". Caso encerrado!Experiências recentes realizadas na Universidade Cornell, nos EUA, mostraram que larvas da borboleta monarca que se alimentam de plantas impregnadas com o pólen de um tipo de milho transgênico morrem em grandes quantidades.

Ainda é cedo para saber como os resultados se manifestarão fora do laboratório, mas o perigo existe. A verdade é que ainda não temos comprovação científica de que a manipulação genética de alimentos e animais não poderá gerar efeitos danosos à nossa saúde ou ao equilíbrio ecológico. Não acredito que seja possível impedir o desenvolvimento da pesquisa genética. Também jamais sugeriria tal coisa, que me parece absurda; a ciência precisa ter liberdade para progredir e uma legislação proibindo certos tópicos de pesquisa é, na minha opinião, equivalente à censura de imprensa ou à repressão da opinião pública.

Por outro lado, essa liberdade só pode funcionar se submetida a intensa supervisão da comunidade científica, aliada a órgãos governamentais, livre de interesses econômicos que possam comprometer os resultados. Existem questões éticas sérias que precisam ser debatidas abertamente com a sociedade, desde a criação de alimentos transgênicos até a manipulação de genes humanos. O Brasil deve tomar sua própria iniciativa, desenvolvendo critérios e experiências que testem efeitos da manipulação genética dentro de seus vários ecossistemas. Só assim poderemos transformar a manipulação genética em um dos maiores benefícios da ciência -e não em um monstro

domingo, 27 de agosto de 2000

As maiores estruturas do Universo

Às vezes, gosto de visualizar o Universo como a superfície de uma lagoa, cheia de vitórias-régias, as belas plantas flutuantes que aparecem em bandos, arquipélagos de ilhas verdes de tamanhos e formas variados. Cada planta é uma galáxia, e cada grupo de plantas é um agregado de galáxias. Claro, esse é um modelo bidimensional do Universo, pois estou me restringindo a visualizar a superfície da lagoa. Uma outra diferença importante é que o Universo está em expansão, as distâncias entre galáxias e seus aglomerados sempre aumentando, enquanto que, em geral, lagoas não costumam estar em expansão. De qualquer forma, a imagem vale, senão pela sua precisão, pelo seu poder evocativo.


Apesar de não ser um especialista em colônias de vitórias-régias, imagino que elas jamais atinjam dimensões comparáveis à da lagoa. (Se estiver enganado, vamos então imaginar uma espécie de planta que satisfaça essa regra.) Usando um argumento baseado na teoria da evolução, muitas plantas em um meio de dimensões limitadas acabam se prejudicando. Enquanto um número razoável garante o controle dos nutrientes encontrados na lagoa, um número muito grande acaba tendo de competir, com resultados danosos à população como um todo. Deve existir uma relação entre o tamanho dos arquipélagos de vitórias-régias e o tamanho da lagoa onde se encontram, de modo que uma situação ótima de equilíbrio seja atingida.

Agora, voltemos ao Universo povoado por bilhões de galáxias, cada uma com milhares de anos-luz de extensão, arranjadas em aglomerados que podem conter milhares delas, ou mesmo em superaglomerados (aglomerados de aglomerados). Será que existe um limite máximo para essas estruturas? Durante as últimas décadas, astrônomos de todo o mundo fizeram mapas do Universo, localizando galáxia por galáxia e identificando aglomerado por aglomerado. Finalmente, podemos responder a essa pergunta.

Quando Albert Einstein propôs o primeiro modelo cosmológico da era moderna usando sua teoria da relatividade, ele supôs que o Universo, em grandes escalas de distância, fosse essencialmente idêntico ou homogêneo. Claro que o céu noturno não tem nada de homogêneo, já que vemos estrelas e constelações muito diferentes umas das outras. Mas essas distâncias são ridiculamente pequenas para as escalas que estamos interessados. É como olhar um gramado de perto ou de longe: de longe, não vemos mais os tufos de grama, mas um "tapete verde". Essa suposição, conhecida como Princípio Cosmológico, torna possível (ou ao menos facilita muito) uma análise matemática das propriedades do Universo, incluindo sua expansão.

Se estruturas envolvendo galáxias e seus aglomerados podem ser arbitrariamente grandes, o Princípio Cosmológico teria de ser abandonado, já que o Universo não seria homogêneo em nenhuma escala. Como consequência, os modelos cosmológicos teriam de ser seriamente revistos. Durante os anos 80, os primeiros mapas mostraram uma incrível variação na distribuição de galáxias.

Elas aparecem em filamentos enormes, como se fizessem parte de uma vasta teia cósmica. Os filamentos adornam imensas regiões, onde praticamente nenhuma galáxia é encontrada, os chamados vazios cósmicos. O problema é que esses primeiros mapas também mostraram que alguns desses filamentos eram tão grandes quanto o próprio mapa, em torno de centenas de milhões de anos-luz. Como o Universo à nossa volta ocupa aproximadamente 13 bilhões de anos-luz, a distância percorrida pela luz desde o Big Bang, a questão da homogeneidade permaneceu em aberto, porém de forma bastante incômoda.

Em julho deste ano, um novo mapa, bem maior que seus antecessores, resolveu de vez a questão: incluindo 100 mil galáxias a até 4 bilhões de anos-luz de distância, quatro vezes mais do que qualquer mapa anterior, astrônomos trabalhando em um observatório na Austrália provaram que, de fato, as maiores estruturas têm no máximo 250 milhões de anos-luz. O Princípio Cosmológico pode ser aplicado sem problemas. O arquiteto das vastas estruturas cósmicas é a força gravitacional, que parece também satisfazer um princípio evolucionário: estruturas muito maiores levariam ao colapso deste Universo, ao menos de um descrito pela teorias atuais, tal como um excesso de vitórias-régias em uma lagoa finita.

domingo, 20 de agosto de 2000

Os perigos de uma história malcontada

.
Ciência pode causar pânico. Às vezes com razão, como no caso do desenvolvimento de armas nucleares, químicas ou biológicas. Imagine o que aconteceria se um grupo terrorista, com uma bactéria geneticamente alterada, contaminasse o abastecimento de água de Brasília. A bactéria, "construída" em laboratórios clandestinos com tecnologia roubada de indústrias de ponta, mataria em apenas dois dias. A mídia espalharia a notícia com a velocidade da luz, alertando a população para o perigo. Nesse caso, a velocidade de propagação da informação e o choque da notícia salvariam inúmeras vidas. Vamos analisar o outro lado -a mídia propagando o pânico erroneamente, também devido a uma "ameaça" científica, agora nas mãos de cientistas: os cientistas como assassinos!

Eis um exemplo recente e, na minha opinião, bastante ilustrativo. Em julho de 1999, a prestigiosa revista "Scientific American" publicou reportagem sobre uma experiência do laboratório de Brookhaven (EUA), conhecida como "Colisor de Íons Relativísticos Pesados" (a sigla, em inglês, é RHIC). Na experiência, núcleos de átomos de ouro são bombardeados por prótons acelerados a velocidades próximas à velocidade da luz. A idéia é recriar, por frações de segundo, as condições existentes durante o primeiro centésimo de milésimo de segundo após o Big Bang, evento que marcou a origem do Universo. Segundo as teorias modernas da física nuclear, os prótons e os nêutrons (integrantes do núcleo atômico) são compostos por partículas chamadas quarks, que interagem entre si trocando outras partículas, os glúons. Os glúons agem como uma cola nuclear: mantêm o núcleo coeso, apesar da repulsão elétrica de seus componentes. A densidades e temperaturas muito altas, como no Universo primordial ou no centro das colisões no RHIC, o núcleo e seus componentes são transformados em um novo estado da matéria, um plasma de quarks e glúons. Essa é a previsão da teoria que o experimento irá testar.

O artigo da "Scientific American", intitulado "Mini Big Bang", provocou o interesse de alguns leitores. Um deles perguntou se o experimento poderia criar um miniburaco negro que engoliria a Terra; afinal, argumentou, Stephen Hawking escreveu que miniburacos negros teriam existido momentos após o Big Bang. A resposta foi dada por Frank Wilczek, físico renomado, então no Instituto de Estudos Avançados em Princeton: "A idéia é muito implausível", disse ele. "Mas outra forma de matéria poderia aparecer no experimento, chamada "strangelet", com resultados catastróficos. Mas isso também é implausível", finalizou. Implausibilidade representa algo muito diferente para um cientista treinado ou uma pessoa fora da área. Afinal, vencer na loteria também é implausível, mas acontece. O público quer ouvir a palavra "impossível", que raramente é usada em física, a menos que exista uma violação óbvia de suas leis.

Uma enxurrada de artigos sensacionalistas apareceu em seguida. O jornal inglês "The Times" publicou a manchete: "Máquina do Big Bang pode destruir a Terra". Um repórter da rede norte-americana ABC chamou o RHIC de "máquina do juízo final", acusando os cientistas de "brincar de Deus". Um processo foi aberto para parar o experimento; um jovem escreveu ao diretor de Brookhaven dizendo estar desesperado com a possibilidade de um buraco negro em Nova York; surgiu um rumor de que um buraco negro criado pelo RHIC teria engolido o avião de John Kennedy Jr. Incrível a irresponsabilidade dos jornais e TVs que propagaram esses absurdos. Incrível também a falta de sensibilidade dos cientistas com relação à repercussão social de seu trabalho. Ciência pode causar pânico, especialmente se a sua divulgação depender de profissionais despreparados e do silêncio arrogante dos cientistas. Nesse meio tempo, no mês passado, o RHIC entrou em funcionamento -e nós ainda estamos aqui, sãos e salvos.

domingo, 6 de agosto de 2000

Brincando com a velocidade da luz

.
Volta e meia eu recebo uma carta ou um trabalho de algum leitor irritado com a velocidade da luz. Afinal, se ela é mesmo a velocidade máxima com que a informação pode se propagar, ela também determina a causalidade na natureza, isto é, garante que a causa sempre precede o efeito. Imagine a situação oposta: um universo onde não exista uma relação necessária de causa e efeito. Nesse universo, seria possível que estivéssemos presentes no nosso nascimento, ou mesmo antes disso. Um paradoxo perverso diz que, nesse universo, um louco poderia voltar ao passado e matar seu próprio pai, ainda garoto. Mas, se o pai foi morto quando criança, como o seu filho assassino pode existir?

Por trás dessa ansiedade toda, está escondida, entre outras coisas, uma versão científica da mítica fonte da eterna juventude. Se pudéssemos controlar a causalidade, poderíamos viver para sempre. Daí que muita gente -de cientistas trabalhando em laboratórios de ponta a pessoas interessadas nessas questões por meio de um enfoque mais, digamos, filosófico- vem tentando bater a velocidade da luz. Bem, segundo a teoria da relatividade, proposta por Einstein em 1905, estabelecendo a relação entre causalidade e velocidade da luz, se um objeto tem massa, é impossível acelerá-lo até a velocidade da luz. Quanto maior a velocidade do objeto, maior sua massa, até que, ao chegar na velocidade da luz, sua massa fica infinitamente grande. E, para mover um objeto com massa infinita, precisamos de uma quantidade infinita de energia. A conclusão é simples: nós não vamos viajar a velocidades mais altas do que a velocidade da luz. Mas por que não a própria luz? Afinal, a única razão pela qual a luz viaja na sua velocidade é porque ela não tem massa. Basta criar um tipo de luz que seja capaz de viajar mais rápido do que a luz.

Em meados de julho, cientistas trabalhando no laboratório NEC em Nova Jersey, nos EUA, anunciaram, para grande espanto da comunidade científica e de todos os que ouviram a notícia, que eles haviam produzido pulsos de luz que viajaram mais rápido do que a velocidade da luz! Para entender o que aconteceu, devemos lembrar que a velocidade máxima da luz se dá no espaço vazio, ou vácuo, e é de 300 milhões de metros por segundo. Entretanto, em meios distintos, como a água ou o ar, a luz se propaga mais devagar. Recentemente, um grupo da Universidade de Harvard criou o equivalente a uma luz tartaruga, que se propagou a alguns metros por segundo. Mas bater a velocidade da luz no vácuo é outra história.

Quando falamos em velocidade da luz, estamos nos referindo a apenas uma onda eletromagnética com uma determinada frequência. Um "pulso" luminoso é um objeto muito distinto, composto por uma superposição de várias ondas luminosas, cada uma com uma frequência diferente. Quanto mais fino for o pulso, maior o número de ondas que o compõem; a superposição de ondas diferentes determina o feitio do pulso luminoso. Seu perfil é semelhante ao de um sino ou uma montanha com um pico bem arredondado. Existem duas velocidades associadas ao movimento do pulso; a velocidade de seu pico é chamada velocidade de grupo, e a velocidade de cada onda é a velocidade de fase. No vácuo, as duas são iguais, mas em meios absorventes ou dispersivos elas podem ser diferentes. Foi essa diferença que criou o efeito superluminal: um pulso luminoso atravessou um volume saturado com o elemento césio em forma gasosa; nesse meio, certas frequências sofrem uma dispersão anômala, mudando suas velocidades de fase. Com isso, o formato do pulso é deformado de modo a "empurrá-lo" para a frente. O resultado é uma velocidade de grupo (ou do pico) mais rápida do que a velocidade da luz no vácuo. De fato, o pico do pulso foi visto deixando o volume antes de entrar! (Lembre-se do formato de sino: o pico fica no meio do pulso.)

A velocidade superluminal foi a velocidade de grupo, ou do pico, do pulso; para que o pico tivesse saído antes de entrar, a parte frontal do pulso foi deformada radicalmente, "redesenhando" o formato do pulso luminoso.

Não existiu violação de causalidade, já que o efeito veio da reorganização das ondas compondo o pulso. Por enquanto, ainda vivemos em um universo onde a causa precede o efeito.

domingo, 30 de julho de 2000

Um Sol inquieto

O Sol está passando por momentos difíceis. Nós, aqui na Terra, temos a impressão de que ele é um objeto pacífico, uma fonte constante de luz e calor, estável para sempre. Nada como uma enorme distância para esconder imperfeições e crises. Afinal, são 150 milhões de quilômetros entre a Terra e o "astro rei". A noção de que o Sol é um objeto perfeito foi sustentada pelos aristotélicos desde a Grécia Antiga. Ela só veio desaparecer no início do século 17, quando o italiano Galileu Galilei e astrônomos jesuítas descobriram as famosas "manchas solares", que, nos seus telescópios, pareciam pontos negros sobre a superfície solar ou próximos dela.
Deixando a interessante polêmica entre Galileu -que corretamente afirmava que as manchas eram parte da estrela- e os jesuítas -que afirmavam que as manchas eram planetas muito próximos do Sol-, ficou claro que o Sol não era um astro perfeito.

Longe disso. Com massa 300 mil vezes maior que a da Terra, raio cem vezes maior e temperatura, na superfície, de aproximadamente 6.000 graus Celsius, o Sol é um monstro em constante ebulição, cuja enorme quantidade de matéria é comprimida constantemente pela gravidade. No seu interior, hidrogênio -o elemento mais leve da Natureza, compondo 91,2% da matéria solar- se funde para formar hélio, o próximo na linhagem química. Esse processo de fusão nuclear é o responsável pela enorme quantidade de energia produzida pelo Sol, promovendo sua estabilidade contra a inexorável compressão gravitacional.

Para que a fusão nuclear possa ocorrer, a temperatura no centro solar chega a atingir 15 milhões de graus, enquanto a densidade da matéria é de 150 toneladas por metro cúbico, 20 vezes maior que a densidade do ferro.

Claro que um objeto que tem uma temperatura de milhões de graus no centro e de milhares de graus na superfície não pode ser lá muito pacífico. O calor gerado na região central flui por meio da matéria solar, criando correntes de convecção extremamente complexas; enquanto a matéria superaquecida vinda do interior solar viaja para a superfície, a matéria da superfície, relativamente mais fria, afunda para o interior.

Esse ir e vir cria padrões de convecção (parecidos com rocamboles) que transportam energia para a superfície em movimentos rotatórios. Perto da superfície solar, a densidade do gás fica tão pequena que essas correntes de convecção não podem mais ser mantidas. Chegamos à fotosfera, a superfície que vemos do Sol, onde o transporte de energia se dá por meio de radiação.

A fotosfera é tão estreita que mal pode esconder o caos térmico das correntes de convecção logo abaixo. Fotos do Sol tiradas por vários satélites e telescópios revelam uma superfície marcada por inúmeras erupções e "sucções" de gás incandescente, com uma granulosidade parecida com um prato de feijão e arroz: as erupções emergindo, as sucções afundando. Cada grão, porém, tem em torno de mil quilômetros de diâmetro e desaparece em 5 ou 10 minutos.

O aparecimento das manchas solares marca períodos em que a sopa solar ferve com mais energia do que o normal. Obedecendo a um ciclo de aproximadamente 11 anos, essas manchas parecem escuras porque são mais frias ("apenas" 4.500 graus!) do que a superfície solar. Além disso, elas estão intimamente ligadas ao magnetismo do Sol. Assim como a Terra, o Sol também tem seu campo magnético, causado pela combinação dos movimentos de rotação e de convecção da matéria ionizada (matéria que tem elétrons faltando) em seu interior.

As manchas aparecem em pares: uma com pólo positivo e outra com pólo negativo, como ímãs gigantescos, maiores que a Terra. Esses são os períodos das tempestades solares, quando mudanças bruscas no campo magnético solar causam erupções de bilhões de toneladas de matéria, viajando a mais de 5 milhões de quilômetros por hora.

Estamos passando pelo clímax de uma dessas tempestades. Em geral, elas causam a belíssima aurora boreal, quando uma fração dessa matéria é capturada pelo campo magnético da Terra. Também causam problemas com recepção de rádio na Terra e com o funcionamento de satélites, além de dificuldades com usinas elétricas. Mas não há motivo para alarme: o Sol, com ou sem tempestades, continuará a brilhar "pacificamente" por mais uns 5 bilhões de anos.

domingo, 23 de julho de 2000

Onde estão os ETs?


São mais de 100 bilhões de estrelas apenas na nossa galáxia, a Via Láctea. Inúmeras observações recentes provaram que a existência de planetas não é um privilégio do nosso sistema solar, mas uma consequência corriqueira do processo de formação de estrelas.
Na Terra, que tem em torno de 4,6 bilhões de anos, a vida surgiu bem cedo; amostras de rochas australianas contêm bactérias fossilizadas com 3,5 bilhões de anos. E, para chegar a essas bactérias, a evolução de seres vivos já devia ter começado bem antes, talvez 4 bilhões de anos atrás. Ou seja, a vida teve início por aqui tão logo as condições ambientais -temperatura, quantidade de água, nitrogênio e oxigênio- o permitiram. É difícil imaginar que o mesmo não tenha se repetido pela galáxia afora, em talvez em milhões de planetas. A vida extraterrestre é, a meu ver, praticamente certa.

E a vida inteligente? Aí já são outros quinhentos. Vários cientistas levam a possibilidade da existência de civilizações extraterrestres ultra-avançadas muito a sério. Programas como o Seti (do inglês, "Busca por Inteligência Extraterrestre") vêm vasculhando os céus em busca de sinais de rádio gerados por outros seres inteligentes. O leitor interessado em uma lista desses programas pode consultar o site "Sky and Telescope" (www.skypub.com/news/special/seti-toc.html). A idéia é que outras civilizações também tenham desenvolvido tecnologias para transmitir e receber ondas de rádio, que poderiam ser captadas por antenas daqui. Dadas as absurdas distâncias interestelares, "ouvir" vida extraterrestre é uma solução muito mais em conta do que embarcar em explorações ao vivo de outros sistemas solares.

Mesmo supondo que essas civilizações existam, estabelecer um diálogo seria muito frustrante. Imagine uma civilização em um planeta orbitando uma estrela em nossa vizinhança cósmica, a, digamos, 50 anos-luz daqui. (A Via Láctea tem um diâmetro aproximado de 100 mil anos-luz; um raio de luz -ou uma onda de rádio- demora 100 mil anos para atravessá-la, viajando a uma velocidade de 300 mil quilômetros por segundo). Se, um dia, recebermos uma transmissão de lá, ela saiu há 50 anos. Se nós a respondermos, sempre uma questão a ser considerada com muito cuidado, eles só a receberão em 50 anos. Não vai dar para muita conversa, pelo menos em uma geração.

Até o momento, não ouvimos nada. Defensores do programa Seti argumentam que a galáxia é muito grande, que civilizações precisam de transmissores potentes para que seus sinais cheguem até nós ou que, talvez, essas civilizações não estejam interessadas em conversar conosco. Como dizia Carl Sagan, "a ausência de evidência não significa evidência de ausência". Talvez. Muito possivelmente, a resposta está na raridade que é o desenvolvimento de inteligência dentro do processo evolucionário. Um cálculo simples mostra que, se inteligência fosse uma consequência automática da vida, nossa galáxia deveria ter milhões de civilizações, a maioria bem mais antiga e desenvolvida do que a nossa. Essas civilizações teriam tecnologias de exploração espacial que nós nem podemos ainda conceber, e a galáxia inteira já estaria colonizada por elas. A menos que nós mesmos sejamos uma criação dessas civilizações, uma possibilidade bastante absurda, não encontramos evidência da sua presença na Terra ou em outros planetas. Onde estão esses visitantes quase divinos de outros mundos?

Se a vida não é tão rara, a inteligência, ao menos aqui na Terra, surgiu por acaso, consequência de uma série de eventos completamente aleatórios. É importante lembrar que os dinossauros reinaram sobre a Terra durante 150 milhões de anos. Nada indicava que essa situação fosse se alterar. Uma colisão com um asteróide ou cometa, há 65 milhões de anos, mudou o balanço da vida no planeta, criando condições para que os até então insignificantes mamíferos pudessem evoluir, enquanto os dinossauros foram extintos.

Podemos mesmo dizer que, se a história da vida, ao menos a que podemos imaginar, é um experimento evolucionário que depende delicadamente de condições muito particulares, a história da vida inteligente depende de uma combinação de fatores que a torna extremamente rara. Quem sabe não seremos nós a civilização que irá colonizar a galáxia?

domingo, 16 de julho de 2000

A relatividade continua linda

Aquele que acha que ser gênio é encontrar solução para todos os seus problemas quase que magicamente, a intuição fulminante trazendo a resposta que, para a grande maioria, seria impossível descobrir, está enganado. O tal grito do "Ah-ah!", quando uma idéia explode de repente na cabeça, é, em geral, apenas o começo do processo criativo. Do "Ah-ah!" até a teoria ou o experimento revelador existe uma longa estrada, onde "gênio" se mistura com o leviano suor -mesmo que o da mente, não o do corpo. "Gênio" é um desses adjetivos fáceis de usar, mas difíceis de definir quantitativamente: onde fica a linha divisória entre o "muito inteligente" e o "genial"? Essa questão anima muitos debates entre os neurocientistas. Deixando-a de lado, pois, afinal, o que importa é a obra (e não como classificamos a mente de quem a criou), falemos da teoria da relatividade de Einstein, este que, sem dúvida, dá corpo ao conceito de gênio.

Em torno de 1910, Einstein estava confuso; ele havia desenvolvido a teoria da relatividade especial em 1905, na qual mostrou como observadores -aqueles que medem coisas que acontecem em algum lugar no espaço e em um determinado momento no tempo, que podemos, sem rigor, chamar de "fenômenos" -movendo-se com velocidades relativas constantes poderiam trocar informações sobre suas medidas experimentais. Segundo essa teoria, a velocidade da luz representa o limite máximo com que observadores podem trocar informações. Mas a ênfase em movimentos com velocidades constantes incomodava Einstein; afinal, a maioria absoluta dos movimentos observados na natureza ocorre com velocidades que mudam de valor ou direção (ao fazermos uma curva, por exemplo), isto é, a maioria dos movimentos é acelerada.

Foi numa "visão" -que alguns chamam de intuição; outros, de gênio; outros, menos inclinados a assuntos científicos, de revelação- que Einstein deu seu primeiro passo em direção à nova teoria, que inclui movimentos acelerados, se bem que de forma inesperada. Einstein se imaginou caindo de um telhado bem alto; fazendo bom uso de sua visão, ele se perguntou como descrever os movimentos de outros objetos que caiam, hipoteticamente, a seu lado. "Ora", pensou ele, "se estivéssemos caindo, não sentiríamos a gravidade da Terra. Estaríamos em queda livre". O leitor que já desceu em um elevador bem rápido ou numa montanha-russa conhece a sensação de leveza que vem com a queda. Por outro lado, um elevador que sobe parece aumentar a gravidade terrestre. Einstein concluiu, em 1907, que gravidade e aceleração estão intimamente relacionadas; que um movimento acelerado (o elevador que sobe) pode imitar a ação da gravidade. Uma teoria da relatividade incluindo aceleração necessariamente inclui gravidade. "Como formular essa idéia matematicamente?", perguntou-se Einstein. Como transformar a "visão" em teoria quantitativa? Aqui começa o suor do gênio e de todos nós que tentamos dar corpo a uma idéia. Da mente ao mundo há uma longa estrada.

Foram nove anos de esforços -não contínuos, mas, mesmo assim, de várias tentativas- até Einstein dar corpo às suas visões. Ele não poderia ter feito isso sem a ajuda de seu amigo Marcelo Grossman, que o instruiu na matemática, que tornou-se a linguagem da teoria da relatividade geral. A consequência principal da nova teoria foi tornar o espaço (e o tempo) em entidades plásticas, deformáveis, devido à presença de matéria (e energia); uma estrela encurva o espaço à sua volta, fazendo com que corpos em sua vizinhança se movimentem de forma acelerada nessa geometria distorcida, um pouco como crianças descendo um escorregador.

A colaboração entre Grossman e Einstein é celebrada regularmente em uma conferência (neste ano, durante a primeira semana de julho, em Roma). A riqueza da teoria geral da relatividade é tal que centenas de físicos do mundo inteiro, incluindo vários brasileiros, vieram debater suas novas idéias sobre uma teoria que já tem 84 anos. Tópicos vão de estrelas exóticas, que no momento existem apenas no papel -a colaboração deste autor-, até as propriedades geométricas dos buracos negros, a geração e detecção de ondas gravitacionais e a origem e a geometria do Universo como um todo. A relatividade continua linda e mais estimulante do que nunca.

domingo, 9 de julho de 2000

O universo dos padrões que se repetem

Das menores escalas até as maiores, o Universo exibe uma série de padrões regulares que, grosso modo, podem ser resumidos em uma frase: existe um centro em torno do qual objetos transitam, movidos por uma força que aponta na direção desse centro. Vejamos alguns exemplos, do muito pequeno ao muito grande. Modelos do átomo são representados como tendo um núcleo com carga positiva, em torno do qual movem-se elétrons, de carga negativa. A força entre o núcleo e os elétrons é a atração elétrica entre cargas opostas. Mesmo que a estrutura do átomo seja bem mais complicada, essa imagem vale como uma primeira aproximação.

Na escala humana, os sexos opostos giram um em torno do outro, de vez em quando até se tocando. Já as mariposas giram em torno das lâmpadas, também tocando-as de vez em quando... OK, sem apelação, a próxima escala em que vemos esse padrão se repetir é na escala de atuação da força gravitacional. Primeiro, vemos a Lua girando em torno da Terra. E as muitas luas do sistema solar (pelo menos 63) orbitando seus planetas. Só Júpiter tem ao menos 16 luas. Essa corte de nove planetas e 63 luas orbita em torno do Sol, que por sua vez orbita o centro da Via Láctea, nossa galáxia. E o Sol, junto a mais algumas centenas de bilhões de outras estrelas, gira em torno do centro galáctico.

O mesmo padrão aparece em escalas ainda maiores. Galáxias de grande porte, como a Via Láctea ou a nossa vizinha Andrômeda, também têm suas galáxias satélites, orbitando as galáxias centrais como planetas em torno do Sol. Por exemplo, a nossa galáxia tem duas companheiras, as Nuvens de Magalhães, que estão a uma distância média de 300 mil anos-luz daqui. (Um ano-luz equivale a aproximadamente 10 trilhões de quilômetros.) As galáxias também gostam de se agrupar, formando aglomerados cuja dinâmica é caracterizada por um movimento orbital em torno do centro de massa, obtido a partir de uma espécie de média ponderada das várias galáxias no aglomerado.

Antes que o leitor fique tonto com tanto giro, faço uma observação que parece, ao menos hoje em dia, óbvia. O fato de o mesmo padrão reaparecer em tantas escalas diferentes -deixando o átomo de lado e se concentrando em astronomia- está nos dizendo algo de fundamental sobre esses objetos e a força que domina sua dinâmica, ou seja, a gravidade. Mas o quê? No século 18, o filósofo alemão Immanuel Kant sugeriu algo que, na época, parecia ser completamente inusitado: essa repetição do mesmo padrão, disse ele, é consequência do processo de formação desses vários sistemas, que também se repete das menores (planetas e suas luas) às maiores (galáxias) escalas. O mais incrível dessa proposta de Kant é que, na época, não se sabia que existiam outras galáxias; apenas em 1924 o astrônomo norte-americano Edwin Hubble demonstrou de forma conclusiva que o Universo é povoado por inúmeras (bilhões) galáxias, cada uma com seus milhões (para as anãs) ou bilhões de estrelas. Portanto, Kant intuiu a estrutura de um Universo que ninguém pôde confirmar por mais de cem anos.

Vamos voltar à escala humana e examinar outro padrão, talvez mais ameno à investigação científica do que a órbita dos sexos e das mariposas. Olhe para o seu corpo e para uma árvore na rua. O que você vê? Um tronco central, que se divide em troncos secundários, que se dividem em outros troncos ainda menores. O mesmo ocorre com rios: um rio maior, que se divide em tributários menores e estes em outros ainda menores, e assim por diante. O mesmo com o sistema circulatório, ou com os neurônios no cérebro. O que determina esse padrão? Otimização da distribuição da substância sendo transportada, do sangue e da seiva à água e aos impulsos elétricos. Essa hierarquia de troncos que se bifurcam leva à quantidade ideal da substância sendo transportada, usando o mínimo possível de energia.

Nós vivemos em um Universo onde a frequência com que certos padrões aparecem é consequência de processos de otimização ocorrendo em todas as escalas. O objetivo final de cada um desses sistemas, dos neurônios às árvores, aos planetas e às galáxias, é realizar uma tarefa usando o mínimo possível de recursos, garantindo assim a longevidade do sistema. Sem dúvida, a Natureza é sábia.