domingo, 24 de fevereiro de 2002

A origem da vida revisitada

.
Tudo o que é vivo, pelo menos dentro do que nós conhecemos como o que é vivo, é composto de complicadas moléculas ricas em carbono. Durante o primeiro bilhão de anos de vida da Terra, o grau de complexidade dessas moléculas cresceu até que, em certo ponto, elas passaram a ser capazes de se replicar e de se sustentar a partir da utilização de recursos do ambiente onde existiam. Em outras palavras, o inanimado virou animado, o que era um composto de carbono passou a ser um organismo vivo, capaz de se multiplicar e de se alimentar. Essa transição é um grande mistério.

O fato de a origem da vida ser um mistério não significa que temos de criar agentes sobrenaturais para explicar o que a ciência atual ainda não explica. A nossa ignorância não deve abrir portas para a superstição, mas sim para uma intensificação de nossas pesquisas, para que possamos, eventualmente, chegar a uma explicação aceitável. A origem da vida é uma questão científica e não teológica. Sendo assim, o que podemos dizer sobre ela, baseados na ciência moderna?

Até recentemente, muitos acreditavam que a resposta para o enigma da vida já havia sido dada pela teoria da evolução de Darwin, adicionada da genética moderna. Segundo a teoria da evolução, o motor por trás da incrível variedade entre as espécies é o processo de seleção natural, onde seres vivos são mais ou menos adaptados para sobreviver em seu ambiente e sob a constante competição com outras espécies por espaço e comida. A variação dentro de uma espécie ocorre devido a possíveis mutações genéticas durante a sua reprodução. Por exemplo, duas girafas de pescoço curto geram acidentalmente (essa é a mutação) uma girafa de pescoço mais comprido. Essa girafa mutante cruza com outras girafas e passa os seus genes para outras gerações, até que mais e mais girafas de pescoço comprido vão aparecendo. Como essas girafas podem alcançar as folhas mais altas das árvores, elas podem sobreviver melhor do que as de pescoço curto. Passados milhões de anos, só sobrevivem as girafas de pescoço comprido.

Raramente uma mutação será benéfica para a sobrevivência de uma espécie. Mais ainda, essas mutações são acidentais, sem causa ou objetivo final. Elas ocorrem aleatoriamente, levando ou não a uma vantagem do mutante sobre os seus companheiros de espécie.

A teoria da evolução é extremamente eficiente na descrição de como as espécies se diversificam. Mas ela não explica o "fenômeno vida", a transição entre o inanimado e o animado a que me referi antes. Dizer que a vida aqui na Terra veio do espaço também não resolve a questão, apenas a muda de lugar. O que complica as coisas é uma lei da física conhecida como segunda lei da termodinâmica, que diz que sistemas isolados (aqueles que não podem trocar energia com o exterior) tendem a ficar cada vez mais desordenados com o passar do tempo. Existe uma quantidade, a entropia do sistema, que mede o seu grau de desordem: quanto mais desordenado um sistema, maior a sua entropia. Ora, seres vivos são sistemas extremamente complexos, parecendo violar essa lei do crescimento da entropia. Como tal manifestação de ordem pode surgir em uma região pequena do espaço (um organismo) e sobreviver durante tanto tempo? A resposta vem do fato de seres vivos não serem sistemas isolados.

Quais os princípios organizadores por trás da complexidade dos seres vivos? Existem sistemas em física e química que são extremamente ordenados, mas que surgem espontaneamente a partir de estados extremamente desorganizados. Ordem surgindo da desordem, gerando complexidade onde antes havia apenas incoerência. Esses sistemas têm duas coisas em comum: eles são capazes de interagir consigo mesmos de formas complicadas e também de trocar energia com o exterior. A interação permite que o sistema se organize: por exemplo, o vapor d'água, quando é resfriado, condensa em gotículas que, de todas as formas, "escolhem" a forma esférica. Essas gotas são estados organizados. Já a troca de energia com o exterior tem duas funções: ela fornece a energia necessária para a formação de estados organizados e, em certos casos, mantém esses estados em existência, impedindo sua degeneração em um estado final desorganizado. A vida deve vir desse surgimento espontâneo de ordem a partir da desordem, ainda misterioso, mas cada vez menos.

domingo, 17 de fevereiro de 2002

Vôos da imaginação científica

A física, sendo uma ciência empírica, precisa ter suas teorias testadas por experimentos e observações feitos no laboratório ou, no caso da astrofísica, por meio de telescópios e outros instrumentos usados em medidas astronômicas. Portanto, teorias só são aceitas pela comunidade quando elas sobrevivem a toda uma bateria de testes realizados independentemente por vários grupos.


Esse processo, na verdade, é contínuo. Teorias que são aceitas hoje serão consideradas incompletas no futuro, quando elas forem testadas além dos limites da tecnologia atual. Um exemplo disso é a mecânica de Newton, que descreve muito bem os movimentos que ocorrem a velocidades bem menores do que a velocidade da luz, mas que falha para velocidades "relativísticas", isto é, comparáveis à velocidade da luz. Isso só ficou claro quando, no século passado, foi possível revelar os limites da mecânica newtoniana usando tecnologias que não existiam nos séculos anteriores.

O interessante é o que acontece quando temos teorias aparentemente saudáveis, mas que ainda não podem ser testadas empiricamente, em geral devido a limitações tecnológicas. É justamente nesse espaço entre a especulação teórica e o que é testável que brotam novas idéias em ciência. Pode-se até dizer que esse é o espaço em que vive a imaginação científica, onde cientistas, munidos de intuição e técnicas matemáticas, criam mundos imaginários que podem ou não corresponder à nossa realidade. Quanto mais longa a espera por dados empíricos, mais altos os vôos da imaginação científica, mais audazes as especulações e, consequentemente, maior a queda.

Essa é a situação atual da física das partículas elementares, dedicada ao estudo dos componentes mais fundamentais da matéria, como os elétrons e os quarks, as partículas que compõem os familiares prótons e nêutrons. Tudo o que se sabe sobre as partículas fundamentais e as suas interações entre si está resumido no chamado modelo padrão, que explica, com enorme sucesso, as propriedades e interações dessas partículas até energias centenas de milhares de vezes maiores do que as energias nucleares. Isso é, sem dúvida, um enorme triunfo da física moderna, que merece ser celebrado.

Para testar o modelo padrão, foi necessária a construção de máquinas extremamente complexas, com custos de bilhões de dólares, como as que existem nos EUA e na Suíça. Para quem acha um absurdo gastar essa quantia com ciência, é bom lembrar que apenas um bombardeiro B-2 da Força Aérea dos Estados Unidos custa mais de US$ 1 bilhão.

O problema é que o modelo padrão tem sérias limitações. A maioria dos físicos acredita que exista uma outra realidade além dele, que só será revelada quando alguém testar a interação entre as partículas a energias ainda mais altas do que as possíveis com a tecnologia atual. É aqui que entram as várias especulações teóricas, que tentam preencher as lacunas do modelo padrão.

Uma delas, a mais popular, tem o nome de supersimetria. Uma de suas várias vantagens é prever que as três forças fundamentais que regem as interações entre as partículas (a eletromagnética e as forças nucleares forte e fraca) serão unificadas a energias trilhões de vezes maiores do que as energias testáveis atualmente.

A teoria supersimétrica é extremamente elegante e promissora. Porém, uma de suas previsões é dobrar o número existente de partículas elementares, criando uma espécie de "mundo sombra", onde cada partícula de matéria teria o seu par: o elétron teria o "selétron", os quarks teriam os "squarks" etc.

Até agora, ainda não se observou nenhuma dessas parceiras supersimétricas, embora elas estejam sendo avidamente procuradas (no final de janeiro, o acelerador de partículas do Laboratório Nacional Fermi, o Fermilab, perto da cidade americana de Chicago, concluiu três anos de busca com resultado negativo). Isso não significa que a supersimetria esteja errada, ao menos por enquanto. É possível que as parceiras supersimétricas sejam muito mais pesadas do que as partículas normais, sendo, portanto, indetectáveis nos aceleradores atuais.

Como toda teoria bem arquitetada, a supersimetria também tem limites. O teste final virá em 2007, quando um acelerador em construção na Suíça será capaz de criar as partículas supersimétricas, caso elas existam. Caso contrário, o mundo será menos elegante, e outra teoria talvez ainda mais audaz terá de explicar as limitações do modelo padrão. Mas, ao menos, nós saberemos disso.

domingo, 10 de fevereiro de 2002

Ciência pós-moderna

.
O poeta romântico britânico John Keats (1795-1821), numa clara demonstração de seu desprezo pela ciência, acusou seu conterrâneo Isaac Newton (1642-1727) de destruir a beleza de um arco-íris ao explicá-lo quantitativamente a partir de equações da física. Keats, como todos os românticos, estava respondendo à preponderância do racionalismo na intelectualidade européia do início do século 19, tentando resgatar um lirismo que eles acreditavam perdido em meio a tantas fórmulas e leis matemáticas. Ao rotular a ciência de fria e destituída de beleza, Keats e seus companheiros revelaram a sua incompreensão do que realmente ela é e de como funciona.

Para aqueles que tentam desvendar os mistérios da Natureza pela razão, nada poderia ser mais belo e gratificante do que uma revelação, por menor que seja, dos mecanismos secretos que controlam o funcionamento do cosmo. Se o poeta descreve com palavras as suas emoções ao ver um arco-íris, os cientistas as descrevem com matemática e lógica. A motivação de ambos é trazer algo do mundo para a sociedade, algo capaz de adicionar novas perspectivas às nossas vidas. Mas o arco-íris é o mesmo, seja ele revelado por palavras ou equações. E é belo tanto em letras quanto em números.

Essa confusão entre o que é a ciência e de qual é a sua linguagem não é nada nova e também não é restrita aos meios não especializados. O físico e escritor britânico C.P. Snow escreveu um ensaio no final dos anos 50 intitulado "As Duas Culturas", no qual expõe o grande vão que existia (e existe) entre as ciências e os "intelectuais humanistas", como por exemplo aqueles que escrevem ensaios críticos sobre literatura, psicanálise e sociologia. Segundo Snow, a rixa entre essas duas culturas está levando a uma divisão cada vez maior da sociedade, onde cientistas e intelectuais tornam-se mais herméticos e entrincheirados, uns críticos da missão dos outros, num cabo de guerra que acaba por fossilizar a ambos. Talvez essa rixa entre as duas culturas seja justamente a versão moderna da divisão entre os racionalistas e os românticos do século 19, revestida de um linguajar mais sofisticado, mas não menos nocivo.

Uma das críticas feitas à ciência pela cultura humanista vem da corrente pós-modernista, onde o ato de ler ou interpretar um texto não pode jamais ser desengajado de quem o está lendo, de quando ele está sendo lido e de onde ele foi escrito e está sendo lido. Segundo os filósofos da corrente pós-moderna, como Michel Foucault e Jacques Derrida, o mesmo texto tem inúmeras interpretações ou significados, que dependem da bagagem cultural de quem o lê. De certa forma, o ato de ler interfere com o que está sendo lido, com o leitor dotando o texto de um significado próprio.

Algo semelhante aparece na física quântica, a que descreve o comportamento dos átomos, sob o nome de "princípio de incerteza": o ato de observar interfere no que está sendo observado. No mundo do muito pequeno, o observador não pode ser separado do observado, formando ambos um todo indivisível. Na literatura, o significado do texto depende de como ele é lido, constituindo leitor e texto um todo indivisível.

A aplicação dos conceitos pós-modernos à ciência gera uma enorme confusão. Afinal, o grande triunfo da ciência é justamente criar símbolos descritivos que têm um único significado, como as leis da natureza, imutáveis e atemporais. As leis de Newton, que descrevem o movimento dos corpos materiais, são válidas em qualquer lugar do mundo e do Universo, desde que aplicadas dentro de seus limites. Imagine o caos que existiria se as leis da natureza fossem passíveis de uma interpretação cultural, se engenheiros na Índia e no Brasil discordassem de como os princípios da estática funcionam. Certamente, em um dos dois países, os prédios jamais ficariam de pé.

Foi a essa confusão que aludiu a crítica de C.P. Snow, para quem deve-se ter muito cuidado ao aplicar conceitos de uma área em outra. Isso é verdade ao se tentar discutir o "significado do significado" na interpretação da ciência ou o princípio da incerteza na literatura. E como podemos evitar que a confusão permaneça? Por meio de uma cooperação mútua entre profissionais de ambas as culturas, quem sabe até criando uma terceira cultura, caracterizada pela multidisciplinaridade, na qual os limites de cada uma delas são reconhecidos e explorados na geração de novo conhecimento.

domingo, 3 de fevereiro de 2002

O mestre da incerteza

.
O último mês de dezembro marcou o centenário do nascimento do grande físico alemão Werner Heisenberg, um dos pioneiros da mecânica quântica, cuja descrição do comportamento dos átomos e das partículas subatômicas, os tijolos fundamentais da matéria, revolucionou a visão de mundo moderna.

A trajetória profissional de Heisenberg foi espantosa: aos 21 anos ele terminou o seu doutoramento em Munique; no ano seguinte, em 1924, foi a Copenhagen trabalhar com o já famoso Niels Bohr; em 1925, desenvolveu a primeira versão da mecânica quântica, enquanto se recuperava de uma séria crise de alergia na ilha de Heligoland, na Dinamarca; e, em 1927, introduziu o "princípio de incerteza", que redefiniu a maneira de interpretarmos as nossas interações com o mundo. Esses feitos, já suficientes para reservar a sua presença no seleto grupo dos imortais da ciência, são apenas parte do seu legado.

Se a herança de Heisenberg como cientista é impecável, já como cidadão do mundo a situação é bem mais complicada. Isso porque o físico chefiou o projeto nuclear nazista durante a Segunda Guerra Mundial, por motivos que, ainda hoje, não estão exatamente esclarecidos. De fato, os leitores que tiveram a oportunidade de assistir à peça teatral "Copenhagen", de Michael Frayn [em cartaz em São Paulo", sabem que a atuação de Heisenberg na Alemanha nazista é tão ambígua quanto as incertezas que ele descobriu no mundo dos átomos.

Existem versões diferentes de por que Heisenberg não abandonou a Alemanha, como fizeram vários cientistas da época. Ele pode ter ficado para ajudar o país a desenvolver o seu programa nuclear, tanto na construção de reatores como na fabricação de bombas. Se é razoável questionar tal posição, devemos lembrar que Heisenberg, como a maioria dos alemães, sofreu muitas privações durante e após a Primeira Guerra Mundial, quando a Alemanha passou por séria crise econômica. Patriota, Heisenberg não queria que seu país e seus filhos passassem pelas mesmas humilhações. Não seria a primeira vez na história que o patriotismo cegaria até os mais iluminados.

Também é perfeitamente possível que Heisenberg tenha ficado na Alemanha justamente para sabotar o programa nuclear nazista, criando pistas falsas que impedissem o seu sucesso. Após o fim da guerra, ficou claro para os aliados que os nazistas estavam longe de conseguir chegar ao processo de fissão descontrolada dos núcleos atômicos, que leva à colossal liberação de energia das explosões nucleares. Heisenberg, como em seu princípio, nos deixou com a incerteza de não sabermos qual foi a sua escolha, de herói da humanidade ou de patriota cego.

Afinal, o que diz o famoso princípio? À primeira vista, ele não parece ser muito interessante, ao afirmar, em sua versão mais simples, que é impossível medir-se simultaneamente a posição e a velocidade de uma partícula com precisão arbitrariamente alta. Por exemplo, se quisermos saber a posição e a velocidade de um elétron que gira em torno de um núcleo atômico, teremos de nos contentar com medidas de precisão limitada. E, o que é pior, quanto mais tentarmos melhorar a precisão de uma das medidas, maior será o erro na outra.

Para medir algo, é preciso interagir com o que se está medindo. Imagine que você está na rua, à noite, em plena escuridão (durante um apagão, por exemplo), procurando seu carro. Você acende uma lanterna e é a luz dela, refletida pelo carro e viajando até a sua retina, que acusa a sua posição. Os raios luminosos são a "ponte", a interação entre o carro o objeto obervado e você o observador. Imagine que você possa encolher o carro até ele ficar bem pequeno, do tamanho de uma bactéria. Isso é o que ocorre em um microscópio, e a luz do microscópio é refletida (e transmitida) pela bactéria, acusando a sua posição. Aqui cabe lembrar que a luz, sendo uma onda se propagando pelo espaço, pode empurrar objetos. Claro, eles têm de ser bem pequenos para que isso ocorra -menores ainda que uma bactéria. Quando se chega aos elétrons e outras partículas, a luz que usamos para "enxergá-los", isto é, para medir a sua posição, acaba empurrando-os para longe, fazendo com que eles ganhem velocidade. Daí a incerteza entre a posição e a velocidade. Pelo menos esse tipo de incerteza, descoberta pelo mestre delas todas, pode ser compreendido mais facilmente do que aquelas que existem em nossas mentes, secretamente, confundindo as escolhas que fazemos pela vida afora.