domingo, 26 de dezembro de 1999

Crônica para um novo milênio

Nós temos o privilégio de ser seres "intermilenares", com um pé no milênio que está por terminar e outro no milênio que está por começar. Daí que olhamos tanto para trás quanto para a frente, a história nos ensinando a não repetir os erros do passado e nos inspirando a repensar o futuro.

É difícil resistir à tentação de fazer comparações e projeções, apesar de as projeções serem, na maioria, errôneas. Mas, se pensarmos no mundo ocidental na passagem do último milênio, no ano 1000, e no mundo agora, no ano 2000, percebemos a enormidade das transformações que ocorreram nos últimos mil anos. E começamos a sonhar com o que poderá acontecer nos próximos mil.

A Europa estava assolada pelas trevas medievais, com pestes, pobreza, fome e superstições de todos os tipos. A crença no milenarismo -em que a chegada do ano 1000 coincidiria com o dia do Julgamento Final, quando o Messias reinaria na Terra, inaugurando uma nova era de paz e justiça para aqueles que suportaram seus sofrimentos com virtude e fé- oferecia esperança e terror.

Passados mil anos e aqui estamos nós, com uma sonda meteorológica tentando pousar em Marte (com certos problemas, mas...), a sociedade globalmente "internetizada", realidades sendo reinventadas virtualmente em mundos de silício e nanotecnologia, seres vivos sendo clonados e redesenhados, a humanidade participando como criadora no processo evolucionário, o Universo em expansão, o estudo da física no interior do núcleo atômico, a descoberta dos buracos negros, de outros sistemas solares, das vacinas e dos antibióticos.

Passados mil anos e aqui estamos nós, guerras matando mais nesse século do que em toda a história da humanidade, a população mundial passando dos 6 bilhões, a maioria com fome, doente e analfabeta, a poluição industrial e urbana causando sérios distúrbios ecológicos e climáticos e prometendo outros muito piores, a intolerância pelas diferenças raciais, políticas e culturais e a falta de respeito ao próximo em plena alta, a explosão do capitalismo global afogando economias emergentes, os abusos da energia nuclear ameaçando nossa destruição global e problemas de controle do lixo atômico, a engenharia genética forçando uma nova ética para a humanidade, onde a própria definição do que significa ser humano está em jogo, as pessoas sempre com pressa, muita pressa.

Passados mil anos, nós sabemos pôr um homem na Lua, mas ainda não sabemos como não nos matar. Tanto progresso e tão pouco progresso. Tantas descobertas e tanta ignorância. O que será de nós daqui a mil anos? Será que nós ainda estaremos aqui, nesse planeta que está se tornando cada vez menor para acomodar nossos sonhos e nossas ganâncias? Ou será que levaremos a cabo o processo evolucionário sobre nós mesmos e nos extinguiremos como espécie? Eu, eterno otimista, vejo um futuro muito melhor.

Infelizmente, para chegarmos lá, como nas visões escatológicas dos milenaristas, a coisa vai primeiro piorar. Infelizmente, nós temos uma grande capacidade de reação, mas não de prevenção; nós funcionamos sob pressão. As mudanças climáticas vão ter de causar danos financeiros e sociais sérios antes que os governos façam realmente alguma coisa a respeito. As pesquisas em genética vão criar situações inesperadas que vão acabar por ampliar nossos horizontes éticos, e não criar uma nova treva medieval. A distribuição de alimentos e de riqueza vai melhorar a qualidade de vida da população global. Novas fontes de energia, benignas e renováveis, vão reformular nossa relação com a atmosfera. Tecnologias misturando genética e nanotecnologia irão criar novas curas e novos seres, meio humanos, meio máquinas, que irão pensar e sentir como nós.

Do mesmo modo que nos últimos mil anos nós exploramos nosso planeta, viajando pelos seus quatro cantos, nos próximos mil nós iremos explorar os quatro cantos do nosso e de outros sistema solares, criando novas terras para povoar de vida nossa galáxia. E, quem sabe, até estabelecer contato com outras formas de vida inteligente. O paraíso na Terra, se vier a existir, terá de ser nossa criação.

domingo, 19 de dezembro de 1999

Os silenciosos ruídos do Universo

Você liga seu rádio e pronto: música, notícias, comerciais, informações enviadas por estações de rádio a enormes distâncias. Uma confusão bastante comum que se faz é achar que ondas de rádio e de som são a mesma coisa. Na verdade, ondas de som e de rádio são duas coisas muito diferentes.

Quando escutamos algum ruído é porque algum distúrbio se propagou pelo ar até chegar aos nossos ouvidos, onde essas vibrações são transformadas em sons pelo nosso cérebro. Sem um meio material, como o ar, não existe som. O mesmo com ondas de água; algum distúrbio, como a queda de uma pedra, gera ondas que se propagam pelo meio que lhes dá suporte, no caso, a água.

Já as ondas de rádio são parte das ondas eletromagnéticas, geradas quando cargas elétricas oscilam com alguma frequência. A luz também é uma onda eletromagnética que, após ser captada por nossos olhos, é transformada em imagem no nosso cérebro. A única diferença entre luz e ondas de rádio é a sua frequência; ondas de luz têm frequências centenas de milhares de vezes maiores do que as ondas de rádio.

Como nosso equipamento para captação de ondas eletromagnéticas é bastante limitado (a luz visível pelos olhos e a radiação em infravermelho, ou calor, pela pele), ondas de rádio passam por nós despercebidamente. O mesmo ocorre com outros tipos de ondas eletromagéticas com frequências ainda maiores do que a luz visível, como a radiação ultravioleta, os raios X e os raios gama, sendo que que algumas podem ser bem nocivas à saúde.

Quando você liga seu rádio, ele capta ondas eletromagnéticas na frequência de ondas de rádio (FM, em torno de 88 milhões a 108 milhões de ciclos por segundo, ou megahertz), transformando-as em sons audíveis por nós, vibrações que se propagam no ar e são transformadas em som no nosso cérebro.

A música e as vozes que ouvimos, com frequências entre 50 e 4.500 hertz -muito menores que os milhões de ciclos das ondas de rádio-, estão codificadas nas ondas de rádio emitidas pela estação. Portanto, as estações mandam uma espécie de onda combinada de alta e baixa frequência (chamada de onda modulada), produzida pelo movimento das cargas elétricas nas suas antenas de transmissão.

As estações AM e FM na Terra não são as únicas fontes de ondas de rádio. Nós sabemos que vários corpos celestes, como estrelas e nebulosas, emitem ondas eletromagnéticas, pois podemos vê-las. Toda a astronomia ótica é baseada no fato de que estrelas e outros objetos astrofísicos geram quantidades enormes de radiação eletromagnética, devido ao movimento acelerado de cargas elétricas que, a altas temperaturas, têm frequências na porção visível do espectro.
Ou seja, podemos ver esses objetos. Mas, se isso é verdade, esses e outros objetos podem gerar ondas eletromagnéticas que, apesar de invisíveis, são tão reais como a luz das estrelas. Hoje em dia, a astronomia é subdividida em todas as janelas das ondas eletromagnéticas, da radioastronomia à de raios gama.

Um novo projeto em radioastronomia promete revolucionar nosso conhecimento nessa área. Nós sabemos que fontes de rádio são em geral "frias", geradas em processos no interior de galáxias ou na formação de sistemas solares. As dimensões do projeto Alma (do inglês Grande Arranjo em Milímetros de Atacama) são realmente fantásticas: 64 antenas parabólicas, cada uma com diâmetro de 14 m, arranjadas em uma área de cerca de 10 km de extensão. Quando trabalharem juntas, as antenas serão equivalentes a uma única antena do tamanho de um campo de futebol. Essa estrutura será construída no deserto de Atacama, no Chile, uma das regiões mais inóspitas e secas do planeta, a 5.500 m de altitude.

A vantagem das ondas de rádio é que elas atravessam zonas com poeira e gás. (A recepção do seu rádio não piora com a poluição). Com isso, podemos "ver" fenômenos ofuscados no visível, como regiões em que uma estrela e seus planetas estão nascendo. As antenas da Alma poderão também "ver" objetos a vários bilhões de anos-luz de distância, mais antigos que a Terra: Alma será uma janela para a própria infância do Universo.

domingo, 12 de dezembro de 1999

Será que as fontes de petróleo vão se esgotar?

Eu me lembro, quando ainda garoto, da famosa crise no abastecimento de petróleo nos anos 70: racionamento de gasolina, preços altos, filas intermináveis nos postos e viagens curtas nos finais de semana. Neste fim de milênio, vale lembrar que nossa absoluta dependência de combustíveis fósseis pode também levar a vários prognósticos apocalípticos. O que será do mundo se o petróleo acabar?

A crise dos anos 70 acelerou nosso interesse em criar fontes alternativas de energia, como o programa do álcool no Brasil ou de carros movidos a gás natural, que também é um combustível fóssil como o petróleo, mas bem mais abundante. A ênfase deve ser em fontes não só alternativas, mas também renováveis.

Uma possibilidade interessante é o uso de hidrogênio como combustível. Hidrogênio é, de longe, o elemento mais abundante no Universo, em torno de 75%, seguido do gás hélio, com 24%. Mais ainda, um carro movido a hidrogênio produz vapor de água, e não os vários gases tóxicos e poluentes que são produzidos na combustão da gasolina. As vantagens são óbvias. Os primeiros carros movidos a hidrogênio estão programados para ser lançados em 2004, um ótimo presente para a humanidade do novo milênio.

Os países mais poluentes do mundo são os EUA e a China. No caso da China, o combustível mais usado é o carvão, o que faz com que 9 das 10 cidades mais poluídas do mundo estejam em território chinês. Em torno de 33% das mortes nessas cidades estão relacionadas a doenças pulmonares, cardiovasculares e formas de câncer causadas pelo uso abusivo de carvão como combustível.

No caso dos EUA, 40% da poluição causada pelo petróleo vem de automóveis. É realmente absurda a relação dos americanos com carros e a relutância generalizada no uso de transportes públicos. Indo ao trabalho de manhã, você vê milhares de carros com apenas um motorista, todos empilhados no trânsito, enquanto o metrô e os trens passam vazios ao lado das avenidas. Em São Paulo a coisa não é muito melhor, e uma reforma nos transportes públicos é fundamental para garantir o futuro dessa cidade. E de várias outras no Brasil.

Enquanto não desenvolvemos fontes alternativas e renováveis de energia a preços acessíveis, o debate sobre as reservas mundiais de petróleo continua. Mas o foco do debate mudou. Hoje, ao contrário dos anos 70, as previsões são de que as reservas de petróleo durarão muito mais do que o esperado, confortavelmente pelos próximos cem ou mais anos. Eu acho essa previsão lamentável, pois ela irá desacelerar as pesquisas em produção alternativa de energia; infelizmente, novas fontes só irão se tornar viáveis quando houver interesse econômico por trás.
Considerando que anualmente cerca de 14 milhões de galões de petróleo são "acidentalmente" despejados em águas doces e salgadas, fora a poluição atmosférica e o efeito estufa que é causado pela combustão de vários derivados do petróleo, é uma forma de cegueira não acelerarmos as pesquisas de outros combustíveis. A questão não é mais se o petróleo vai acabar, mas se ele vai acabar com a gente.

Para piorar as coisas, em um recente livro, o físico iconoclasta Thomas Gold, ex-diretor do Centro de Radiofísica e Pesquisas Espaciais da Universidade de Cornell, nos EUA, sugere que o petróleo não vai acabar tão cedo, que ele é constantemente renovado por todo um ecossistema subterrâneo que até o momento permanece invisível. Sua idéia é que vastas quantidades de materiais orgânicos foram armazenadas no interior profundo da Terra durante sua infância.

Esses materiais percolam através de rochas até atingir profundidades entre 10 km e 300 km, onde eles são consumidos por vastas colônias de microrganismos, com mais massa orgânica do que toda a vida na superfície. Devido a movimentos internos na Terra, esse material recombinado sobe ainda mais, onde ele é depositado nos reservatórios de petróleo e gás que exploramos. Claro, a hipótese de Gold é altamente especulativa e, espero, errada. Mas, caso ele esteja certo, o nosso futuro vai depender de nossa sabedoria e não de nossa ganância.

domingo, 5 de dezembro de 1999

A explosiva origem da matéria

Qual a origem da matéria? De onde vem a matéria que preenche o Universo, suas galáxias com bilhões de estrelas, planetas e pessoas? Até recentemente, essa pergunta fazia parte daquele grupo de perguntas misteriosas que dependem mais da fé do que da ciência. Nós ainda não sabemos qual a resposta, mas temos hoje algumas idéias interessantes, talvez os primeiros passos em direção a uma compreensão mais profunda do Universo.

A cosmologia moderna é baseada no modelo do Big Bang, que diz que o Universo teve uma infância muito quente e densa. A idéia é que, próximo ao início de sua história, o Universo era uma espécie de sopa de partículas que interagiam ferozmente com a radiação. O Universo foi gradativamente se expandindo e se resfriando e, aos poucos, estruturas mais complexas foram se formando, começando com núcleos atômicos bem leves, depois átomos de hidrogênio que formaram nuvens enormes e instáveis que, ao colapsar, originaram as galáxias e estrelas.

A composição química do Universo também é bastante simples. Basicamente, o Universo consiste em 75% de hidrogênio, 24% de hélio e o 1% restante de átomos, incluindo carbono, nitrogênio e oxigênio. Esses elementos mais pesados não foram formados na fornalha primordial, mas sim em estrelas, em particular durante os processos que marcam a "morte" desses objetos.

Mas esse cenário supõe que, de alguma forma, existia já uma sopa de partículas. Esse é um problema conhecido como uma "condição inicial", semelhante a um livro de receitas: dadas certas partículas, nós sabemos como "cozinhar" o resto da matéria usando a expansão do Universo como forno. A questão é como que essas partículas apareceram; será que existe algum mecanismo capaz de gerá-las usando as leis da física e não uma "condição inicial"? É como se os cosmólogos tivessem chegado atrasados no cinema e tivessem perdido o início do filme. E com o Universo, não dá para esperar pela próxima sessão...

Para responder a essa pergunta é necessário ir além do modelo do Big Bang em sua versão mais simples, que supõe a existência das partículas. Durante as últimas duas décadas, uma nova versão do Big Bang conhecida como modelo "inflacionário" vem revolucionando nossa concepção da infância do Universo. Essa nova versão da cosmologia também tem algo a dizer sobre a origem da matéria. Se não a resposta final, ao menos um novo modo de se pensar sobre ela. No modelo inflacionário, o Universo não começa como uma sopa primordial de partículas, mas quase vazio. Tudo o que existe é uma fonte de energia que faz com que o Universo se expanda de forma rápida. Essa expansão faz com que a temperatura do Universo seja baixa e não alta, como no modelo tradicional. No modelo inflacionário, o Universo começa frio e não quente.

Aos poucos, essa fonte de energia vai relaxando e chegando ao seu ponto mínimo, como uma bola rolando colina abaixo até chegar a uma vala. Como sabemos, uma bola que rola até uma vala oscila em torno do ponto mínimo até parar lá devido à fricção. Pois é, essa fonte de energia faz a mesma coisa. A diferença é que, no caso do Universo, a energia liberada pela fricção reaparece em forma de partículas. É como se a vala estivesse cheia de partículas inertes que são "acordadas" pela bola.

O resultado é um caos completo: partículas aparecem em números enormes e começam a popular o Universo e a esquentá-lo. Esse processo explosivo, conhecido como ressonância paramétrica, é observado em vários outros sistemas físicos sem nenhuma relação com o Universo. Só que, no Universo, ele dá origem às partículas e ao calor inicial que chamamos de Big Bang. Portanto, de acordo com o modelo inflacionário, o Big Bang não é o começo do filme. O começo fica com a origem dessa fonte de energia, um problema que deixo para outro dia.

domingo, 28 de novembro de 1999

Ciência, ética e imortalidade



A pesquisa, tanto nas universidades quanto nas indústrias, é financiada por uma combinação de fundos oriundos do governo e da iniciativa privada, isto é, a própria indústria. Daí que existe uma subdivisão não muito clara entre dois "tipos" de pesquisa, a básica e a aplicada.
Em princípio, a pesquisa básica seria a que não tem em vista sua aplicação imediata na criação e no aperfeiçoamento de tecnologias, estando mais preocupada em entender os fenômenos naturais. A pesquisa aplicada é, também em princípio, direcionada ao mercado, à criação de novas tecnologias que darão lucro para empresas ou independência tecnológica ao Estado.

Na prática, as fronteiras entre pesquisa básica e aplicada são difíceis, em muitos casos, de ser separadas. Daí que é muito comum certos projetos terem um financiamento híbrido. Projetos financiados pelo Estado, como os que vem fazendo a Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo), aliás exemplarmente, podem ter aplicações futuras no mercado, como o Projeto Genoma, que busca o mapeamento genético do ser humano. Há o lado da pesquisa básica, a compreensão de nossa estrutura genética, e o lado aplicado, como a cura de doenças, que dependerá de procedimentos médicos que gerarão lucro.

Certas áreas de pesquisa têm um impacto imediato na sociedade. Dois exemplos importantes são a pesquisa na física nuclear e na área da engenharia genética. Em ambos os casos, há financiamento do governo e privado. Em ambos os casos, há a possibilidade de lucro. Na pesquisa nuclear, o lucro pode vir da geração de energia e das inúmeras aplicações médicas. No caso da engenharia genética, das várias aplicações na indústria de alimentos e na medicina. Em ambos os casos, as novas tecnologias podem ser usadas para destruir. A ciência tem o lado luz e o lado sombra.

Em um futuro não muito distante, vamos poder clonar seres humanos, cópias idênticas de você. Poderemos também criar "fazendas humanas", verdadeiras plantações de seres destinados apenas a nos prover com órgãos para transplantes. Esses seres seriam criados com cérebros atrofiados, primitivos, e não se oporiam a nada, como galinhas no matadouro. Eles seriam humanos? Quem teria direito de decidir isso? Um clone seu será mais ou menos humano que você? Esse clone não será "você" sob o ponto de vista psicológico, não terá suas memórias etc. Mas ele/ela poderá aprender tudo a seu respeito. E, se for possível construir um clone que não envelheça rápido (um problema que aflige os clones animais de agora), você poderá existir indefinidamente: imortalidade genética! É só ir de clone em clone...

Num futuro um pouco mais distante, talvez sejamos capazes de captar a essência do seu consciente, a informação neuronal do seu cérebro, o que você é, em um hipercomputador, um híbrido de tecidos orgânicos com chips rápidos. As pessoas poderão conversar com esse computador, que terá a sua voz. Quem é esse computador? Você? Existe então a possibilidade de uma imortalidade não só genética, mas também computadorizada, um programa que será a sua essência e que, em princípio, poderá existir para sempre. Você será uma máquina imortal.
Essas realidades meio que fantásticas ainda não existem. Mas elas poderão vir a existir, mais cedo do que nós pensamos. Seria inútil tentarmos controlar de alguma forma o progresso da pesquisa, genética ou qualquer outra. Ela irá acontecer do mesmo jeito, se não oficialmente, clandestinamente, o que é muito pior. Os cientistas têm o dever de alertar a população do impacto imediato e projetado de suas descobertas, sejam elas financiadas pela indústria ou pelo Estado: algumas questões vão além do lucro. Aqui entra a ética da ciência, na democratização da informação pela pesquisa. O debate do nosso futuro como espécie pertence a todos.

domingo, 21 de novembro de 1999

O paradoxo da unificação


O avanço da maioria das ciências depende da eficiência com que generalizações são feitas; dada uma grande variedade de fenômenos, é sempre muito mais atraente tentar explicá-los a partir de uma ou poucas idéias do que ter uma idéia para cada. Em física, nós usamos a mesma equação matemática para descrever vários fenômenos diferentes. É o caso das leis de movimento de Isaac Newton, que podem ser aplicadas na descrição de qualquer movimento que ocorra na natureza, contanto que: 1) ele não seja muito rápido quando comparado à velocidade da luz, de 300 mil quilômetros por segundo; 2) ele não seja o movimento de objetos muito pequenos, na escala molecular ou menor (atômica, nuclear etc.); 3) ele não esteja em uma região com fortes forças gravitacionais, como muito perto do Sol ou de um buraco negro. Ou seja, movimentos na escala "humana" são devidamente descritos pelas leis de Newton.

Quando tentamos descrever o mundo à nossa volta, temos de usar aproximações. Segundo Newton, o mundo pode ser descrito a partir de partículas (ou objetos) interagindo por meio de certas forças. O Sol atrai a Terra devido a sua gravidade (e a Terra atrai o Sol de volta; é a terceira lei de Newton); uma carga elétrica atrai outra de carga oposta ou repele sua irmã de mesma carga. A ação dessas forças nas partículas faz com que elas se movam em movimentos acelerados. Essa mesma descrição é usada em escalas bem menores, onde há outras forças, que só atuam em distâncias nucleares: as forças nucleares forte e fraca. Portanto, usando essa descrição do mundo a partir de partículas e forças, chegamos a uma realidade em que fenômenos podem, ultimamente, ser descritos por essas quatro forças atuando sobre partículas. Esse é o mundo de acordo com o método reducionista, que foi e é eficiente na nossa descrição da natureza e de suas complexidades.

O clímax do reducionismo seria chegar a uma descrição do mundo usando apenas uma força atuando nos blocos fundamentais da matéria: Essa força unificaria a ação de todas as outras quatro forças, e toda a matéria poderia ser reconstruída a partir desses blocos fundamentais. Essa teoria unificada é às vezes chamada de "teoria de tudo", um nome que, acredito, é extremamente infeliz. Sem dúvida, a evolução da física se deu, em grande parte, devido ao nosso esforço em unificar conceitos e idéias, em procurar os aspectos mais fundamentais da realidade, que se escondem por trás de uma aparente complexidade; a natureza, em muitos casos, revela uma simplicidade belíssima, que nós, a partir de nossas leis, conseguimos às vezes descrever.

Mas o sucesso pode criar vícios. Nas últimas décadas, apesar de todos os esforços por uma teoria de unificação, a física está cada vez mais fragmentada: para a maioria dos físicos, chegar ou não a uma teoria que descreva as quatro interações como apenas uma, a energias zilhões de vezes maiores que as do nosso dia-a-dia (em torno de 10 bilhões de bilhões de vezes maiores do que as energias que ligam um elétron a um próton para formar um átomo de hidrogênio), é irrelevante; essa teoria unificada não os ajudará a compreender melhor os processos térmicos que ocorrem em seus cristais ou no interior de Júpiter, ou como funciona a memória.

Aparentemente, há uma divisão "social" entre os físicos e outros cientistas com relação a essas questões. Em defesa da busca pela unificação, deve ser dito que é provável que, caso um dia tenhamos tal teoria, ela irá nos revelar aspectos profundos da natureza, impossíveis de prever. Essa é uma lição da história que não devemos esquecer. Por outro lado, deve-se também dizer que há problemas fundamentais na ciência que são independentes de uma teoria da unificação e, mais importante, igualmente relevantes. É na complementariedade das linhas de pesquisa que está a força da ciência, e não na competição por relevância.

domingo, 14 de novembro de 1999

Um mundo imerso em ondas



Ondas estão por toda a parte. Nós ouvimos porque ondas de som se propagam pelo ar, fazendo vibrar o delicado mecanismo dentro de nossos ouvidos. Quando vemos algo, nossos olhos estão captando ondas luminosas refletidas pela superfície do objeto. Os processos neuronais que traduzem esses estímulos externos em sensações são ainda objeto de muita pesquisa. Mas sabemos que os neurônios responsáveis por essa "tradução" funcionam devido à propagação de ondas elétricas pelos axônios. O mapa de realidade externa que é reconstruído em nosso cérebro é o resultado da propagação e interação de diversos tipos de ondas. Mas o que é uma onda?

Por incrível que pareça, essa pergunta tem várias respostas. Fundamentalmente, a existência de ondas deve-se ao amor que a natureza tem pelo equilíbrio estável; quando um sistema em equilíbrio é levemente perturbado, ele tenderá naturalmente a voltar à condição de equilíbrio. A superfície de um lago, ou de uma banheira cheia d'água, permanece intacta, a menos que algum estímulo externo perturbe esse equilíbrio. Rapidamente, ondas concêntricas se propagam a partir do ponto de contato, e a energia extra depositada ali é então dissipada: o sistema volta ao equilíbrio. Portanto, podemos dizer que ondas são uma propagação organizada de um desequilíbrio.

Em geral, ondas são resultados de perturbações lineares, ou seja, que provocam uma resposta proporcional ao estímulo: um estímulo duas vezes maior provoca uma resposta do sistema duas vezes maior. Quando o problema é formulado matematicamente, as soluções das equações representam as ondas que observamos no lago.

Nem todo estímulo gera uma resposta linear. Vários sistemas são dominados por efeitos não-lineares, em que um pequeno estímulo pode gerar uma resposta muito intensa e vice-versa, sem uma relação simples entre os dois. Um exemplo dramático é o de uma onda quebrando na areia. No mar, vemos ondas na superfície com períodos de cinco a dez segundos; esse regime é essencialmente linear.

Quando essas ondas se aproximam da praia, a menor profundidade aumenta a influência de termos não-lineares. A amplitude da onda aumenta, sua velocidade diminui e, não podendo mais se sustentar, ela quebra, fazendo com que o movimento organizado se torne turbulento. Mas seria prematuro concluir que toda a não-linearidade leva à destruição de ordem. Em certos sistemas, é justamente a não-linearidade que provoca a manutenção da onda, compensando exatamente sua tendência natural de se dispersar, como uma espécie de cola. Essas configurações estáveis e não-lineares são conhecidas como sólitons.

Em 1834, o engenheiro inglês J. Scott Russell relatou seu encontro com um sóliton, ou onda solitária: "Estava observando um barco puxado por dois cavalos em um canal estreito, quando os cavalos pararam subitamente. Uma massa de água formou-se em torno do barco e começou a se propagar a uma alta velocidade (15 km/h), uma formação solitária e elegante, que viajou pelo menos por dois ou três quilômetros, até eu perdê-la de vista."

Hoje vemos sólitons em praticamente todas as áreas da física, desde a propagação de sinais em fibras óticas e domínios magnéticos em vários materiais até a condução de certos impulsos nervosos. A não-linearidade também pode trazer a ordem. Claro, ondas não são restritas ao mundo visível. Átomos e partículas de matéria e de radiação (ou, no visível, luz) também são descritos por ondas. Essas "ondas de matéria" não sofrem dissipação como as ondas no mundo visível à nossa volta: a mecânica quântica mostra que ondas de matéria nunca param por si só. Talvez exista uma relação profunda entre ondas e nosso conceito de tempo. Afinal, mudanças ou transformações são uma manifestação da passagem do tempo.

domingo, 7 de novembro de 1999

Métodos para datar o passado

Quando cientistas dizem que certa espécie de dinossauro existiu há 100 milhões de anos ou que certos microrganismos têm mais de 1 bilhão de anos, certas pessoas levantam os olhos e perguntam: "Mas como isso é possível? Como os cientistas podem saber esse tipo de coisa, se eles não estavam lá para confirmar?" Essa pergunta é muito importante, e está na raiz de vários conflitos entre a ciência e a religião. Em particular, religiosos mais radicais, quando afirmam que a Terra tem apenas 6.000 anos porque assim "diz" a Bíblia, negam frontalmente esse tipo de informação científica. Por isso, hoje quero discutir como nós, cientistas, sabemos datar o passado com ótima precisão.

O método usa o decaimento de substâncias radiativas. Como sabemos, todo elemento químico tem um determinado átomo, cujo núcleo tem um certo número de prótons e nêutrons. Por exemplo, o elemento hélio tem dois prótons e dois nêutrons no núcleo. Já os isótopos de um elemento químico têm o mesmo número de prótons, mas um número diferente de nêutrons. Por exemplo, um isótopo de hélio, o He-3 (três é o número de prótons mais o de nêutrons), tem apenas um nêutron no núcleo. Conhecemos em torno de 1.500 isótopos, dos quais 305 ocorrem naturalmente e 1.200 são artificialmente produzidos. Dos que ocorrem naturalmente, 25 são isótopos radiativos, isto é, que decaem em outros isótopos e/ou elementos químicos. Esses radioisótopos naturais são usados para datar fósseis e materiais biológicos.

O datamento por radioisótopos baseia-se na lei da radiatividade, descoberta em 1902 por Ernest Rutherford e Frederick Soddy. Essa lei explica a desintegração de átomos radiativos. Todos os métodos usam o fato de que cada radioisótopo decai a uma taxa constante, sua meia-vida. O carbono-14 tem meia-vida de 5.730 anos. Portanto, uma amostra contendo 1 milhão de átomos de C-14 conteria 500 mil após 5.730 anos, 250 mil após 11.460 anos etc. Se soubermos a quantidade de átomos na amostra original, podemos facilmente estimar sua idade atual medindo sua radiatividade. Caso contrário, podemos estimar essa quantidade, pois todos os animais ingerem C-14 depositado em plantas verdes. Quando o animal ou a planta morrem, o nível de C-14 decai, sendo gradativamente transformado no isótopo de nitrogênio, N-14: medindo a quantidade de C-14 e N-14 na amostra, estimamos sua idade. O método é usado para amostras de até 40 mil anos, para evitar erros de contaminação.

Outros isótopos são usados para datar amostras mais antigas. O rubídio-87 é um isótopo com uma meia-vida de 48,8 bilhões de anos, decaindo no estrôncio-87, que é estável. O método compara a quantidade de dois isótopos, estrôncio-87 (que vem do R-87) e o estrôncio-86, e foi usado para datar as rochas mais antigas da Terra, com 3,8 bilhões de anos, no sul da Groenlândia. Quando usado em meteoritos, o método acusa uma idade de 4,6 bilhões de anos, aproximadamente a idade do Sistema Solar.

Existem vários outros métodos usando radioisótopos. Esses métodos são replicáveis e quantitativos. Albert Einstein dizia que a ciência sem religião é capenga e que a religião sem ciência é cega. Ou seja, que a ciência nasce de uma inspiração espiritual com relação ao desconhecido, que Einstein atribuía a uma inspiração religiosa. Por outro lado, a religião não pode negar os avanços da ciência, pois corre o perigo de ficar cega. Interpretar a Bíblia como uma descrição literal da história do Universo e da Terra vai de encontro aos achados da ciência moderna. Não acredito que a Bíblia tenha sido escrita com essa intenção, do mesmo modo que artigos científicos não devem ter um conteúdo religioso. É na complementaridade de ambos que reside a solução desse suposto conflito, na aceitação das missões e dos limites da ciência e da religião em nossas vidas.

domingo, 31 de outubro de 1999

Uma decisão trágica

O dia 13 de outubro será lembrado como mais um dia trágico na trágica história iniciada em 16 de julho de 1945 com a detonação da primeira bomba nuclear no deserto próximo de Alamogordo, no Novo México, EUA. Em uma decisão profundamente irresponsável, o Senado norte-americano vetou o tratado que proibia testes de explosivos nucleares, provocando protestos no mundo inteiro, especialmente de outras potências nucleares.

As consequências de uma decisão como essa são as piores possíveis; países que estão em vias de desenvolver sua própria tecnologia nuclear bélica terão seus objetivos mais do que justificados. Afinal, se a maior superpotência do mundo se vê no direito de continuar seus testes nucleares e de desenvolver novas tecnologias de destruição, por que não países como Irã, Iraque, Coréia do Norte etc.? A previsão é que, dentro de uma década, o número de países com armas nucleares chegue a uma dezena.
Não é muito difícil imaginar a fragilidade de um mundo controlado pelo medo; mais cedo ou mais tarde, um líder político obcecado pelo poder, com uma visão distorcida das consequências de um ataque nuclear, detonará sua primeira bomba sobre um país vizinho, ou mesmo distante. Ou um país que tenha a bomba e que esteja perdendo uma guerra a usará como último recurso; um animal acossado sempre ataca antes de se entregar à morte.

Inicialmente, parece difícil entender o que passou pela cabeça desses senadores americanos quando votaram, 51 contra 48, por não ratificar o tratado. Os votos foram todos (com exceção de quatro republicanos que votaram com os democratas) dentro de linhas partidárias; ou seja, os republicanos, com a tradição de apoiar a corrida armamentista, votaram contra, e os democratas, a favor. Deixando de lado a ironia de um país que se diz o modelo democrático ter apenas dois partidos, os argumentos dados pelos senadores republicanos foram ridicularizados em outros países: citando as dificuldades (inexistentes sob o ponto de vista científico) de controle de testes nucleares por outros países, esse senadores dizem que os EUA não podem garantir sua segurança enquanto outros países desenvolvem novas armas. Ora, com um arsenal atual capaz de destruir nossa civilização várias vezes, qual a necessidade de novas armas e novos testes?

Poder implica responsabilidade. Para nossa geração e para as gerações futuras. Os EUA tinham em mãos uma grande oportunidade de promover um mundo mais seguro, mais maduro, em que a paz não é obtida por uma política de terror, como na Guerra Fria, mas por meio de uma colaboração entre os países. Infelizmente, a política local falou mais alto do que a responsabilidade e uma guerra partidária, nascida do ódio de um partido contra um presidente de outro, levou a uma decisão com repercussões maiores que qualquer partido ou presidente em qualquer país do mundo.

Provavelmente o leitor se lembra dos protestos contra os testes nucleares da França no atol de Mururoa, no Pacífico, ou da indignação mundial com os recentes testes nucleares da Índia e do Paquistão. Uma das vozes mais ativas no protesto, com ameaças de retaliação econômica, foi justamente os EUA. Como é possível uma hipocrisia dessas? É possível, e continuará a ser possível, enquanto políticos estiverem mais preocupados em gerar empregos (nada melhor do que uma corrida armamentista para tal) para seu eleitorado do que com as repercussões de suas decisões. Claro, os políticos têm de proteger os interesses da população que eles representam. Mas a corrida armamentista cria uma nova dimensão moral, que transcende problemas locais; um mundo sob o caos de uma guerra nuclear é um mundo sem fronteiras. Novos senadores e presidentes serão eleitos, e o tratado deverá ser reavaliado. Talvez esse episódio seja um passo necessário para um futuro mais digno para a humanidade.

domingo, 24 de outubro de 1999

A fúria do interior terrestre

O interior da Terra está longe de ser um meio passivo. Pelo contrário, a imagem que prevalece hoje é a de um interior dividido em várias camadas, como uma cebola. A parte central, com um raio de 3.500 km, é dividida em duas partes, a mais interior, sólida, com um raio de 1.300 km, e a mais exterior, líquida. A densidade no centro da Terra pode ser 12 mil vezes maior do que a da água, e a temperatura pode chegar a 5.000C, comparável à da superfície do Sol. Essa energia toda vem ainda do processo de criação e evolução inicial da Terra, com alguma contribuição de decaimentos radioativos. A Terra continua esfriando até hoje.

Essa parte central é envolta por outra camada, chamada manto, que também tem em torno de 3.000 km de raio. Mesmo que não possamos, como os heróis da aventura "Viagem ao Centro da Terra", de Jules Verne, visitar o manto, podemos conhecer sua composição por meio de explosões vulcânicas. A lava que é expulsa nessas explosões vem do manto, o que nos dá uma idéia da incrível complexidade subterrânea de nosso planeta. O manto, por sua vez, é envolto pela crosta terrestre, a fina "capa" com espessura variando entre 8 km e 15 km que nos protege do caos sob nossos pés. Mas essa proteção nem sempre é eficaz.

O leitor mais cético pode se perguntar: "Mas como cientistas podem conhecer tão bem o interior da Terra sem irem lá?". Ótima pergunta. O mapeamento do interior terrestre é um dos vários exemplos em ciência em que extraímos informação sobre algum sistema sem observá-lo diretamente. As informações sobre o mundo subterrâneo nos são reveladas por um dos eventos mais catastróficos do mundo natural, os terremotos.

Se, como descrevi acima, a densidade do interior terrestre aumenta em direção ao centro e a parte superior do manto é feita de material rochoso líquido (o magma, que vira lava quando expelido por vulcões), basicamente nós aqui na superfície boiamos sobre esse material. A caldeira infernal do interior gera quantidades enormes de gases que procuram por um escape em direção à superfície. A pressão é tão grande que chega a locomover pedaços da crosta, às vezes aproveitando falhas e fissuras. Esses movimentos são os terremotos, como os que ocorreram recentemente na Turquia e em Taiwan, causando a morte de milhares de pessoas. Nós, no Brasil, somos abençoados pela ausência de terremotos. E de vulcões, furacões...

Um terremoto que mede 7 na escala Richter (em torno de 25 por ano), libera 1025 ergs de energia, isto é, dez trilhões de trilhões de ergs, a energia equivalente à queima de 38 bilhões de litros de gasolina! Essa violência se propaga pela Terra em forma de ondas de dois tipos, as ondas de pressão (onda-P) e as ondas de torção (onda-S, do inglês "shear"). As ondas-P se propagam frontalmente, como uma coluna de dominós que vai caindo quando o primeiro é empurrado, enquanto a onda-S é mais parecida com as vibrações verticais da corda de um violão.

Essas ondas partem dos focos do terremoto e se propagam pela Terra em várias direções, emergindo em pontos diferentes do planeta, onde elas são estudadas por estações sismográficas. A partir das medidas obtidas nessas estações e das propriedades dessas ondas, podemos inferir qual a composição material do interior da Terra, como uma espécie de raio X. Por exemplo, sabemos que ondas-S são absorvidas por meios líquidos. Usando o fato de que ondas-S jamais são detectadas em pontos diametralmente opostos do planeta, ou seja, que elas não atravessam a Terra passando pela sua região central, deduzimos que essa região deve ser líquida.

Claro, o grande desafio para os que estudam terremotos é a possibilidade de prever quando eles irão ocorrer. Infelizmente, ainda não podemos prever a ocorrência de terremotos, apenas locais de maior risco. A resposta, por enquanto, permanece soterrada no caos subterrâneo.

domingo, 17 de outubro de 1999

Onde está o bóson de Higgs?

Segundo a física das partículas elementares, os tijolos fundamentais da matéria podem ser divididos em dois grupos: as partículas que compõem a matéria propriamente dita e as que transmitem as forças entre elas.

Há algumas imagens que são usadas na descrição dessas partículas: por exemplo, falamos de "bolas de bilhar" colidindo a velocidades próximas à da luz, ou usamos o popular brinquedo "Lego" para ilustrar como estruturas complicadas podem ser criadas com componentes simples. No caso do "Lego", as diferentes partículas são como blocos de tamanhos e cores diferentes. Mesmo que as analogias sejam úteis, elas passam uma imagem superficial do que acontece quando "olhamos" o mundo de bilionésimos de centímetro.

O "olhamos" entre aspas é intencional. Na verdade, não vemos partículas interagindo diretamente, como células em um microscópio. As interações são estudadas em aceleradores de partículas, máquinas desenhadas para extrair o máximo de informação durante e após o processo de colisão. Esses aceleradores têm detectores que funcionam como uma máquina fotográfica, registrando as trajetórias das partículas ejetadas na colisão. São como os sulcos deixados no gelo por patinadores: podemos inferir os detalhes da rota de um patinador, seu peso aproximado, quantos patinadores estavam presentes etc. Mas a analogia só funciona por pouco tempo, já que a superfície do gelo em breve se torna um caos de sulcos em todas as direções.

Com o auxílio desses aceleradores, hoje temos uma excelente idéia de quais são os tijolos fundamentais da matéria. O elétron faz parte de um grupo de seis partículas chamadas léptons, enquanto prótons e nêutrons são formados por partículas menores, chamadas quarks, ao todo também em seis. Fora essas 12 partículas de matéria, temos 12 partículas de força, o fóton, que transmite a força eletromagnética, três outras responsáveis pela força nuclear fraca -ligada a certos decaimentos radioativos- e oito glúons, responsáveis principais pelas interações entre quarks. Essa informação é incorporada ao modelo padrão das partículas, um grande sucesso da descrição reducionista.

Mas o modelo padrão tem também sérias limitações. Entre outras, não sabemos por que elétrons e prótons têm a mesma carga elétrica, ou qual a origem das massas das partículas de matéria. (E também das três responsáveis pela força fraca.) A idéia mais aceita é que essas massas resultam da interação das partículas de matéria com uma outra partícula, conhecida como "bóson de Higgs". O nome vem do físico indiano Satyendra Nath Bose, que contribuiu para nossa compreensão do comportamento de partículas que têm a tendência de se agrupar no estado de menor energia possível. As partículas de matéria, léptons e quarks, seguem certas restrições quanto à sua distribuição de energia. O bóson de Higgs supostamente cria um meio muito denso, em que as partículas de matéria devem se locomover. O efeito desse movimento em um meio denso é criar uma massa efetiva para as partículas de matéria, que medimos nos aceleradores. É como uma bola de gude movendo-se em água ou em mel. No mel, a partícula move-se com mais dificuldade, como se tivesse uma inércia maior.

O problema é que o bóson de Higgs é muito tímido; até o momento, ainda não conseguimos observá-lo em aceleradores, o que leva muitos a questionar se esse mecanismo de geração de massa está ou não correto. Mas assim caminha a ciência. Avanços ocorrem justamente das brechas no nosso conhecimento, com os experimentos servindo de bengala para nossa cegueira. Na próxima década, aceleradores atingirão energias altíssimas, em princípio capazes de revelar o mecanismo de geração de massa. Se for o Higgs, ótimo. Senão, certamente teremos aprendido algo fundamental sobre esse mundo invisível.

domingo, 10 de outubro de 1999

A grande lixeira nuclear


Nossa sociedade produz quantidades enormes de lixo. Esse lixo é compactado, às vezes tratado e reciclado, enterrado em grandes lixeiras e esquecido. O que fazer com o lixo nuclear, o material altamente radiativo que é produzido no processo de fissão nuclear em reatores?

Infelizmente, com o lixo nuclear, não podemos simplesmente esquecer, acreditando no poder da natureza em "limpar" nossa própria sujeira, como nas encostas de tantos de nossos rios. Com lixo nuclear, a única limpeza vem do tempo: materiais radiativos têm o que chamamos de "meia-vida", o tempo em que sua radiatividade decai a níveis mais aceitáveis. Infelizmente, para alguns materiais nucleares essa vida média pode ser de dezenas de milhares, até milhões, de anos. Mais ainda, o lixo nuclear pode ser tão radiativo que uma exposição de alguns segundos pode matar em dias ou horas.

Esse problema claramente é mais agudo em países que fazem amplo uso da energia nuclear. Mas o lixo vem também das armas nucleares e da aplicação de física nuclear à medicina, como no tratamento de várias formas de câncer. Diferentes tipos de lixo exigem diferentes tipos de tratamento, oferecendo maiores ou menores riscos. Alguns podem até ser reprocessados.

Existe uma ironia por trás do problema do lixo nuclear, que muitas vezes passa despercebida; nós usamos a energia nuclear com fins imediatos, seja para acender a luz em casa ou, há 55 anos, na terrível destruição de duas cidades japonesas e suas populações. O preço é a presença do lixo, a constante e agressiva memória de nossos usos e abusos da energia nuclear. De forma otimista, o uso da energia nuclear será apenas uma rápida fase na história da humanidade, no futuro suplantada por outras fontes de energia, como a solar ou a eólia, que talvez não sejam tão eficientes, mas, sem dúvida, bem mais seguras.

No meio tempo, o lixo nuclear vai se acumulando. Das várias sugestões para seu despojo, vale citar jogá-lo no Sol, no espaço, no fundo do mar, embaixo das calotas polares ou em buracos bem profundos na Terra. Aparentemente, essa última solução é a que está sendo adotada mais seriamente, ao menos pelo governo norte-americano. Técnicos acreditam ter encontrado o local ideal para a grande lixeira nuclear americana: a 150 km de Las Vegas, no meio do deserto, na montanha de Yucca. O projeto, orçado em US$ 35 bilhões, visa criar uma gigantesca cavidade sob a montanha capaz de armazenar, por milhares de anos, 77 mil toneladas de lixo radiativo.

A idéia é manter o lixo em cilindros ultra-resistentes que, associados à própria arquitetura da cavidade, ofereçam um "escudo" praticamente perfeito contra as ações destrutivas da natureza. Enquanto o lixo permanecer isolado, sua radiatividade vai enfraquecendo, até quase tornar-se inofensiva. Trata-se de um projeto único na história da humanidade, que visa construir algo capaz de desafiar a passagem do tempo, permanecendo funcional daqui há 10 mil ou até 100 mil anos. As pirâmides do Egito ainda estão de pé após 4.000 anos, mas não são mais muito funcionais.

Críticos acreditam que o "escudo" não resistirá à contínua ação da água, dizendo que essa estrutura apenas adiará o problema alguns milhares de anos. E isso se um grande terremoto, não raro na região, não destruir a estrutura inteira. E como criar um código capaz de explicar, para alguém daqui há 5.000 anos, o que está enterrado sob a montanha? Como nos comunicaremos no futuro? Será que uma caveira é suficiente? Qual o futuro da linguagem? Imagine que um horrível cataclismo, em 5.000 anos, destrua grande parte da vida na Terra. Um pobre sobrevivente, procurando por outros, se depara com esse estranho sinal, com uma caveira desenhada. "Ah! Deve ser um esconderijo com outros sobreviventes!", pensa nosso azarado. "Deixa eu tentar abrir essa enorme porta aqui..."


domingo, 3 de outubro de 1999

Do nariz de Tycho Brahe aos raios X do Universo



O grande astrônomo dinamarquês Tycho Brahe tinha grandes problemas com seu nariz. Na verdade, seus problemas não eram pelo nariz, mas por sua falta; um golpe da espada de seu primo em um duelo levou-lhe a maior parte do nariz. Como não ter nariz não era aceitável para a corte dinamarquesa, ele moldou um a partir de uma amálgama metálica, cuja composição ele variava de tempos em tempos em seu laboratório.

Aparentemente, Tycho sofria muito com seu nariz; não só a visão de uma pessoa com um nariz metálico era, mesmo no século 16, bastante aterrorizante, como o contato da amálgama com a pele era muito desconfortável. Daí que Tycho procurava continuamente por uma fórmula mais suave para seu rosto. Na noite de 11 de novembro de 1572, quando voltava de seu laboratório alquímico, Tycho viu algo inesperado: aparentemente, uma nova estrela surgira na constelação de Cassiopéia, que tem a forma de um "W" (ou talvez um "M", dependendo do ângulo e da pessoa que a observa).

Na época, a idéia de que uma nova estrela poderia surgir nos céus era absurda. De acordo com a filosofia aristotélica, que ainda dominava o meio acadêmico, os céus eram imutáveis, qualquer transformação sendo relegada à esfera abaixo da órbita lunar. Ora, como uma estrela poderia então surgir do nada? Tycho demonstrou que a "estrela nova" estava muito além da órbita lunar. Mais ainda, essa "estrela" era especial, pois era visível até durante o dia! Ele acompanhou a estrela durante os quatro meses em que ela permaneceu visível a olho nu. (O telescópio só foi usado metodicamente em astronomia a partir de 1609).

Tycho havia observado uma explosão de supernova, o evento que marca a "morte" de estrelas com massas consideravelmente maiores do que a massa do Sol. Suas observações contribuíram para a lenta demolição do edifício aristotélico, abrindo as portas para uma nova astronomia, em que mudanças caracterizam não só os objetos celestes, de planetas a galáxias, mas o próprio Universo. Essa visão dinâmica se deve principalmente à existência de instrumentos cada vez mais poderosos, que permitiram observar fenômenos celestes a distâncias cada vez maiores e com precisão também maior. Essa corrida por visões cada vez mais distantes e precisas é uma busca sem fim, uma metáfora da nossa curiosidade em conhecer as esquinas mais reclusas do Universo que habitamos.

Recentemente, a Nasa, agência espacial dos EUA, lançou um poderoso telescópio, cuja órbita chega a distâncias até 1/3 da distância entre a Terra e a Lua. Esse telescópio difere dos telescópios orbitais, como o Hubble, pois ele não "vê" o Universo dentro de seu espectro visível; conhecido como "Chandra" -em homenagem ao astrofísico indiano Subrahmanyan Chandrasekhar (realmente, não dava para usar o nome inteiro), cujas contribuições foram fundamentais para a compreensão dos processos que determinam a estrutura e o colapso de uma estrela-, esse telescópio produz imagens em raios X, revelando processos que são invisíveis a olho nu.

Posso imaginar a alegria de Tycho Brahe, hoje na parte do Paraíso reservada aos grandes astrônomos, ao saber que a primeira imagem do Chandra foi também de uma supernova em Cassiopéia (não a mesma). E os resultados não poderiam ter sido melhores; as imagens revelam as ondas de material expelido durante a explosão, hoje viajando a velocidades de cerca de 15 milhões de quilômetros por hora. A propagação das ondas mostra como a matéria se espalha pelo espaço interestelar, que é o mecanismo aceito hoje para explicar a distribuição de elementos químicos na galáxia; os mais pesados são produzidos nos momentos finais do colapso que marca o fim da estrela, sendo então distribuídos pelo espaço. O ditado que afirma sermos poeira das estrelas é perfeitamente correto. Inclusive o nariz metálico de Tycho.

domingo, 26 de setembro de 1999

O Universo teimoso



Em ciência, buscar a simplicidade é fundamental. Quando deparado com um fenômeno natural ainda não explicado, o cientista tem como missão encontrar a explicação mais econômica possível para as causas do que está sendo observado. Esse princípio é conhecido como a "navalha de Ockham", em homenagem ao filósofo inglês William de Ockham, que viveu em torno de 1300. Portanto, se temos duas teorias que descrevem igualmente bem um certo fenômeno, a mais econômica é a que será aceita pelos cientistas.

Infelizmente, nem sempre a natureza coopera com a procura por teorias simples, que descrevam vários fenômenos. Essa é uma tendência relativamente nova, já que nossos antepassados foram muito bem-sucedidos em propor teorias econômicas e poderosas. Um exemplo é a teoria da gravitação universal de Isaac Newton, que explicou um número enorme de fenômenos que antes eram vistos como independentes, como a órbita dos planetas, a queda de objetos na Terra e as marés.
O sucesso da teoria de Newton foi intoxicante; outras teorias abrangentes foram propostas, como o eletromagnetismo de Michael Faraday e James Maxwell, em que fenômenos elétricos e magnéticos são vistos como manifestações do campo eletromagnético. A navalha de Ockham continuou separando o simples do complicado.

Mas e se o simples não funcionar? Até que ponto a busca pelo simples se torna inútil? Atualmente, a cosmologia está passando por um renascimento, ou mesmo uma redefinição. Tradicionalmente, a cosmologia era restrita a teorias mais ou menos ousadas que descreviam a estrutura e evolução do Universo. Mas, nas últimas duas décadas, um novo ingrediente tornou-se parte do trabalho do cosmólogo, o dado observacional. Com isso, muito do que era especulação passou a ser aceito ou descartado. O exemplo mais conhecido é o modelo do Big Bang. Graças a observações na década de 60, seu competidor maior, o modelo do estado padrão, é hoje visto como uma curiosidade pela maioria dos cosmólogos.

O problema, ou desafio, é que o modelo do Big Bang tem vários pontos ainda obscuros. Por exemplo, ainda não sabemos qual a origem das flutuações de energia responsáveis pela geração de estrutura no Universo. Eu explico: nas enormes distâncias astronômicas, os pontos de referência são as galáxias, que podem ter bilhões de estrelas cada. Como tudo o que tem massa se atrai, quais processos deram origem à atração inicial, que fez com que matéria se concentrasse em regiões relativamente pequenas, que virão a se tornar galáxias? Quais são as sementes que germinam em galáxias?

Na teoria mais aceita, essas sementes são flutuações de energia em campos que existiram nos primeiros momentos após o "Bang", que foram amplificadas durante um curto período de tempo em que o Universo expandiu muito rapidamente. Esse "universo inflacionário" prevê sementes aleatórias, sem uma estrutura básica. Essas sementes estão "inscritas" na radiação de fundo cósmico que banha o Universo. Nos últimos anos, 28 experimentos confirmaram que as sementes obedecem às previsões do universo inflacionário. Isso é muito bom, pois esse modelo é simples e econômico, como demanda Ockham e sua navalha. Infelizmente, nos últimos meses, quatro grupos analisaram esses experimentos e acharam estrutura nas flutuações; caso isso seja verdade, o universo inflacionário está em sérios apuros e com ele os últimos 20 anos de cosmologia teórica. Claro, ainda é cedo para conclusões. Essas observações são suscetíveis a erros de interpretação. É muito possível que as sementes sejam como prevê o universo inflacionário. Por outro lado, é também possível que o Universo, teimoso que é, não queira se submeter aos nossos critérios de simplicidade. Talvez, no caso do Universo, a navalha de Ockham não seja afiada o suficiente.

domingo, 19 de setembro de 1999

A estrutura dos átomos



A idéia de que a matéria é feita de pequenos tijolos fundamentais chamados átomos não é nada nova. Ela foi proposta pelos integrantes da última escola de filosofia grega do chamado período pré-socrático, a escola atomística de Leucipo e Demócrito. Apesar de sabermos pouco sobre a vida de Leucipo, sabemos que seu discípulo, Demócrito, um dos filósofos mais prolíficos da antiguidade, viveu entre 460 a.C. e 370 a.C. (Ele foi, portanto, contemporâneo de Sócrates, que nasceu em 470 a.C.)

Os átomos gregos, infinitos em número e indivisíveis, são muito diferentes dos átomos da física e química moderna. Daí seu nome, á-tomo, que em grego significa "o que não pode ser cortado", como a palavra "tomo" usada para indicar volumes de uma coleção de livros. Hoje sabemos que átomos são compostos de partículas ainda menores, os prótons e nêutrons no núcleo e os elétrons em torno. A coisa continua, pois prótons e nêutrons também não são "fundamentais", isto é, indivisíveis, mas sim formados por partículas ainda menores, os quarks. De qualquer forma, a idéia grega de que a matéria pode ser dividida em entidades fundamentais, é incrivelmente moderna.

Uma vez perguntaram ao físico norte-americano Richard Feynman qual seria a frase que deveria ser passada para as gerações futuras, resumindo nosso conhecimento científico mais importante. "Tudo é feito de átomos", respondeu. É irônico que Demócrito, há 2.400 anos, poderia ter dito a mesma coisa...

Claro, a situação não é assim tão simples. A nossa compreensão da estrutura atômica é profundamente diferente da dos gregos. Basta dizer que os gregos não tinham um método empírico de validação das suas idéias; ou seja, a coisa era baseada em especulação e intuição e, mesmo que fosse muito boa, nem sempre correspondia à realidade.

A profunda revolução no conhecimento sobre os átomos ocorreu aproximadamente durante as três primeiras décadas do século 20. Vários modelos foram propostos visando descrever a distribuição de massa e carga dos átomos. Em 1897, J.J. Thomson identificou o elétron e sua carga elétrica negativa. (Na verdade, Thomson mediu a razão entre a carga e a massa do elétron, e/m.) Em 1911, Ernest Rutherford demonstrou que o núcleo atômico era muito menor que o átomo, mais maciço que o elétron e que a carga positiva estava toda concentrada ali. A conclusão era surpreendente: se o núcleo é mais maciço e menor do que o átomo, o átomo, na verdade, é praticamente vazio. Se ampliarmos o núcleo atômico até o tamanho de uma bola de tênis, os elétrons seriam encontrados a 500 metros de distância!

Esse modelo do átomo, uma espécie de minissistema solar com o núcleo no centro e o elétron em órbita, também não descreve corretamente a estrutura atômica. Conforme propôs o físico dinamarquês Niels Bohr em 1913, as órbitas do elétron são muito mais peculiares do que as dos planetas. Elétrons só podem popular certas órbitas, como se o átomo tivesse a estrutura de uma cebola, com o elétron tendo de "pular" de órbita em órbita. Os átomos têm estrutura discreta ou "quantizada". Há uma órbita mais "baixa", o estado fundamental, de onde o elétron não passa; mesmo que os prótons estejam atraindo o elétron (cargas opostas se atraem), ele jamais "cairá" no núcleo.

O modelo de Bohr ainda não foi a palavra final. Na verdade, não podemos visualizar o elétron como uma bolinha saltitando de órbita em órbita, dependendo de sua energia. O elétron é uma distribuição de carga, como se tivéssemos posto a partícula em um liquidificador, distribuindo a sopa resultante em torno do núcleo. Mais ainda, mesmo que o estado fundamental seja esférico (uma bola de carga), os estados excitados têm geometrias mais complicadas, com as "nuvens eletrônicas" interagindo entre si, mudando de órbita (e geometria) e revelando um mundo muito dinâmico.

domingo, 12 de setembro de 1999

Um exemplo a não ser seguido



"Nós não estamos mais em Kansas, Totó!" Assim anunciou a heroína do clássico filme "O Mágico de Oz" a chegada ao mundo dos sonhos ao seu cachorrinho. Mês passado, o Estado de Kansas, nos EUA, tornou-se notícia por motivos que certamente chocariam até a Dorothy e seus companheiros. O Comitê de Educação do Estado decidiu eliminar de seus exames questões sobre a teoria da evolução de Darwin e o modelo do Big Bang, para desencorajar o ensino dessas teorias nas aulas. A decisão escandalizou a comunidade científica e muitas outras comunidades, que se perguntaram, assombradas, como, no final do século 20, ainda é possível uma cegueira tão absurda com relação aos avanços científicos.

O argumento em que se baseou o Comitê de Educação é uma declaração escandalosa da ignorância dos próprios educadores: como ninguém pode voltar no tempo para observar diretamente como a vida ou o Universo se originaram, qualquer teoria sobre essas origens é, na melhor das hipóteses, especulação. Assim, apenas descobertas científicas baseadas na observação direta de fenômenos podem ser ensinadas nas escolas, com exceção, é claro, da religião, pois ela é baseada na fé, e não em descobertas experimentais. Levada ao extremo, a decisão em Kansas eliminaria do currículo a teoria atômica da matéria (nós não vemos os átomos!) ou mesmo o modelo heliocêntrico do Sistema Solar. Se não podemos voltar até os primórdios que escondem o segredo da vida, os educadores de Kansas nos garantem a volta à Idade Média.

Por trás desse movimento estão os criacionistas, que tentam justificar a Bíblia como um texto descritivo em ciências naturais, ou seja, que aceitam ao pé da letra as descrições bíblicas da origem do Universo e da vida no Gênese. Após tentarem durante anos influenciar o currículo das escolas americanas (especialmente no sul dos EUA, mas não só lá), os criacionistas transformaram sua luta em uma luta política, penetrando aos poucos nas organizações deliberativas do sistema educacional. Para eles, a "vitória" em Kansas é apenas o começo, pois o comitê estadual apenas sugere diretrizes para as comunidades locais e suas escolas, que devem tomar a decisão final sobre seu currículo. O próprio governador de Kansas, chocado e visivelmente envergonhado, quer abrir processo para eliminar o Comitê Educacional do Estado. "Essa é uma solução trágica, terrível e embaraçosa para um problema que jamais existiu", disse ele.

Sem dúvida, o evento em Kansas é mais um capítulo no longo e absurdo conflito entre ciência e religião. Quando a ciência trata de questões que são tradicionalmente da religião, como a origem do Universo e da vida, as pessoas que baseiam sua vida exclusivamente na fé sentem-se ameaçadas, achando que, caso os cientistas obtenham as respostas para esses mistérios sem invocar a existência de Deus, a devoção deixará de fazer sentido. Segundo esse ponto de vista, a ciência é inimiga da religião e, a cada descoberta nova, Deus e seus milagres se tornam um pouco mais implausíveis. A cegueira do que é ciência, de como ela funciona, influencia nossas vidas e interage com a religião tem de acabar. Porque quem recebe os frutos de nossa ignorância são nossas crianças, na sala de aula, em casa ou na Igreja.

A ciência não tem todas as respostas, nem procura tê-las. A ciência é um processo em permanente evolução, em que nenhuma teoria é definitiva. As respostas que propomos só são aceitas pela comunidade científica após longa avaliação. A ciência explica o como, não o por quê. Não sabemos o que é gravidade, mas temos teorias que descrevem como essa força atua. É importante para os educadores apresentar a ciência como um processo, e não como uma verdade absoluta. Por outro lado, é fundamental conhecermos o papel da fé em nossas vidas e qual o ponto além do qual a fé não guia, mas cega.

domingo, 5 de setembro de 1999

Energia nuclear no espaço



O uso de energia nuclear para geração de eletricidade me lembra o desgosto do sujeito que comprou uma caríssima garrafa de vinho francês, um Chateau Margaux 1959, que infelizmente passou do ponto. O investimento de emoção e dinheiro, a antecipação dos vários prazeres fornecidos pelo vinho, tudo vai por água abaixo quando é tomado o primeiro gole. Apesar das garantias do vendedor, algo de errado ocorreu durante os 40 anos de manutenção da preciosa garrafa, transformando um rubi líquido no vinagre mais caro do mundo.

Passados 43 anos desde a construção do primeiro reator nuclear na Inglaterra, usinas nucleares pontilham o globo, ao ponto de, em certos países, ela ser o provedor principal de eletricidade. Na França, 80% da energia vem de usinas nucleares. Infelizmente, o uso da energia nuclear tem seu lado negro. Mesmo que o risco de acidentes seja pequeno, basta que um ocorra para gerar efeitos que se espalham rapidamente. O desastre em Chernobil, na Ucrânia, em 1986, provocou pânico em grande parte da Europa. Outro problema é o "lixo nuclear", material altamente radioativo gerado nas usinas. Esse lixo tem de ser tratado e isolado de modo a não oferecer riscos de contaminação do solo ou água.

Devido a protestos de vários grupos preocupados com os riscos da energia nuclear, a tendência mundial do uso de reatores de fissão está gradualmente diminuindo. Uma das exceções é o Brasil, com a nova usina em Angra prestes a funcionar.

As soluções alternativas, com o uso de energia eólica (ventos) e solar, deveriam ser prioridade absoluta dos projetos de pesquisa financiados pelos governos e pela iniciativa privada, inclusive as grandes empresas petroquímicas. Infelizmente, a realidade é muito diferente.

Recentemente, o uso de energia nuclear tem criado outro foco de polêmica: a energia nuclear no espaço. Sem dúvida, viagens interplanetárias, ou aos confins do Sistema Solar (ou mesmo além), necessitam de fontes extremamente eficientes de energia. As tecnologias atuais que usam painéis solares para geração de energia em satélites não são muito eficientes para viagens aos planetas mais distantes, como Saturno e Urano. Missões como a Cassini, que tem o objetivo de chegar a Saturno em 2004, usam geradores termoelétricos radioisotópicos, que produzem eletricidade a partir do decaimento radiativo. Mesmo que esses geradores tenham já sido usados em mais de 20 missões, incluindo a Voyager e a Galileo, os protestos focaram mais na missão Cassini devido as suas maiores dimensões. A espaçonave tem o tamanho de um prédio de dois andares, levando uma quantidade recorde de plutônio, 33 kg. Mais de 1.000 pessoas protestaram em frente aos portões do Cabo Canaveral, na Flórida, quando a missão foi lançada em outubro de 1997. A espaçonave passou perto da Terra em agosto, lançando novos protestos.
Para chegar até Saturno com o mínimo de combustível, Cassini usa os campos gravitacionais da Terra e de Júpiter, que funcionam como uma espécie de catapulta, uma técnica muito comum em vôos interplanetários. O risco aqui é de um acidente ocorrer durante o lançamento da nave ou durante uma passagem perto da Terra, causando a difusão de material altamente radiativo na atmosfera, e aumentando o número de mortes por câncer. Os cálculos de danos prováveis de um acidente são muito imprecisos, pois dependem de detalhes como o local, a altitude, os ventos, a densidade populacional da área do acidente etc. Engenheiros afirmam que o combustível é envolto em cápsulas capazes de resistir a impactos e explosões extremamente violentas. A queda de um satélite na Califórnia em 1968, confirma a confiança dos engenheiros.
Críticos afirmam que não há garantias absolutas e que os riscos não justificam o uso de tecnologia nuclear no espaço; que mais recursos devem ser gastos na criação de tecnologias alternativas. Ignorando o impasse, Cassini segue sua rota em direção aos anéis de Saturno.

domingo, 29 de agosto de 1999

O teste da evolução por meio da 'vida digital'

A perpetuação dos seres vivos se dá pela transmissão de informação genética entre gerações. Segundo a teoria da evolução, a seleção natural ocorre devido a mutações espontâneas de certas características da prole em relação aos pais, que podem vir de diversos fatores, como o aumento de um certo tipo de radiação ultravioleta do Sol, entre outros.

Segundo a teoria da evolução, mutações podem facilitar ou piorar as chances de sobrevivência de uma determinada espécie. O exemplo clássico de seleção natural baseada em mutações é o de um certo tipo de mariposas inglesas, que se tiverem coloração semelhante à das árvores, os pássaros predadores terão maiores dificuldades de atacá-las. Se sua coloração for destoante, serão presas fáceis. Uma população de mariposas claras vivendo em florestas de troncos escuros se beneficiará de uma mutação que as escureça.

Esse argumento tem sido criticado por biólogos que encontraram limitações na análise quantitativa de seus colegas sobre os fatores que influenciam a sobrevivência de mariposas de cores diferentes. Eles afirmam que, como a vida é um fenômeno extremamente organizado, mutações, devido à sua incoerência, têm um efeito devastador para a sobrevivência de uma espécie. Se esses críticos estiverem corretos, os fundamentos da teoria da evolução baseada na seleção natural por meio de mutações devem ser reavaliados.

A questão é como testar de forma controlada o papel das mutações nos seres vivos. Entre as várias alternativas que tradicionalmente envolvem pesquisas com plantas, insetos ou mamíferos, uma nova corrente de experimentos vem despertando grande interesse na comunidade científica. A "vida artificial", ou melhor, a simulação da vida em computadores. Diferentes espécies, ou organismos digitais complexos, são criadas a partir de sequências de informações e instruções de como se reproduzir, usando a "energia" ambiental (o alimento), que, no caso, é o tempo alocado para uma determinada espécie na CPU do computador; quanto mais tempo de CPU, mais energia, e portanto, mais sofisticado pode ser o código de instruções processado por um certo "organismo digital".

No jogo virtual da vida, diferentes criaturas digitais competem pela sobrevivência, simulando as interações em um sistema ecológico no mundo real.

Cada criatura é construída por meio de um determinado código de instruções, comparáveis a sequências de DNA em organismos vivos. As diferentes criaturas digitais competem por mais "energia", isto é, tempo de CPU. Mutações aleatórias são incorporadas nas simulações, visando torná-las mais realistas.

Richard Lenski, da Universidade Estadual de Michigan (EUA), e outros, desenvolveram um mundo virtual com duas espécies, uma simples e outra complexa. A espécie simples foi instruída apenas para se reproduzir o mais depressa possível, enquanto a complexa recebia incentivos (mais tempo de CPU) ao concluir tarefas matemáticas.

Lenski mediu a taxa de reprodução dessas espécies ao serem expostas a mutações diversas. A grande vantagem da vida virtual é que as condições podem ser livremente manipuladas e os dados facilmente analisados. Efeitos de mutações variam; eles podem ser cumulativamente piores (epístases sinergética) ou relativamente inertes (epístases antagônica). Os experimentos indicam que as espécies complexas demonstram epístase antagônica, enquanto para as espécies simples, os dois efeitos são contrabalançados. Mesmo que haja ainda uma distância enorme entre as mariposas inglesas e as criaturas digitais, o jogo da vida aponta para uma nova dimensão da ciência, onde biólogos evolucionistas usarão computadores para testar algumas de suas idéias.

Agradeço ao leitor Enézio de Almeida Filho por correspondência relativa ao problema das mutações na seleção natural.

domingo, 22 de agosto de 1999

O eclipse toral, visto do mar Negro

No dia 11 de agosto, tive o privilégio de assistir a um dos mais espetaculares fenômenos astronômicos: o eclipse do Sol. A universidade onde trabalho, o Dartmouth College, pediu que eu acompanhasse um grupo de ex-alunos em um cruzeiro ao mar Negro, com o objetivo de observar 2 minutos e 21 segundos de "totalidade", quando a Lua cobre inteiramente o disco solar.

A expectativa era enorme. Afinal, um eclipse total não é coisa que acontece todos os dias, nem mesmo todos os anos. O próximo será em junho de 2001. Mas esse foi o eclipse do fim do milênio; profecias apocalípticas não faltavam, usando o eclipse como sinal de que o fim se aproxima, a trombeta do juízo final.

Ao longo dos milênios, a humanidade celebrou eclipses com um misto de fascínio e terror. As imagens variam de cultura para cultura, mas o tema básico é sempre a possibilidade do Sol desaparecer, em geral devorado por algum animal, como uma serpente ou coiote. A escolha do animal devorador depende muito do local onde é criado o mito. Felizmente, algum ser benigno combate o animal esfomeado, salvando o Sol e, consequentemente, a nós também. A luz retorna, as trevas novamente limitadas a sua presença noturna.

Inicialmente, a Lua vai cobrindo aos poucos o disco solar, ou fotosfera, reduzindo o todo-poderoso Sol a uma figura minguante, um discreto sorriso no céu. A temperatura cai, o céu escurece, tingindo-se de um belíssimo azul-metálico. Nos segundos finais antes da totalidade, o observador mais apurado pode ver a sombra projetada pela Lua, se aproximando a 1.500 km/h.

Dois segundos antes da totalidade, o último vestígio de Sol sobre a Lua cria um efeito conhecido como "anel de diamante". Então, com binóculos, pode-se ver as incríveis proeminências solares, jorros de hidrogênio incandescente, de um vermelho profundo, decorando o círculo de luz que circunda a superfície negra da Lua. E do Sol. Embora seja apenas o início da tarde, Vênus e Mercúrio estão perfeitamente visíveis, como pontos de luz solitários em uma noite sem estrelas no meio do dia. A totalidade da cobertura do Sol pela Lua é alcançada.

Em torno do disco negro, pode-se ver a coroa solar, raios de uma luz etérea propagando-se a distâncias de vários diâmetros solares, partículas e gases ejetados da turbulenta superfície solar a incríveis velocidades.

Antes da existência de espaçonaves, a coroa só podia ser observada durante eclipses totais. Como não somos astronautas, eclipses continuarão a ser o único meio terrestre de ver essa luz decorando os céus. O horizonte é sutilmente iluminado por uma luz de tom coral, como se a aurora decidisse não vir mais do leste, mas simultaneamente de todos os pontos cardeais.

Algumas pessoas fotografam e filmam o evento, outras tentam reproduzi-lo no papel, outras gritam, enquanto outras simplesmente olham em silêncio, absolutamente deslumbradas pelo espetáculo astronômico. Tudo isso se deve a uma coincidência, os diâmetros e distâncias relativos entre a Lua e o Sol sempre comparáveis. Caso contrário, a Lua não cobriria o disco solar totalmente, e apenas eclipses anulares, onde vê-se ainda o disco solar em torno da Lua como um anel, seriam possíveis. E mesmo que eclipses anulares sejam também muito belos, nada se compara a um eclipse total.

Passados 2 minutos e 21 segundos, um novo anel de diamante marca o fim do período de totalidade, mais belo ainda do que o que marcou seu início. Um tremor invade meu corpo, minha mente reduzida a um estado primal, impossível de expressar em palavras. O eclipse revela nossa fragilidade, nossa impotência perante as forças que controlam a dinâmica do cosmos. Um silêncio estranho paira sobre o convés do navio, a consciência de que qualquer descrição seria injusta, qualquer comentário incompleto, a certeza de nossa mortalidade atravessada na garganta.

domingo, 15 de agosto de 1999

A dolorosa busca pela verdade



Verdade, mesmo nas ciências exatas, é um conceito que exige muito cuidado. Em princípio, não há uma verdade final, uma teoria "perfeita" do mundo. O que existe são aproximações, algumas mais precisas do que outras, modelos matemáticos que descrevem os fenômenos que observamos na natureza.

Em raras ocasiões, teorias podem até prever a existência de novos fenômenos ou objetos ainda não observados ou descobertos, como se nossa imaginação se antecipasse aos nossos "olhos", criando realidades que depois comprovamos existir.

O ceticismo que marca o trabalho do cientista é ao mesmo tempo fundamental e brutal para preservar a credibilidade da ciência. No seu trabalho, o cientista tem poucas certezas. Uma delas é a do ceticismo com que uma idéia nova será acatada. Isso se ela não for completamente desprezada, claro.

A grande vantagem desse sistema é que se uma idéia for mesmo correta, ela será aceita pela comunidade científica. Anos, ou mesmo décadas, podem se passar antes que isso aconteça, o que muitas vezes pode trazer grande sofrimento e desespero ao seu proponente. Se por um lado temos de acreditar em nossas idéias e saber como defendê-las das críticas de colegas, por outro devemos também saber aceitar quando estamos errados, evitando frustrações ainda mais prolongadas. Essa lição oferecida pela ciência pode ser muito útil também fora dela.

Um dos episódios mais dramáticos na história da física ocorreu com o austríaco Ludwig Boltzmann, um dos arquitetos da mecânica estatística. Trabalhando no final do século 19, Boltzmann defendia a existência de átomos contra críticos como o filósofo Ernst Mach e o químico Friedrich Ostwald, que diziam que átomos não eram reais: eles não acreditavam que a física pudesse descrever o comportamento de objetos que não eram observáveis. O debate atingiu seu clímax durante uma conferência em Lubeck em 1895, conforme relatou Arnold Sommerfeld: "... era uma luta entre um touro (Boltzmann) e seu matador (Ostwald). Mas desta vez o touro conquistou o matador, apesar de toda sua elegância e técnica. Os argumentos de Boltzmann foram bem mais aceitos, com todos os jovens cientistas tomando seu lado."
Mas Boltzmann continuou isolado em sua batalha, o que lhe custou um altíssimo preço emocional. Deprimido e doente, em 1906, um ano antes da comprovação experimental da existência dos átomos, ele se suicidou.

Durante os primeiros dias do rádio, muitos achavam que a frequência modulada (FM), proposta por Edwin H. Armstrong, da Universidade de Columbia nos EUA, seria a solução contra a alternativa, a amplitude modulada (AM), que era muito suscetível à estática causada por distúrbios atmosféricos. Mas em 1922, o matemático John H. Carlson, do Bell Laboratories, publicou um artigo demonstrando que a banda requerida pela FM era maior do que pela AM, e que a distorção do sinal era maior. A maioria dos investigadores abandonaram seus projetos da transmissão em FM.

Isolado, Armstrong continuou a insistir nas vantagens da FM, e, em 1930, provou suas vantagens na luta contra a estática. As estações de rádio, que haviam investido pesadamente nas transmissões em AM, se recusaram a aceitar sua descoberta. Quando finalmente elas aceitaram, o fizeram sem pagar direitos a Armstrong, que gastou anos em lutas judiciais que lhe custaram todo seu dinheiro. Em 1954, exausto e empobrecido, Armstrong tirou sua própria vida.

Raramente as grandes descobertas ou invenções são rapidamente reconhecidas. O cientista, como qualquer outro profissional, comete às vezes erros de julgamento devido a preconceitos ou à aceitação cega de "verdades" ditadas por grandes nomes. Não há um sistema perfeito, pois não somos perfeitos. O que vale é nós enamorarmos de uma idéia, mas nunca cegamente.


domingo, 8 de agosto de 1999

A Guerra Fria e a herança nuclear

Quando os EUA detonaram a primeira bomba atômica no deserto do Novo México, o chefe do Projeto Manhattan, J. Robert Oppenheimer, declarou, sombriamente, que a explosão inaugurou uma nova era para a humanidade. O evento, disse, lembrou-lhe parte de um texto das escrituras sagradas hindus, o Bhagavad Gita, que conta a história de como o deus Vishnu tenta convencer o príncipe-guerreiro Arjuna a concluir suas tarefas. Para impressionar o príncipe, Vishnu assume uma forma monstruosa com vários braços e diz: "Agora sou a Morte, destruidora de mundos".

A proliferação de armas nucleares após a Segunda Guerra Mundial mudou a história do mundo e o papel da ciência na história. Se antes a ciência criar e destruir, a criação e destruição eram sempre locais, de impacto limitado. Mas as armas nucleares inauguraram uma nova era, onde nos tornamos capazes de aniquilar a humanidade como um todo. Se antes a população civil sofria com invasões e saques, bombardeios e incêndios, agora a população do planeta inteiro pode sofrer as consequências de um conflito ou acidente com armas nucleares.

Essa nova realidade redefiniu os últimos 50 anos, com a polarização entre capitalismo e comunismo representando o frágil balanço que define nossa sobrevivência. As bombas de Hiroshima e Nagasaki, horrendas como foram, não se comparam ao poder devastador das bombas de fusão nuclear, ou de hidrogênio. Em um argumento perverso, essa política dizia que apenas através do balanço do poder de destruição entre as potências nucleares poderia ser alcançada uma paz duradoura. Isso me lembra um pouco o que os pais fazem quando compram presentes para suas crianças: para evitar brigas entre irmãos, é sempre melhor comprar dois brinquedos iguais. E assim definimos a sobrevivência de nossa espécie.

Mas com a queda da União Soviética, o balanço nuclear sofreu uma profunda alteração. Hoje, a Rússia está praticamente falida, paralisada por uma séria crise econômica e política, um gigante cego a procura de um novo rumo. Uma das consequências imediatas dessa crise é o abandono do arsenal nuclear e das centrais de controle de materiais usados na construção de armas nucleares. Antes da queda da União Soviética, os cientistas e os técnicos trabalhando no arsenal nuclear eram bem pagos, desfrutando de direitos e privilégios sociais. Hoje, grande parte deles está desempregada, ou recebendo salários que, para nossos padrões, são miseráveis. (Claro, me refiro a profissionais e técnicos com ensino superior.) Pior ainda, vários deles procuram por empregos mais lucrativos em outros países, o que em princípio pode acelerar a construção de armas nucleares em países com intenções nem sempre pacíficas.

Vários incidentes alfandegários envolvendo o contrabando de plutônio, urânio enriquecido ou tecnologia bélica nuclear foram registrados nos últimos anos. Uma nova forma de terrorismo está emergindo, o terrorismo nuclear, onde países com regimes totalitários ou fundamentalistas tentam obter tecnologia nuclear usada na construção de armas capazes de alcançar nações inimigas. A Coréia do Norte e o Irã poderão em breve ter mísseis capazes de atingir alvos a milhares de quilômetros. Juntando-se a possibilidade (muito plausível) de que essas nações possuem um programa nuclear ou de armas bioquímicas, o perigo se torna muito grande. E mesmo sem mísseis, o que aconteceria se um grupo terrorista contaminasse o abastecimento de água de uma grande cidade com lixo nuclear ou bioquímico? Ironicamente, a "vitória" do ocidente na Guerra Fria transformou o "inimigo", temível mas visível, em várias forças invisíveis e, portanto, muito mais difíceis de serem controladas e monitoradas. Essa é a paranóia dos anos 90, herdeira da política de "détente".

domingo, 1 de agosto de 1999

Trinta anos do homem na Lua



Eu me lembro como se tudo tivesse acontecido ontem à tarde... Com os olhos grudados na TV, eu e meus primos Daniel e Marcos quase não podíamos acreditar -o homem havia mesmo pousado na Lua. O astronauta Neil Armstrong dando seus passos-pulos e fazendo a declaração inesquecível: "É um pequeno passo para homem, um gigantesco salto para a humanidade".

Nem todos na casa dividiam nossa euforia. A cozinheira dizia que não acreditava, que isso tudo era um truque de "Oliud". Mas nós tínhamos certeza de que os grandes cineastas de "oliud" não seriam tão maldosos; a coisa aconteceu mesmo, despertando os mais variados sonhos nas mentes de milhões de crianças. "Bom, se isso aconteceu agora, imagine só o que irá acontecer lá pelo ano 2000, quando nós tivermos 40 anos", comentei com meus primos.

Passados 30 anos, Marcos virou professor de filosofia no Rio, Daniel virou economista -hoje no setor internacional do Banco Central, como vários leitores devem reconhecer- e eu virei físico. Nossos sonhos e fantasias, típicos de qualquer garoto de classe média, continuam sendo os de milhões de outros garotos e garotas (essa, uma novidade mais recente!) pelo mundo.

O que não sabíamos, quando tínhamos 10 anos, é que as missões Apollo foram produto de uma paranóia americana decorrente da Guerra Fria e do lançamento da pequenina Sputnik pelos russos, em 1957. Os EUA não poderiam perder sua hegemonia tecnológica e o controle do espaço para os comunistas. Entre 1969 e 1972, seis missões tripuladas pousaram na Lua, restaurando a glória da corrida espacial aos americanos. Mas tanto os altos custos monetários quanto os riscos forçaram a Nasa a mudar a estratégia, optando por missões menores e mais baratas, sem seres humanos. Os heróis dos garotos dos anos 80 e 90 foram as câmeras fotográficas e outros aparelhos que trouxeram outros mundos às nossas salas de jantar.

Mas as missões Apollo não foram apenas para propaganda. Fora o feito tecnológico de enviar seres humanos a um mundo distante e trazê-los de volta, as missões colheram amostras que têm sido usadas em estudos que visam compreender a origem do Sistema Solar, de nosso planeta e, claro, da própria Lua.

Até os anos 80, existiam três teorias sobre a origem da Lua: a teoria "irmã", a "filha" e a "captura". Na teoria "irmã", a Lua e a Terra evoluíram de forma semelhante, a partir de matéria que existia durante a formação do Sistema Solar, uma orbitando a outra como irmãs. Na teoria "filha", a Lua foi separada da Terra devido à sua alta velocidade de rotação, deixando uma bacia que hoje é o oceano Pacífico. Na teoria da "captura", a Lua era um asteróide que foi fisgado pelo campo gravitacional da Terra.

As rochas lunares trazidas pelos astronautas contrariam as três teorias. Sua química mostra que a Lua não pode ter sido um asteróide capturado pela Terra, pois sua composição difere da dos asteróides comuns e tem propriedades encontradas em rochas terrestres. Por outro lado, a Lua tem pouco ferro, água, sódio, potássio e outros elementos comuns na Terra, o que contraria a teoria de que é nossa "irmã". A idéia de que a Terra pôde, no passado, girar com velocidade alta o suficiente para fissionar um objeto como a Lua também não foi comprovada.

A teoria aceita atualmente é que a Lua foi resultado de uma colisão entre a Terra e um asteróide do tamanho de Marte. A colisão pulverizou o asteróide e parte da superfície terrestre, criando um anel de detritos orbitando a Terra que aos poucos foi aderindo matéria até formar a Lua. O calor da colisão explica por que a Lua não tem muita água. A mistura de elementos explica as semelhanças e diferenças entre a Lua e a Terra. Os astronautas nos trouxeram uma belíssima ilustração de como, no Universo, destruição e criação andam sempre juntas.

domingo, 25 de julho de 1999

Cosmologia e destino



Desde que o cosmólogo russo Alexander Friedmann propôs, em 1922, que a geometria do Universo não é estática, mas sim dinâmica, o destino do Universo passou a integrar a lista de preocupações dos físicos modernos. Segundo as equações que descrevem sua evolução, tudo depende da quantidade de matéria que há, em média, no Universo. Usando o fato de que matéria e energia podem ser consideradas no mesmo nível dentro da teoria da relatividade, tudo depende da densidade de energia no Universo, ou a quantidade de energia/ matéria por unidade de volume.

Basta saber qual é a densidade de energia no Universo e a comparar à chamada "densidade crítica" para prever seu destino. Caso o Universo tenha uma densidade maior que a densidade crítica, sua expansão se transformará em contração em algum momento do futuro. Caso contrário, a expansão continuará para sempre. Podemos também mostrar que há relação entre o destino do Universo e sua geometria: um universo fechado, como a superfície de uma bola, voltará a se contrair, e um universo aberto, como a superfície de uma mesa, se expandirá. (Claro, o Universo tem três, e não duas dimensões espaciais, como a superfície da bola.)
"Então é só isso?", exclama o leitor. Claro que não. Primeiro, não é nada fácil obter uma medida da densidade média de energia no Universo. As medidas atuais dizem que a densidade de energia do Universo é cerca de 30% da crítica. Nesse caso, o Universo teria um fim gelado.

Quando Einstein propôs o primeiro modelo cosmológico da era moderna, em 1917, usando sua teoria da relatividade, ele supôs que o Universo era estático. Na época, não havia observações conclusivas indicando que o Universo se encontrava em expansão. No entanto, ele observou que um Universo estático e finito era instável, podendo implodir devido a qualquer perturbação. Para remediar esse problema, ele adicionou um novo termo em suas equações, uma espécie de "antigravidade", que gerava uma pressão negativa capaz de equilibrar seu universo. Esse termo é conhecido como "constante cosmológica". Quando, em 1929, Edwin Hubble anunciou a expansão do Universo, Einstein abandonou o termo, chamando-o de seu maior erro.

Mas a constante cosmológica se recusa a desaparecer. Dois grupos de astrônomos americanos causaram verdadeira sensação na comunidade internacional ao anunciar que certos tipos de estrelas que eles observaram de forma metódica, as supernovas do Tipo 1, estão sendo aceleradas mais rapidamente do que o previsto pela cosmologia de Friedmann. A explicação mais popular para isso é a existência de uma constante cosmológica! Mesmo que ainda seja um pouco prematuro concluir que, de fato, o Universo possui uma força de repulsão cósmica, podemos ao menos explorar algumas das consequências da existência dessa força.

Talvez a consequência mais surpreendente da existência de uma constante cosmológica seja a perda da relação entre o destino do Universo e sua geometria. Uma vez que a constante cosmológica é incluída nas equações sobre a evolução do Universo, torna-se possível ter um universo fechado que continuará a se expandir, ou um aberto, que virá a colapsar em um grande Big Crunch, algo que, segundo a cosmologia tradicional, não é possível.

Para piorar as coisas, podemos mostrar que não é possível obter informação sobre o destino do Universo por meio de nenhuma combinação de observações cosmológicas. Isso porque, mesmo que elas mostrem que a constante cosmológica é, na verdade, nula, nada impede que ela seja apenas muito pequena. A esperança de muitos é que uma teoria fundamental da natureza venha a mostrar que a constante cosmológica deve ser absolutamente zero. Mas, até a descoberta dessa teoria (se ela for descoberta), devemos nos render à ignorância de nosso destino.

domingo, 18 de julho de 1999

Ciência e espiritualidade

Nestes tempos "pré-milenares", em que tudo se transforma tão rapidamente, o apetite das pessoas por verdades e certezas mais permanentes vem atingindo níveis jamais vistos ou mesmo previstos. O acesso fácil aos computadores e às telecomunicações criou uma aldeia global, onde a troca de informação entre diferentes culturas e pessoas do mundo é mais fácil e barata do que em qualquer outro período da história humana.

Esse excesso de informação, ao mesmo tempo inspirador e aterrorizador, causa muita confusão e estresse na cabeça das pessoas.

A tecnologia é muitas vezes percebida como uma espécie de monstro, capaz de curas milagrosas e de viagens interplanetárias, mas também de produzir armas que poderiam aniquilar a vida na Terra.

Inevitavelmente, surgem teorias de conspirações clandestinas e o governo (em muitos casos, merecidamente!) perde a sua credibilidade, enquanto uma intolerância generalizada ameaça polarizar ainda mais a sociedade. O resultado é uma sensação de pânico e abandono avidamente explorada por oportunistas que se apresentam como a única alternativa em um "mundo louco".

Com isso, observamos a proliferação de seitas da "Nova Era", de várias superstições (gnomos, anjos, fadas e outras criaturas fantásticas) e de pregadores da "verdade". Observamos também o crescimento do desprezo pela ciência e pelo que ela tem a dizer sobre o mundo.

A ciência é considerada a antítese da espiritualidade, uma atividade fria e manipuladora, dedicada a tirar Deus das pessoas. Ou as pessoas de Deus.

Acredito que essa concepção completamente errônea do que é a ciência e de como ela funciona seja a responsável por sua impopularidade, descontados os fãs, claro. Parte da culpa pertence, sem dúvida, à comunidade científica; historicamente, poucos cientistas dedicaram parte de seu tempo à divulgação, ao público, de suas idéias e descobertas. Essa situação está gradualmente se transformando, mas muito ainda precisa ser feito, especialmente nos meios de comunicação de maior penetração, como a televisão ou o cinema. O que ainda vemos, na maior parte desses veículos, depende do sensacionalismo barato e de distorções da imagem do cientista ou de seu trabalho.

Como, então, podemos reconciliar a ciência com o grande público, fazendo com que sua divulgação não traga, necessariamente, sua distorção? Vários livros de divulgação científica tiveram sucesso por revelar uma conexão entre ciência e espiritualidade, como "O Tao da Física", de Fritjof Capra. A julgar por esses livros, a resposta deve revolver em torno de uma reconciliação entre ciência e espiritualidade. Infelizmente, não creio que o caminho usado por esses autores revele a espiritualidade da ciência de forma correta; não creio que a ciência esteja simplesmente redescobrindo "verdades" descobertas através da meditação ou de uma conexão mística com o mundo, como nas religiões orientais.

A espiritualidade da ciência não é encontrada através de comparações entre suas descobertas e as práticas e ensinamentos de diversas religiões. Ela é encontrada na paixão com que os cientistas devotam toda uma vida na tentativa de desvendar os mistérios do mundo à sua volta. Ela é encontrada no próprio ato criativo, aquele momento de autotranscendência que desafia qualquer explicação racional. Ela é encontrada em sua humanidade e na poesia que revela.

Enquanto a ciência tenta entender o "como", deixando de lado o "porquê", a religião aceita o "porquê" baseada na fé, pouco se preocupando com o "como". Certas questões são exclusivas da ciência, enquanto outras pertencem somente à religião.

O fundamental é saber discernir os limites de ambas, suas diferentes missões e o simples fato de elas serem necessárias para a nossa existência.

domingo, 11 de julho de 1999

Do ponto à loucura

O ponto não existe. Apenas a idéia dele, que, na verdade, é apenas uma das várias abstrações que fazem parte da estrutura conceitual da geometria. Por não ter dimensão, o ponto não ocupa lugar no espaço e, paradoxalmente, é a entidade fundamental da geometria, a área da matemática que estuda as propriedades de objetos no espaço.

Como sabemos, a menor distância entre dois pontos, pelo menos no plano, é um segmento de reta. Mas uma reta, por definição, não tem espessura, pois, se tivesse, ela seria um retângulo bem comprido -um objeto em duas dimensões- e não uma linha. A conclusão é simples: a reta, que não existe por não ter espessura, liga dois pontos que também não existem! Essa conclusão é apenas aparente; ao transformar uma idealização em realidade, somos necessariamente levados a comprometer a "pureza" da idéia.

O grande filósofo grego Platão, que viveu aproximadamente de 428 a.C. a 348 a.C., via o mundo dos sentidos com grande suspeita. Para ele, a representação de um círculo jamais será tão perfeita quando a idéia do círculo que habita a mente. Quando o leitor imagina um círculo, imediatamente um círculo perfeito aparece em algum lugar de sua mente. Já quando o leitor desenha esse círculo, ou seja, quando tenta representar essa idealização concretamente em um pedaço de papel, a perfeição vai embora. Por mais perfeito que seja o desenho, o compasso ou a impressora a laser, o desenho de um círculo jamais será perfeito como a idéia de um círculo. Só há perfeição das figuras geométricas no mundo das idéias.

Platão ilustrou sua filosofia com a "alegoria da caverna". Imagine, disse ele, vários escravos em uma caverna, acorrentados de forma a poder olhar apenas para a parede à sua frente. (A "democracia" grega não só aceitava a escravidão, como excluía os escravos da participação política.) Atrás dos escravos, filósofos da Academia de Platão preparavam uma fogueira e manipulavam objetos, cujas sombras eram projetadas na parede vista pelos escravos. Os filósofos pediam aos escravos para descrever imagens projetadas na parede. (Adaptação livre da idéia de Platão.)

O ponto crucial do argumento é que os objetos, cujas sombras eram projetadas, eram figuras geométricas "perfeitas", como o círculo ou o quadrado. No entanto, tudo o que os escravos viam eram sombras imperfeitas, distorções dos objetos originais. A conclusão de Platão é que o mundo dos sentidos não reproduz a perfeição do mundo das idéias, apenas se aproxima dela.
Ao tentarmos reproduzir, através de construções geométricas e equações matemáticas, a realidade do mundo natural, estaremos sempre no papel dos escravos, conscientes das perfeições abstratas e das imperfeições concretas. Nossa percepção sensorial do mundo será sempre limitada, e nossa representação também. O curioso é que o mundo que "está lá fora" é representado "aqui dentro", ou seja, dentro de nossas mentes. Temos duas realidades coexistindo dentro de nossas mentes: uma realidade abstrata, relacionada com o mundo das idéias, construída de "dentro para fora", e uma realidade concreta, construída de "fora para dentro".

Em uma mente sadia, essas duas realidades coexistem e se complementam, uma inspirando e reforçando a existência da outra. Quando essas duas realidades entram em choque, as fronteiras do que é real e do que é imaginado se confundem. Coisas que pertencem ao mundo das idéias se tornam "reais" e coisas "reais" se transformam em idealizações. Às vezes, esse tipo de efeito é obtido com certas drogas ou em certos tipos de patologias mentais. O que me lembra o personagem do conto "O Alef", de Jorge Luis Borges, que podia vislumbrar todo o Universo, o passado e o futuro, de um ponto em seu sótão. Talvez o enigma do infinito esteja mesmo escondido por trás da aparente simplicidade do ponto.

domingo, 4 de julho de 1999

O que é a vida?



Como podemos definir o que é vida? A primeira frase do livro de bioquímica e biologia molecular de William e Daphne Elliott diz: "Vida é um processo químico envolvendo milhares de reações diferentes de forma organizada, as chamadas reações metabólicas, ou, mais simplesmente, metabolismo". Ou seja, vida é metabolismo. Metabolismo é a transformação de energia e matéria em células, tecidos e órgãos de um ser vivo. Mas máquinas também transformam energia e matéria - por exemplo, energia química armazenada na gasolina em movimento de um carro. Mesmo que a definição bioquímica seja importante, ela tem limitações.

Na verdade, quanto maior nosso conhecimento sobre o mundo natural, mais difícil fica definir o que é vida. Isso parece paradoxal, pois é bastante óbvio, quando nos deparamos com uma pedra ou um mosquito, qual desses é o ser vivo. O problema é que não temos uma divisão clara entre o vivo e o não-vivo. Aparentemente, existe um continuum entre os dois mundos, com os vírus como ponte. Quando estão isolados, os vírus se comportam como outras moléculas orgânicas, sem mostrar sinal de vida. Mas, quando entram em uma célula viva, os vírus mostram as mesmas propriedades da maioria dos seres vivos. E quais são essas propriedades?

Talvez a propriedade mais fundamental dos seres vivos seja sua capacidade de reprodução: seres vivos geram outros seres vivos, enquanto seres inanimados permanecem inanimados. Pedras e máquinas não se reproduzem. Mas a coisa é mais complicada. Dadas determinadas condições, certos cristais também podem se reproduzir. O que falta em nossa definição da propriedade fundamental dos seres vivos é sua íntima relação com mutações genéticas: seres vivos transmitem informação genética à sua prole, mas as cópias não são sempre exatas.

Mutações podem ocorrer, modificando a informação originalmente passada de uma geração a outra. Cristais não sofrem mutações e, pelo menos até o momento, máquinas ainda não se reproduzem criando mutações arbitrárias em sua prole. Portanto, a propriedade fundamental dos seres vivos é a capacidade de sofrer mutações genéticas durante a reprodução.

O interessante aqui é que, na natureza, essas mutações são aleatórias, causadas por modificações ambientais (como um excesso de radiação vinda do Sol ou até de uma explosão de supernova na nossa vizinhança cósmica) ou por motivos ainda desconhecidos. Isto é, elas ocorrem espontaneamente, sem o controle ou ajuda do ser vivo que está se reproduzindo. Mais ainda, como a teoria darwiniana de evolução nos mostrou, a própria sobrevivência da espécie é determinada pela eficiência dessas mutações: se as mariposas pretas em uma floresta de árvores escuras tornarem-se subitamente brancas, elas serão presa fácil para seus predadores, como passarinhos (se você não gosta da idéia de passarinhos como predadores, imagine o que as minhocas acham).

A propriedade que nos ajuda a definir o que é vida é também a responsável pela sua perpetuação ou aniquilamento. Como essas mutações genéticas são aleatórias, os seres vivos não têm controle sobre a sua própria sobrevivência. Se eles não se reproduzirem, sua espécie desaparece; se eles se reproduzirem, podem tanto melhorar as condições de sobrevivência de sua espécie (as mariposas pretas podem voar a velocidades maiores do que suas avós) como piorá-las (elas podem virar mariposas brancas).

Mas há uma exceção à regra: nós, os humanos. Seres vivos inteligentes podem causar modificações ambientais que produzirão novas mutações -o lado negativo- ou redirecionar as mutações ruins e garantir assim sua sobrevivência -o lado bom. Sendo um otimista, eu acredito que o desenvolvimento da pesquisa em engenharia genética abrirá novas portas para a cura de várias mutações e doenças e também para uma maior compreensão do mistério da vida, sua origem e perpetuação.