Copérnico, ao proclamar que o Sol era o centro do cosmos, e não a Terra, desferiu um duro golpe em nossa dignidade. Afinal, fomos rebaixados do centro para a periferia, dividida com um bando de outros planetas. De reis passamos a ser corte, fadada a rodear o "astro-rei" por toda a eternidade, ou pelo menos por um bom tempo. Claro, a idéia não foi de Copérnico, mas de um astrônomo grego do século 3 a.C., o grande Aristarco de Samos. Mas a redescoberta de Copérnico foi apenas o início. Logo, descobrimos que o Sol é uma mera estrela, como bilhões de outras na Via Láctea, nossa galáxia. Mas pelo menos nossa galáxia era especial, a única no cosmos, uma ilha de estrelas cercada de imensidão por todos os lados.
Mas nem esse tênue resquício de dignidade durou muito. Em 1924, o astrônomo americano Edwin Hubble provou que a Via Láctea é apenas um dos bilhões de "universos-ilha", isto é, outras galáxias, que existem no Universo. Fora o fato de nós estarmos aqui, nossa galáxia não tem nada de muito especial. Ao menos, nos resta o consolo de que somos parte do Universo, dividindo com ele sua composição material. Nós somos, como dizem os poetas astrofísicos, poeira das estrelas, feitos dos mesmos prótons, nêutrons e elétrons que o Sol e seus primos. Isso está garantido. Poetas e cientistas, ou poetas-cientistas, podem ficar sossegados. Só que a matéria da qual somos compostos é praticamente insignificante quando comparada com o material que realmente domina a dinâmica cósmica. Ou seja, somos poeirinha cósmica.
Eu explico. Nos anos 30, Fritz Zwicky, um grande iconoclasta da astronomia, descobriu que as velocidades das galáxias quando em grupos era muito maior do que a resultante da força gravitacional que elas exercem entre si. Zwicky argumentou que em torno de 90% da massa no "aglomerado" era invisível, isto é, algo que não gera sua própria luz. Várias soluções foram propostas para explicar essa "matéria escura": nuvens de gás interestelar, estrelas que não têm massa suficiente para iniciar o processo de fusão, planetas como Júpiter etc. Na última década, ficou claro que todas essas "soluções" não contribuem em quantidade suficiente para a matéria escura. Na verdade, a coisa é bem mais exótica: aparentemente, a matéria escura não é o que nós chamamos de matéria, isto é, prótons, nêutrons ou elétrons. A matéria normal constitui apenas cerca de 10% a 30% da matéria cósmica. E o resto?
Claro, se o assunto é a composição material do cosmos, o macro se mistura com o micro; físicos de partículas examinam a possibilidade de que esse outro tipo de matéria seja composto pelas chamadas partículas supersimétricas, pares das partículas normais de matéria. Segundo essa teoria, cada partícula de matéria tem sua parceria supersimétrica: o elétron tem o selétron, o quark tem o squark, o fóton tem o fotino etc. Ainda não as descobrimos porque elas interagem tão fracamente com a matéria ordinária que passam completamente despercebidas, ou quase.
Aproximadamente 10 trilhões dessas partículas passam por um quilograma de matéria por segundo! Não adianta querer escapar, pois elas vêm de todos os lados. Mas nem todas as partículas supersimétricas são estáveis; apenas a mais leve delas sobrevive. As outras se desintegram em partículas mais leves, até chegar na peso-pena. É essa que se transformou na menina dos olhos dos caçadores de matéria escura.
Um grupo de físicos italianos e chineses, em um laboratório sob a montanha Gran Sasso, na Itália, declarou em fevereiro ter detectado sinais dessa partícula: seus detectores acusaram colisões entre as superpartículas e núcleos atômicos. Já outro grupo em Berkeley não viu nenhuma colisão em seus detectores, questionando o resultado italiano.
Durante essa década, detectores mais sensíveis irão decidir a questão. No meio tempo, temos de ficar às escuras, juntamente com a maior parte do Universo.
domingo, 19 de março de 2000
domingo, 12 de março de 2000
Perguntar é preciso
Existem três questões abertas em ciência que dividem uma temática única: a questão das origens. Eu costumo chamar essas questões de "o problema das três origens": a origem do Universo, a origem da vida e a origem da mente. Leitores mais fiéis desta coluna certamente já se depararam com textos que discutem os desafios e progressos relacionados a essas questões. O que as torna tão fascinantes é que elas não são apenas de interesse científico, mas questões que volta e meia qualquer um se pergunta. Aliás, essa é a razão pela qual elas são tão interessantes para os cientistas: de certa forma, o questionamento sobre nossas origens é o que define a humanidade, é o que nos permite conviver com o fato que pensamos, existimos e morremos.
Não é à toa que as primeiras respostas às três perguntas foram criadas pelas várias religiões que pontuam nossa história. As respostas têm a dupla função de nos trazer a paz de espírito, para que possamos aceitar nossas limitações perante o acaso, ou aquilo que não podemos controlar -uma morte súbita, uma tempestade cataclísmica -, e nos permitir funcionar moralmente em uma sociedade em que todos dividem ao menos parte de uma história: seu início.
As narrativas das várias religiões para as três perguntas criam uma cultura em comum, que funciona como um indicador do grupo; outros grupos têm outras histórias, outras culturas, outras origens. Infelizmente, essas disparidades em geral geram intolerância e desrespeito. Muitas das guerras religiosas que tingem de sangue a história da humanidade foram disputas de origens, de uma origem mais "nobre" (para os membros daquela cultura, claro) ou de um "direito" divino sobre a hegemonia de uma história. Em geral, os deuses não aparecem nas batalhas para defender seus defensores, se bem que, às vezes, eles "mandam" sinais cósmicos: eclipses, arco-íris, cometas etc.
No século 17, a ciência entra e começa a se perguntar as mesmas questões "sacras". Qual a origem do Universo? Será que podemos, pela razão, compreender a origem de "tudo"? E a origem da vida? Será que ela foi um acaso bioquímico, um acidente local em um insignificante planeta orbitando uma estrela em uma galáxia comum, ou será que a vida tem um "plano", se estendendo pelo Universo afora com o objetivo de povoá-lo como um vírus povoa o corpo de um doente? Ou será que ela existe, mas sem plano nenhum? E a mente? Como é possível que processos bioeletroquímicos no cérebro possam gerar nossa consciência, nosso senso de saber que existimos? Ou será que a mente é algo diferente, que necessita de uma ciência que não podemos ainda nem contemplar? Como dizia o grande escritor de ficção científica Arthur C. Clarke, a tecnologia do futuro longínquo aparecerá sempre como mágica no presente. Exemplo: Galileu "surfando" na Internet, imagine que absurdo para uma mente do século 17 (mas talvez não para Galileu).
Passados quase 400 anos desde que Galileu apontou um telescópio para a Lua, as três questões estão completamente integradas dentro da pesquisa científica. Respostas ainda não temos, alguns acham que jamais as teremos. Mas tentar sem dúvida devemos, e dessas tentativas descobertas maravilhosas têm sido feitas sobre o Universo, sobre a base biológica da vida e sobre a estrutura neurológica do cérebro. O Universo está em expansão, bilhões de galáxias com bilhões de estrelas cada, muitas cercadas de pequenos mundos como o nosso; a multiplicidade biológica da vida tem uma base genética comum, que está sendo mapeada em detalhe, abrindo possibilidades fantásticas e aterrorizantes; as complexas atividades do cérebro são compostas de bandos de neurônios que, individualmente ou em grupo, trabalham para construir nosso senso de realidade. Tudo isso, e o que nem podemos ainda imaginar, devido às perguntas que fazemos.
Não é à toa que as primeiras respostas às três perguntas foram criadas pelas várias religiões que pontuam nossa história. As respostas têm a dupla função de nos trazer a paz de espírito, para que possamos aceitar nossas limitações perante o acaso, ou aquilo que não podemos controlar -uma morte súbita, uma tempestade cataclísmica -, e nos permitir funcionar moralmente em uma sociedade em que todos dividem ao menos parte de uma história: seu início.
As narrativas das várias religiões para as três perguntas criam uma cultura em comum, que funciona como um indicador do grupo; outros grupos têm outras histórias, outras culturas, outras origens. Infelizmente, essas disparidades em geral geram intolerância e desrespeito. Muitas das guerras religiosas que tingem de sangue a história da humanidade foram disputas de origens, de uma origem mais "nobre" (para os membros daquela cultura, claro) ou de um "direito" divino sobre a hegemonia de uma história. Em geral, os deuses não aparecem nas batalhas para defender seus defensores, se bem que, às vezes, eles "mandam" sinais cósmicos: eclipses, arco-íris, cometas etc.
No século 17, a ciência entra e começa a se perguntar as mesmas questões "sacras". Qual a origem do Universo? Será que podemos, pela razão, compreender a origem de "tudo"? E a origem da vida? Será que ela foi um acaso bioquímico, um acidente local em um insignificante planeta orbitando uma estrela em uma galáxia comum, ou será que a vida tem um "plano", se estendendo pelo Universo afora com o objetivo de povoá-lo como um vírus povoa o corpo de um doente? Ou será que ela existe, mas sem plano nenhum? E a mente? Como é possível que processos bioeletroquímicos no cérebro possam gerar nossa consciência, nosso senso de saber que existimos? Ou será que a mente é algo diferente, que necessita de uma ciência que não podemos ainda nem contemplar? Como dizia o grande escritor de ficção científica Arthur C. Clarke, a tecnologia do futuro longínquo aparecerá sempre como mágica no presente. Exemplo: Galileu "surfando" na Internet, imagine que absurdo para uma mente do século 17 (mas talvez não para Galileu).
Passados quase 400 anos desde que Galileu apontou um telescópio para a Lua, as três questões estão completamente integradas dentro da pesquisa científica. Respostas ainda não temos, alguns acham que jamais as teremos. Mas tentar sem dúvida devemos, e dessas tentativas descobertas maravilhosas têm sido feitas sobre o Universo, sobre a base biológica da vida e sobre a estrutura neurológica do cérebro. O Universo está em expansão, bilhões de galáxias com bilhões de estrelas cada, muitas cercadas de pequenos mundos como o nosso; a multiplicidade biológica da vida tem uma base genética comum, que está sendo mapeada em detalhe, abrindo possibilidades fantásticas e aterrorizantes; as complexas atividades do cérebro são compostas de bandos de neurônios que, individualmente ou em grupo, trabalham para construir nosso senso de realidade. Tudo isso, e o que nem podemos ainda imaginar, devido às perguntas que fazemos.
domingo, 5 de março de 2000
Rumo a Marte, mas devagar!
O planeta vermelho! Quantos filmes e livros de ficção cientifica já foram escritos, especulando sobre as estranhas formas de vida que habitam Marte. Infelizmente, até agora as sondas que lá pousaram trouxeram apenas notícias um tanto desanimadoras; Marte é aparentemente um vasto e frígido deserto, cheio de rochas e poeira avermelhadas.
Alguns canais foram encontrados, talvez leitos ressecados de antigos rios que cruzavam sua superfície há milhões de anos. É possível que Marte tenha tido água em abundância. E onde tem água, possivelmente tem vida, o que significa que formas de vida podem ter existido em Marte no passado. Ou quem sabe ainda existem e foram responsáveis pelo misterioso desaparecimento da sonda enviada pela Nasa recentemente? (Caro leitor, só para evitar alguma confusão, estou apenas brincando!)
O jeito é irmos até lá diretamente. Missões tripuladas a Marte fazem parte de uma espécie de desejo coletivo da humanidade; nós somos exploradores por natureza, e o próximo grande passo a ser dado é chegar a Marte.
O problema é que a visão romântica de uma viagem interplanetária se esvanece em segundos quando encaramos as enormes dificuldades técnicas de uma tal missão. A Nasa está planejando uma missão tripulada a Marte para o ano 2020. E, por incrível que pareça, os maiores desafios não são o desenho de naves e combustíveis, mas nossa biologia. Como que seres humanos irão suportar uma missão a Marte com duração de três anos (incluindo seis meses de ida e seis de volta) em um ambiente sem gravidade, alta exposição a radiação cósmica e sérias privações psicológicas?
Nossos corpos e sua fisiologia evoluíram em um ambiente extremamente controlado, com poucas variações de temperatura, gravidade constante e baixos níveis de radiação.
O movimento dos fluidos em nossos corpos e a densidade dos ossos dependem dessa constância. Em um ambiente sem gravidade, como o que ocorre em viagens espaciais, nossa fisiologia entra em pane total.
Astronautas sofrem sérios problemas de adaptação, incluindo vários dias com náusea (o vômito flutua na cabine, o que torna sua "captação" extremamente desagradável...), desidratação e tonteiras. Quando astronautas retornam de suas missões, eles mal conseguem distinguir os pés da cabeça. Repare que a Nasa sempre cobre as passarelas de desembarque, para que o público não veja o estado indigno de seus heróis. Períodos de quarentena têm a dupla função de isolar uma possível contaminação de "germes espaciais" e restituir a fisiologia dos tripulantes ao normal.
Veja o que acontece com o sistema circulatório: normalmente, o sangue se acumula na parte inferior de seu corpo, atraído pela gravidade. Em gravidade próxima de zero, esse sangue sobe como um vulcão; você pensa que sua cabeça irá explodir com a pressão, enquanto seu coração bate mais rápido, tentando expelir o excesso de sangue. Seu corpo calcula que existe um excesso de fluido, e você elimina mais de um litro de água a cada dois dias. A desidratação aumenta a densidade do seu sangue e, em resposta, o corpo diminui a produção de células vermelhas. Conclusão: você termina anêmico e desidratado, se não sofrer um ataque cardíaco ou um derrame antes. E isso em missões de curta duração.
Imagine passar seis meses no espaço sob essas condições e então chegar em um planeta cuja gravidade é metade da terrestre e onde não há uma equipe médica à espera. E isso sem falar nos raios cósmicos, que aumentam a incidência de câncer, o envenenamento por ferro e as mutações em bactérias que existem em nossos corpos. Sabe-se lá que novas doenças serão criadas no espaço!
Ciente desses problemas, a Nasa está buscando soluções, incluindo ambientes com gravidade simulada a bordo, espaçonaves giratórias como uma centrífuga, proteções contra radiação cósmica e técnicas cirúrgicas na ausência de gravidade: o sangue se transforma em aerossol, se espalhando pela cabine, enquanto os instrumentos não têm peso na mão do cirurgião.
Esses desafios devem ser vencidos por qualquer forma de vida que queira viajar no espaço. Quem sabe os homenzinhos verdes de Marte não podem nos passar umas dicas?
Alguns canais foram encontrados, talvez leitos ressecados de antigos rios que cruzavam sua superfície há milhões de anos. É possível que Marte tenha tido água em abundância. E onde tem água, possivelmente tem vida, o que significa que formas de vida podem ter existido em Marte no passado. Ou quem sabe ainda existem e foram responsáveis pelo misterioso desaparecimento da sonda enviada pela Nasa recentemente? (Caro leitor, só para evitar alguma confusão, estou apenas brincando!)
O jeito é irmos até lá diretamente. Missões tripuladas a Marte fazem parte de uma espécie de desejo coletivo da humanidade; nós somos exploradores por natureza, e o próximo grande passo a ser dado é chegar a Marte.
O problema é que a visão romântica de uma viagem interplanetária se esvanece em segundos quando encaramos as enormes dificuldades técnicas de uma tal missão. A Nasa está planejando uma missão tripulada a Marte para o ano 2020. E, por incrível que pareça, os maiores desafios não são o desenho de naves e combustíveis, mas nossa biologia. Como que seres humanos irão suportar uma missão a Marte com duração de três anos (incluindo seis meses de ida e seis de volta) em um ambiente sem gravidade, alta exposição a radiação cósmica e sérias privações psicológicas?
Nossos corpos e sua fisiologia evoluíram em um ambiente extremamente controlado, com poucas variações de temperatura, gravidade constante e baixos níveis de radiação.
O movimento dos fluidos em nossos corpos e a densidade dos ossos dependem dessa constância. Em um ambiente sem gravidade, como o que ocorre em viagens espaciais, nossa fisiologia entra em pane total.
Astronautas sofrem sérios problemas de adaptação, incluindo vários dias com náusea (o vômito flutua na cabine, o que torna sua "captação" extremamente desagradável...), desidratação e tonteiras. Quando astronautas retornam de suas missões, eles mal conseguem distinguir os pés da cabeça. Repare que a Nasa sempre cobre as passarelas de desembarque, para que o público não veja o estado indigno de seus heróis. Períodos de quarentena têm a dupla função de isolar uma possível contaminação de "germes espaciais" e restituir a fisiologia dos tripulantes ao normal.
Veja o que acontece com o sistema circulatório: normalmente, o sangue se acumula na parte inferior de seu corpo, atraído pela gravidade. Em gravidade próxima de zero, esse sangue sobe como um vulcão; você pensa que sua cabeça irá explodir com a pressão, enquanto seu coração bate mais rápido, tentando expelir o excesso de sangue. Seu corpo calcula que existe um excesso de fluido, e você elimina mais de um litro de água a cada dois dias. A desidratação aumenta a densidade do seu sangue e, em resposta, o corpo diminui a produção de células vermelhas. Conclusão: você termina anêmico e desidratado, se não sofrer um ataque cardíaco ou um derrame antes. E isso em missões de curta duração.
Imagine passar seis meses no espaço sob essas condições e então chegar em um planeta cuja gravidade é metade da terrestre e onde não há uma equipe médica à espera. E isso sem falar nos raios cósmicos, que aumentam a incidência de câncer, o envenenamento por ferro e as mutações em bactérias que existem em nossos corpos. Sabe-se lá que novas doenças serão criadas no espaço!
Ciente desses problemas, a Nasa está buscando soluções, incluindo ambientes com gravidade simulada a bordo, espaçonaves giratórias como uma centrífuga, proteções contra radiação cósmica e técnicas cirúrgicas na ausência de gravidade: o sangue se transforma em aerossol, se espalhando pela cabine, enquanto os instrumentos não têm peso na mão do cirurgião.
Esses desafios devem ser vencidos por qualquer forma de vida que queira viajar no espaço. Quem sabe os homenzinhos verdes de Marte não podem nos passar umas dicas?
domingo, 27 de fevereiro de 2000
Buscando a liberdade no interior do núcleo
O núcleo atômico, essa concentração de massa com diâmetro da ordem de um milésimo de bilionésimo de centímetro, tem uma personalidade bastante ambivalente na sociedade moderna. Por um lado, a energia liberada nos processos de fissão nuclear vem contribuindo cada vez mais na produção mundial de energia; avanços na medicina nuclear são extremamente importantes na luta contra várias formas de câncer. Por outro lado, o lixo nuclear, materiais radioativos altamente tóxicos produzidos tanto durante a geração de energia quanto no uso em medicina, apresenta um sério problema ambiental. Isso sem falar no lado realmente pesado do uso do núcleo atômico, nas bombas de fissão e de fusão (bomba "H") nuclear. Com toda essa carga emocional, minha escolha de título para essa Micro/Macro deve parecer paradoxal. Afinal, como que liberdade pode coabitar com física nuclear? Em contrapartida, há quem defenda a posição de que a paz mundial se deve a existência de bombas nucleares.
Para responder a essa pergunta, devemos nos esquecer, por algumas linhas, das repercussões mais nefastas da energia nuclear e nos concentrarmos na belíssima física nuclear moderna. Antes de mais nada, uma breve revisão: o núcleo atômico é composto de prótons e nêutrons, os prótons com carga elétrica positiva e os nêutrons...adivinhe! Imediatamente, surge uma questão óbvia. Se os prótons tem carga positiva e cargas iguais se repelem, o que mantém o núcleo colado? Existe uma outra força no núcleo, a força nuclear forte, que é em torno de 100 vezes mais forte do que a repulsão elétrica. Essa força "gruda" os prótons e nêutrons juntos e só age dentro de distâncias nucleares. Isso já sabíamos desde a década de 30. Já nos anos 60, descobriu-se que os prótons e nêutrons, e centenas de outras partículas observadas em experimentos de altas energias, são feitos de uma outra partícula, o quark. Na verdade, existem seis quarks, conforme descobrimos nos anos 90.
Os quarks são partículas muito tímidas. Sua propriedade mais misteriosa é chamada de confinamento: não podemos observar um quark livre, como observamos um elétron ou um próton. Quarks sempre aparecem em pares ou triplas. Se tentarmos separar um par de quarks de forma a isolar um deles, acabamos criando dois pares! O mesmo acontece com ímãs; se você tentar "isolar" um polo magnético quebrando o ímã, você acaba com dois ímãs. A imagem que usamos para representar tal fenômeno é a de um par de quarks ligados por uma mola.
Se expandirmos a mola até ela quebrar, a energia usada cria um novo par de quarks, e ficamos com duas molas e dois pares de quarks na mão; como dizia Einstein, E=mc2, a energia pode criar matéria. Mas nem tudo está perdido.
A mesma teoria que descreve quarks descreve como eles interagem entre si, também por meio de uma força forte. Eles trocam partículas chamadas glúons, que mantém os quarks unidos nos prótons, nêutrons, etc. Essa teoria prevê que a timidez dos quarks desaparece a distâncias bem íntimas. Ou seja, a distâncias muito pequenas e energias muito altas, os quarks se comportam como partículas livres, num processo chamado de liberdade assintótica. Essas distâncias só podem ser atingidas de dois modos: a frações de segundo após o Big-Bang, a fase de altíssimas temperatura e densidade que marca o início da historia do universo, ou em colisões entre núcleos atômicos a altíssimas energias. Nessas condições dramáticas, as partículas que contém os quarks e os glúons sofrem uma metamorfose, transformando-se em uma sopa de quarks e glúons, ou um plasma de quark-glúons, como ovos mutantes que se quebram revelando suas duas ou três gemas (os quarks) e a clara em torno delas (os glúons).
No início de fevereiro, um time com mais de 600 físicos no Cern, laboratório europeu de física de altas energias, declarou ter identificado a presença do plasma de quark-glúons em colisões de núcleos de chumbo e ouro. Para tal, as colisões criaram temperaturas 100 mil vezes maiores que no centro do Sol, que ocorreram quando o Universo tinha menos de um milésimo de segundo de existência. Certos tipos de timidez são extremamente persistentes.
Para responder a essa pergunta, devemos nos esquecer, por algumas linhas, das repercussões mais nefastas da energia nuclear e nos concentrarmos na belíssima física nuclear moderna. Antes de mais nada, uma breve revisão: o núcleo atômico é composto de prótons e nêutrons, os prótons com carga elétrica positiva e os nêutrons...adivinhe! Imediatamente, surge uma questão óbvia. Se os prótons tem carga positiva e cargas iguais se repelem, o que mantém o núcleo colado? Existe uma outra força no núcleo, a força nuclear forte, que é em torno de 100 vezes mais forte do que a repulsão elétrica. Essa força "gruda" os prótons e nêutrons juntos e só age dentro de distâncias nucleares. Isso já sabíamos desde a década de 30. Já nos anos 60, descobriu-se que os prótons e nêutrons, e centenas de outras partículas observadas em experimentos de altas energias, são feitos de uma outra partícula, o quark. Na verdade, existem seis quarks, conforme descobrimos nos anos 90.
Os quarks são partículas muito tímidas. Sua propriedade mais misteriosa é chamada de confinamento: não podemos observar um quark livre, como observamos um elétron ou um próton. Quarks sempre aparecem em pares ou triplas. Se tentarmos separar um par de quarks de forma a isolar um deles, acabamos criando dois pares! O mesmo acontece com ímãs; se você tentar "isolar" um polo magnético quebrando o ímã, você acaba com dois ímãs. A imagem que usamos para representar tal fenômeno é a de um par de quarks ligados por uma mola.
Se expandirmos a mola até ela quebrar, a energia usada cria um novo par de quarks, e ficamos com duas molas e dois pares de quarks na mão; como dizia Einstein, E=mc2, a energia pode criar matéria. Mas nem tudo está perdido.
A mesma teoria que descreve quarks descreve como eles interagem entre si, também por meio de uma força forte. Eles trocam partículas chamadas glúons, que mantém os quarks unidos nos prótons, nêutrons, etc. Essa teoria prevê que a timidez dos quarks desaparece a distâncias bem íntimas. Ou seja, a distâncias muito pequenas e energias muito altas, os quarks se comportam como partículas livres, num processo chamado de liberdade assintótica. Essas distâncias só podem ser atingidas de dois modos: a frações de segundo após o Big-Bang, a fase de altíssimas temperatura e densidade que marca o início da historia do universo, ou em colisões entre núcleos atômicos a altíssimas energias. Nessas condições dramáticas, as partículas que contém os quarks e os glúons sofrem uma metamorfose, transformando-se em uma sopa de quarks e glúons, ou um plasma de quark-glúons, como ovos mutantes que se quebram revelando suas duas ou três gemas (os quarks) e a clara em torno delas (os glúons).
No início de fevereiro, um time com mais de 600 físicos no Cern, laboratório europeu de física de altas energias, declarou ter identificado a presença do plasma de quark-glúons em colisões de núcleos de chumbo e ouro. Para tal, as colisões criaram temperaturas 100 mil vezes maiores que no centro do Sol, que ocorreram quando o Universo tinha menos de um milésimo de segundo de existência. Certos tipos de timidez são extremamente persistentes.
domingo, 20 de fevereiro de 2000
Mapeando a Terra do céu
Os proprietários de terra egípcios anualmente enfrentavam um sério problema: as cheias do Nilo submergiam as demarcações das terras, causando muita briga e confusão: os coletores de impostos do faraó não sabiam o que cobrar de quem. Como a necessidade é a melhor escola, o uso de mapas passou a ser extremamente importante para o governo. Mas o desenvolvimento de mapas não foi apenas causado por interesses econômicos. Mapas antigos revelavam toda a visão de mundo da cultura que os produziu, toda a cosmologia da época. Mapas tentavam encapsular não só o reconhecimento geográfico da Terra, mas seu lugar nos céus.
No século 3 a.C., Eratóstenes de Cirena mediu pela primeira vez a circunferência da Terra. Juntamente com o grande astrônomo grego Hiparco, Eratóstenes desenvolveu a linguagem da cartografia em termos do globo terrestre e do sistema de latitude e longitude, usada até hoje.
Depois de um intervalo de 15 séculos durante a Idade Média, a cartografia passou por um período de grande renovação com a expansão das viagens exploratórias dos portugueses e espanhóis. O desenvolvimento da cartografia aliava interesses econômicos aos de sobrevivência das tripulações dos navios, assim como estratégias bélicas: para conquistar o território do inimigo ou para explorar as riquezas de uma colônia, nada mais básico do que conhecer seus detalhes geográficos.
Passados 500 anos, nós entramos em uma nova fase de cartografia terrestre. Com a ajuda do ônibus espacial Endeavour, cientistas da Nasa, a agência espacial dos EUA, deverão criar um mapa praticamente completo da superfície terrestre, não só em latitude e longitude, mas também em altitude, isto é, um mapa tridimensional de nosso planeta.
A resolução do mapa será de 30 metros, contra a resolução dos mapas atuais, que é de 90 metros, e a precisão das medidas de altitude será entre 6 metros e 18 metros.
A quantidade absurda de dados gerada pelos radares da Endeavour encherá o equivalente a 13.500 CDs. A missão reflete uma tendência cada vez maior na pesquisa de ponta, que é a criação de colaborações internacionais, no caso com as agências espaciais italiana e alemã.
Claro, esse tipo de empreendimento não foge à regra geral dos mapas do século 16: existem interesses econômicos e militares em jogo, se bem que a propaganda vai para o lado dos benefícios que o novo mapa trará para a sociedade. Por exemplo, os dados sobre as variações em altitude ajudarão os estudos sobre erosão em diversos terrenos, terremotos, enchentes, vulcões e mudanças climáticas. Os mapas ajudarão também na manutenção das florestas e na identificação de áreas propícias à implantação de antenas e outros dispositivos usados em telecomunicação. É curioso: hoje nós temos mapas topográficos mais precisos das superfícies de Vênus e de Marte do que da Terra.
Um dos maiores interessados no projeto é o Departamento de Defesa Norte-Americano, que entrou com US$ 200 milhões no financiamento. Detalhes da ordem de 30 metros são suficientes para localizar fábricas e depósitos clandestinos de armamentos, sejam eles nucleares ou bioquímicos.
Com isso, apenas dados com resolução de 90 metros serão liberados ao público em geral. Acesso a dados com maior precisão tem de ser autorizado individualmente. Imagino que o Departamento de Defesa também esteja planejando usar os dados não só para defender, mas para atacar; caso uma fábrica clandestina de enriquecimento de materiais nucleares seja encontrada, seria fácil destruí-la remotamente, usando mísseis balísticos. Com o final da Guerra Fria, o inimigo tornou-se invisível, um grupo terrorista isolado, em vez de uma nação.
Para produzir esse mapa, o ônibus espacial usará duas antenas, uma na nave e outra na extremidade de um mastro de 60 metros, o maior já usado no espaço. As duas antenas captarão as ondas emitidas pela nave, após elas serem refletidas pela superfície da Terra. A pequena diferença de distância entre as antenas gerará dois mapas que, quando comparados, produzirão informação sobre a altitude. Do céu, nada se esconde.
No século 3 a.C., Eratóstenes de Cirena mediu pela primeira vez a circunferência da Terra. Juntamente com o grande astrônomo grego Hiparco, Eratóstenes desenvolveu a linguagem da cartografia em termos do globo terrestre e do sistema de latitude e longitude, usada até hoje.
Depois de um intervalo de 15 séculos durante a Idade Média, a cartografia passou por um período de grande renovação com a expansão das viagens exploratórias dos portugueses e espanhóis. O desenvolvimento da cartografia aliava interesses econômicos aos de sobrevivência das tripulações dos navios, assim como estratégias bélicas: para conquistar o território do inimigo ou para explorar as riquezas de uma colônia, nada mais básico do que conhecer seus detalhes geográficos.
Passados 500 anos, nós entramos em uma nova fase de cartografia terrestre. Com a ajuda do ônibus espacial Endeavour, cientistas da Nasa, a agência espacial dos EUA, deverão criar um mapa praticamente completo da superfície terrestre, não só em latitude e longitude, mas também em altitude, isto é, um mapa tridimensional de nosso planeta.
A resolução do mapa será de 30 metros, contra a resolução dos mapas atuais, que é de 90 metros, e a precisão das medidas de altitude será entre 6 metros e 18 metros.
A quantidade absurda de dados gerada pelos radares da Endeavour encherá o equivalente a 13.500 CDs. A missão reflete uma tendência cada vez maior na pesquisa de ponta, que é a criação de colaborações internacionais, no caso com as agências espaciais italiana e alemã.
Claro, esse tipo de empreendimento não foge à regra geral dos mapas do século 16: existem interesses econômicos e militares em jogo, se bem que a propaganda vai para o lado dos benefícios que o novo mapa trará para a sociedade. Por exemplo, os dados sobre as variações em altitude ajudarão os estudos sobre erosão em diversos terrenos, terremotos, enchentes, vulcões e mudanças climáticas. Os mapas ajudarão também na manutenção das florestas e na identificação de áreas propícias à implantação de antenas e outros dispositivos usados em telecomunicação. É curioso: hoje nós temos mapas topográficos mais precisos das superfícies de Vênus e de Marte do que da Terra.
Um dos maiores interessados no projeto é o Departamento de Defesa Norte-Americano, que entrou com US$ 200 milhões no financiamento. Detalhes da ordem de 30 metros são suficientes para localizar fábricas e depósitos clandestinos de armamentos, sejam eles nucleares ou bioquímicos.
Com isso, apenas dados com resolução de 90 metros serão liberados ao público em geral. Acesso a dados com maior precisão tem de ser autorizado individualmente. Imagino que o Departamento de Defesa também esteja planejando usar os dados não só para defender, mas para atacar; caso uma fábrica clandestina de enriquecimento de materiais nucleares seja encontrada, seria fácil destruí-la remotamente, usando mísseis balísticos. Com o final da Guerra Fria, o inimigo tornou-se invisível, um grupo terrorista isolado, em vez de uma nação.
Para produzir esse mapa, o ônibus espacial usará duas antenas, uma na nave e outra na extremidade de um mastro de 60 metros, o maior já usado no espaço. As duas antenas captarão as ondas emitidas pela nave, após elas serem refletidas pela superfície da Terra. A pequena diferença de distância entre as antenas gerará dois mapas que, quando comparados, produzirão informação sobre a altitude. Do céu, nada se esconde.
domingo, 13 de fevereiro de 2000
O preço da imortalidade
Começo hoje fazendo uma pergunta ao leitor: se fosse possível, você viveria para sempre? Certamente, as respostas seriam variadíssimas: de "claro!" até "Deus me livre! E as pessoas à minha volta, como eu poderia suportar a morte delas?", ou, de alguém mais religioso, "serei imortal após minha morte e pretendo esperar até lá". O sonho de prolongar a vida, indefinidamente ou por um longo período, é tão antigo quanto a história da humanidade.
Até recentemente, a solução era província das religiões, que prometem uma vida eterna no paraíso (ou no inferno!) ou um retorno ao mundo como outra pessoa ou animal, dependendo de suas atividades durante a vida anterior. Além disso, temos mitos de existências sobrenaturais derivados da religião, como no caso dos vampiros, que, para viver eternamente, precisam sugar o sangue dos vivos, tornando-se tanto predadores como presas de seu destino inglório. Mas confesso que o vampirismo tem seu toque de romantismo, pelo menos na versão hollywoodiana do mito.
E se as pesquisas em biogenética desenvolvessem técnicas que, em princípio, fossem capazes de prolongar a vida, não só curando vários tipos de doenças, mas efetivamente congelando o envelhecimento do corpo humano? Parece ficção científica, mas não é. Laboratórios nos EUA e em outros países tentam isolar uma célula que tem um papel crucial no desenvolvimento dos embriões humanos, a célula-tronco. Essa célula fantástica tem o potencial de se transformar em qualquer célula do corpo humano, formando tecidos ou órgãos. Ou seja, ela carrega a informação genética que pode gerar um determinado tipo de músculo ou a pele, um rim ou um fígado, uma verdadeira fábrica de materiais de construção de seres humanos.
Claro, existem várias dificuldades técnicas, sem falar nas dificuldades éticas. Primeiro, para isolar a célula-tronco, um embrião humano tem de ser destruído, de acordo com as tecnologias atuais. A questão é, então, se a destruição de uma massa de células humanas, alguns dias após a fertilização, corresponde a um assassinato. O Congresso norte-americano, preocupado com as repercussões dessas pesquisas, proibiu entidades governamentais de financiar experiências com embriões humanos. Como resultado, o setor privado, isto é, indústrias biogenéticas com fins lucrativos, está controlando a pesquisa na área. E essas indústrias não vão revelar suas descobertas (e fracassos) ao público enquanto não obtiverem o resultado que procuram.
Após isolar a célula-tronco, a idéia é descobrir qual o mecanismo bioquímico que a induz em uma determinada direção, transformando-a em um coração, cérebro ou músculo. Se esse mesmo mecanismo for descoberto, será possível que uma pessoa doe uma amostra de seu material genético a uma empresa, que poderá então clonar qualquer órgão que essa pessoa venha a precisar no futuro. O problema com a incompatibilidade em transplantes desaparece, pois esses órgãos são essencialmente você. As pesquisas no momento usam óvulos extraídos de vacas como invólucro do DNA humano; os técnicos retiram o DNA do óvulo (ninguém quer um feto que "diz" muuu...) e injetam células humanas que são então fundidas com as da vaca por meio de correntes elétricas. A esperança é que esse processo irá induzir a divisão das células, formando um embrião que trará consigo as células-tronco.
As indústrias biogenéticas argumentam que as vantagens desse processo são muito maiores que as repercussões éticas. "O que é mais importante? A "vida" de uma massa embrionária ou de uma criança morrendo de câncer?" ou "imagine quantas espécies em extinção poderemos salvar?". Críticos afirmam que os perigos são enormes. Por exemplo, "o que acontece com uma pessoa que tem parte do cérebro regenerada? Será que ela manterá sua identidade? E como iremos sustentar tanta gente no mundo?". Isso tudo ainda está longe; mas o debate público tem de ser iniciado agora, para que a sociedade não seja a última a saber o que acontecerá com seu destino.
Até recentemente, a solução era província das religiões, que prometem uma vida eterna no paraíso (ou no inferno!) ou um retorno ao mundo como outra pessoa ou animal, dependendo de suas atividades durante a vida anterior. Além disso, temos mitos de existências sobrenaturais derivados da religião, como no caso dos vampiros, que, para viver eternamente, precisam sugar o sangue dos vivos, tornando-se tanto predadores como presas de seu destino inglório. Mas confesso que o vampirismo tem seu toque de romantismo, pelo menos na versão hollywoodiana do mito.
E se as pesquisas em biogenética desenvolvessem técnicas que, em princípio, fossem capazes de prolongar a vida, não só curando vários tipos de doenças, mas efetivamente congelando o envelhecimento do corpo humano? Parece ficção científica, mas não é. Laboratórios nos EUA e em outros países tentam isolar uma célula que tem um papel crucial no desenvolvimento dos embriões humanos, a célula-tronco. Essa célula fantástica tem o potencial de se transformar em qualquer célula do corpo humano, formando tecidos ou órgãos. Ou seja, ela carrega a informação genética que pode gerar um determinado tipo de músculo ou a pele, um rim ou um fígado, uma verdadeira fábrica de materiais de construção de seres humanos.
Claro, existem várias dificuldades técnicas, sem falar nas dificuldades éticas. Primeiro, para isolar a célula-tronco, um embrião humano tem de ser destruído, de acordo com as tecnologias atuais. A questão é, então, se a destruição de uma massa de células humanas, alguns dias após a fertilização, corresponde a um assassinato. O Congresso norte-americano, preocupado com as repercussões dessas pesquisas, proibiu entidades governamentais de financiar experiências com embriões humanos. Como resultado, o setor privado, isto é, indústrias biogenéticas com fins lucrativos, está controlando a pesquisa na área. E essas indústrias não vão revelar suas descobertas (e fracassos) ao público enquanto não obtiverem o resultado que procuram.
Após isolar a célula-tronco, a idéia é descobrir qual o mecanismo bioquímico que a induz em uma determinada direção, transformando-a em um coração, cérebro ou músculo. Se esse mesmo mecanismo for descoberto, será possível que uma pessoa doe uma amostra de seu material genético a uma empresa, que poderá então clonar qualquer órgão que essa pessoa venha a precisar no futuro. O problema com a incompatibilidade em transplantes desaparece, pois esses órgãos são essencialmente você. As pesquisas no momento usam óvulos extraídos de vacas como invólucro do DNA humano; os técnicos retiram o DNA do óvulo (ninguém quer um feto que "diz" muuu...) e injetam células humanas que são então fundidas com as da vaca por meio de correntes elétricas. A esperança é que esse processo irá induzir a divisão das células, formando um embrião que trará consigo as células-tronco.
As indústrias biogenéticas argumentam que as vantagens desse processo são muito maiores que as repercussões éticas. "O que é mais importante? A "vida" de uma massa embrionária ou de uma criança morrendo de câncer?" ou "imagine quantas espécies em extinção poderemos salvar?". Críticos afirmam que os perigos são enormes. Por exemplo, "o que acontece com uma pessoa que tem parte do cérebro regenerada? Será que ela manterá sua identidade? E como iremos sustentar tanta gente no mundo?". Isso tudo ainda está longe; mas o debate público tem de ser iniciado agora, para que a sociedade não seja a última a saber o que acontecerá com seu destino.
domingo, 6 de fevereiro de 2000
A escura e estranha matéria do Universo
Do nosso ponto de vista terrestre, humilde e limitado, o Universo é simples, alguns milhares de estrelas que vemos em noites bem claras, um planeta ou outro, às vezes um cometa ou estrela cadente. Mas claro, o que nós vemos a olho nu é pouco, muito pouco do que realmente está lá fora. Daí que inventamos novos "olhos", instrumentos capazes de ver além do curto alcance da nossa visão ou mesmo capazes de medir radiações invisíveis aos olhos, como os raios X, ultravioleta, infravermelho e ondas de rádio.
A imagem que emerge da combinação de todas essas observações é a de um Universo de dimensões absolutamente inconcebíveis, de um Universo dinâmico, em expansão, povoado por inúmeros objetos também sempre em transformação. O astrônomo extragalático, ou seja, que faz observações além da nossa galáxia, tem, hoje, dois grandes desafios: estudar como as galáxias estão distribuídas no cosmos e qual a sua composição material. Aparentemente, as respostas mais óbvias a essas duas perguntas estão longe de corresponder à realidade: a composição material das galáxias não se limita a estrelas e nuvens de gás interestelar, mas é dominada por um outro tipo de matéria, a chamada matéria escura, que não emite luz por si própria. Observações indicam que mais de 90% da massa total de uma galáxia não está em estrelas ou gases, mas nessa matéria escura, cuja composição permanece até hoje misteriosa. Assim, surge uma questão: qual é a distribuição dessa matéria escura nas galáxias? Ela está concentrada no centro, espalhada junto com a matéria visível (estrelas etc.), ou se alastrando além das estrelas?
E a distribuição das galáxias no Universo? A expectativa seria que as galáxias fossem como grãos de areia espalhados aleatoriamente sobre uma mesa, sem uma geometria especial. Mas o que vemos é o oposto, um Universo filamentoso, onde vastas estruturas materiais, contendo milhares de galáxias, criam uma espécie de rede luminosa, cercando volumes onde praticamente não encontramos nada; um Universo com uma geometria semelhante ao que vemos em espumas de sabão em banhos de banheira.
A grande força escultora dessa obra cósmica é a gravidade. E, segundo as observações mais recentes, esses dois aspectos do Universo, sua composição material e sua estrutura geométrica, estão profundamente interligados. Vários astrônomos acreditavam que havia dois "tipos" de matéria escura: uma que atuava em cada galáxia e outra que se espalhava pelo Universo afora. Mas até que ponto a matéria escura se alastra além do que observamos no visível? A imagem é um pouco como uma ilha no oceano: nós vemos a ilha, mas sabemos que ela se estende além de sua parte visível, até "desaparecer" no fundo do oceano. A questão é até onde a ilha se estende.
Como medir algo invisível? O único jeito é explorar o efeito gravitacional da matéria escura. Isso está sendo feito agora por dois grupos que exploram métodos diferentes. Ambos usam o fato de que galáxias podem funcionar como lentes, distorcendo a luz que vem de galáxias mais distantes. Sabemos que, ao colocar uma lente de aumento entre nosso olho e um objeto, alteramos a imagem do objeto. Essa alteração ocorre de dois modos, deformando a imagem e amplificando (ou suprimindo) sua luminosidade. Essas são as técnicas de cada grupo: um estuda a alteração na imagem de galáxias distantes devido a galáxias mais próximas, enquanto o outro estuda as mudanças no seu brilho.
Ambos os grupos argumentam que o véu escuro das galáxias se estende muito além de sua parte visível. Um afirma que ele se estende no mínimo por 1,5 milhões de anos-luz, enquanto o outro diz que essa distância pode chegar a 15 milhões de anos-luz. A Via Láctea tem diâmetro de 100 mil anos-luz e Andrômeda, nossa galáxia vizinha, está a 2 milhões de anos-luz. Ou seja, se essas observações forem confirmadas, podemos visualizar o Universo como um vasto oceano de matéria escura, com as galáxias sendo pequenos recifes feitos de estrelas.
A imagem que emerge da combinação de todas essas observações é a de um Universo de dimensões absolutamente inconcebíveis, de um Universo dinâmico, em expansão, povoado por inúmeros objetos também sempre em transformação. O astrônomo extragalático, ou seja, que faz observações além da nossa galáxia, tem, hoje, dois grandes desafios: estudar como as galáxias estão distribuídas no cosmos e qual a sua composição material. Aparentemente, as respostas mais óbvias a essas duas perguntas estão longe de corresponder à realidade: a composição material das galáxias não se limita a estrelas e nuvens de gás interestelar, mas é dominada por um outro tipo de matéria, a chamada matéria escura, que não emite luz por si própria. Observações indicam que mais de 90% da massa total de uma galáxia não está em estrelas ou gases, mas nessa matéria escura, cuja composição permanece até hoje misteriosa. Assim, surge uma questão: qual é a distribuição dessa matéria escura nas galáxias? Ela está concentrada no centro, espalhada junto com a matéria visível (estrelas etc.), ou se alastrando além das estrelas?
E a distribuição das galáxias no Universo? A expectativa seria que as galáxias fossem como grãos de areia espalhados aleatoriamente sobre uma mesa, sem uma geometria especial. Mas o que vemos é o oposto, um Universo filamentoso, onde vastas estruturas materiais, contendo milhares de galáxias, criam uma espécie de rede luminosa, cercando volumes onde praticamente não encontramos nada; um Universo com uma geometria semelhante ao que vemos em espumas de sabão em banhos de banheira.
A grande força escultora dessa obra cósmica é a gravidade. E, segundo as observações mais recentes, esses dois aspectos do Universo, sua composição material e sua estrutura geométrica, estão profundamente interligados. Vários astrônomos acreditavam que havia dois "tipos" de matéria escura: uma que atuava em cada galáxia e outra que se espalhava pelo Universo afora. Mas até que ponto a matéria escura se alastra além do que observamos no visível? A imagem é um pouco como uma ilha no oceano: nós vemos a ilha, mas sabemos que ela se estende além de sua parte visível, até "desaparecer" no fundo do oceano. A questão é até onde a ilha se estende.
Como medir algo invisível? O único jeito é explorar o efeito gravitacional da matéria escura. Isso está sendo feito agora por dois grupos que exploram métodos diferentes. Ambos usam o fato de que galáxias podem funcionar como lentes, distorcendo a luz que vem de galáxias mais distantes. Sabemos que, ao colocar uma lente de aumento entre nosso olho e um objeto, alteramos a imagem do objeto. Essa alteração ocorre de dois modos, deformando a imagem e amplificando (ou suprimindo) sua luminosidade. Essas são as técnicas de cada grupo: um estuda a alteração na imagem de galáxias distantes devido a galáxias mais próximas, enquanto o outro estuda as mudanças no seu brilho.
Ambos os grupos argumentam que o véu escuro das galáxias se estende muito além de sua parte visível. Um afirma que ele se estende no mínimo por 1,5 milhões de anos-luz, enquanto o outro diz que essa distância pode chegar a 15 milhões de anos-luz. A Via Láctea tem diâmetro de 100 mil anos-luz e Andrômeda, nossa galáxia vizinha, está a 2 milhões de anos-luz. Ou seja, se essas observações forem confirmadas, podemos visualizar o Universo como um vasto oceano de matéria escura, com as galáxias sendo pequenos recifes feitos de estrelas.
quinta-feira, 27 de janeiro de 2000
Buscando a liberdade no interior do núcleo
O núcleo atômico, essa concentração de massa com diâmetro da ordem de um milésimo de bilionésimo de centímetro, tem uma personalidade bastante ambivalente na sociedade moderna. Por um lado, a energia liberada nos processos de fissão nuclear vem contribuindo cada vez mais na produção mundial de energia; avanços na medicina nuclear são extremamente importantes na luta contra várias formas de câncer. Por outro lado, o lixo nuclear, materiais radioativos altamente tóxicos produzidos tanto durante a geração de energia quanto no uso em medicina, apresenta um sério problema ambiental. Isso sem falar no lado realmente pesado do uso do núcleo atômico, nas bombas de fissão e de fusão (bomba "H") nuclear. Com toda essa carga emocional, minha escolha de título para essa Micro/Macro deve parecer paradoxal. Afinal, como que liberdade pode coabitar com física nuclear? Em contrapartida, há quem defenda a posição de que a paz mundial se deve a existência de bombas nucleares.
Para responder a essa pergunta, devemos nos esquecer, por algumas linhas, das repercussões mais nefastas da energia nuclear e nos concentrarmos na belíssima física nuclear moderna. Antes de mais nada, uma breve revisão: o núcleo atômico é composto de prótons e nêutrons, os prótons com carga elétrica positiva e os nêutrons...adivinhe! Imediatamente, surge uma questão óbvia. Se os prótons tem carga positiva e cargas iguais se repelem, o que mantém o núcleo colado? Existe uma outra força no núcleo, a força nuclear forte, que é em torno de 100 vezes mais forte do que a repulsão elétrica. Essa força "gruda" os prótons e nêutrons juntos e só age dentro de distâncias nucleares. Isso já sabíamos desde a década de 30. Já nos anos 60, descobriu-se que os prótons e nêutrons, e centenas de outras partículas observadas em experimentos de altas energias, são feitos de uma outra partícula, o quark. Na verdade, existem seis quarks, conforme descobrimos nos anos 90.
Os quarks são partículas muito tímidas. Sua propriedade mais misteriosa é chamada de confinamento: não podemos observar um quark livre, como observamos um elétron ou um próton. Quarks sempre aparecem em pares ou triplas. Se tentarmos separar um par de quarks de forma a isolar um deles, acabamos criando dois pares! O mesmo acontece com ímãs; se você tentar "isolar" um polo magnético quebrando o ímã, você acaba com dois ímãs. A imagem que usamos para representar tal fenômeno é a de um par de quarks ligados por uma mola.
Se expandirmos a mola até ela quebrar, a energia usada cria um novo par de quarks, e ficamos com duas molas e dois pares de quarks na mão; como dizia Einstein, E=mc2, a energia pode criar matéria. Mas nem tudo está perdido.
A mesma teoria que descreve quarks descreve como eles interagem entre si, também por meio de uma força forte. Eles trocam partículas chamadas glúons, que mantém os quarks unidos nos prótons, nêutrons, etc. Essa teoria prevê que a timidez dos quarks desaparece a distâncias bem íntimas. Ou seja, a distâncias muito pequenas e energias muito altas, os quarks se comportam como partículas livres, num processo chamado de liberdade assintótica. Essas distâncias só podem ser atingidas de dois modos: a frações de segundo após o Big-Bang, a fase de altíssimas temperatura e densidade que marca o início da historia do universo, ou em colisões entre núcleos atômicos a altíssimas energias. Nessas condições dramáticas, as partículas que contém os quarks e os glúons sofrem uma metamorfose, transformando-se em uma sopa de quarks e glúons, ou um plasma de quark-glúons, como ovos mutantes que se quebram revelando suas duas ou três gemas (os quarks) e a clara em torno delas (os glúons).
No início de fevereiro, um time com mais de 600 físicos no Cern, laboratório europeu de física de altas energias, declarou ter identificado a presença do plasma de quark-glúons em colisões de núcleos de chumbo e ouro. Para tal, as colisões criaram temperaturas 100 mil vezes maiores que no centro do Sol, que ocorreram quando o Universo tinha menos de um milésimo de segundo de existência. Certos tipos de timidez são extremamente persistentes.
Para responder a essa pergunta, devemos nos esquecer, por algumas linhas, das repercussões mais nefastas da energia nuclear e nos concentrarmos na belíssima física nuclear moderna. Antes de mais nada, uma breve revisão: o núcleo atômico é composto de prótons e nêutrons, os prótons com carga elétrica positiva e os nêutrons...adivinhe! Imediatamente, surge uma questão óbvia. Se os prótons tem carga positiva e cargas iguais se repelem, o que mantém o núcleo colado? Existe uma outra força no núcleo, a força nuclear forte, que é em torno de 100 vezes mais forte do que a repulsão elétrica. Essa força "gruda" os prótons e nêutrons juntos e só age dentro de distâncias nucleares. Isso já sabíamos desde a década de 30. Já nos anos 60, descobriu-se que os prótons e nêutrons, e centenas de outras partículas observadas em experimentos de altas energias, são feitos de uma outra partícula, o quark. Na verdade, existem seis quarks, conforme descobrimos nos anos 90.
Os quarks são partículas muito tímidas. Sua propriedade mais misteriosa é chamada de confinamento: não podemos observar um quark livre, como observamos um elétron ou um próton. Quarks sempre aparecem em pares ou triplas. Se tentarmos separar um par de quarks de forma a isolar um deles, acabamos criando dois pares! O mesmo acontece com ímãs; se você tentar "isolar" um polo magnético quebrando o ímã, você acaba com dois ímãs. A imagem que usamos para representar tal fenômeno é a de um par de quarks ligados por uma mola.
Se expandirmos a mola até ela quebrar, a energia usada cria um novo par de quarks, e ficamos com duas molas e dois pares de quarks na mão; como dizia Einstein, E=mc2, a energia pode criar matéria. Mas nem tudo está perdido.
A mesma teoria que descreve quarks descreve como eles interagem entre si, também por meio de uma força forte. Eles trocam partículas chamadas glúons, que mantém os quarks unidos nos prótons, nêutrons, etc. Essa teoria prevê que a timidez dos quarks desaparece a distâncias bem íntimas. Ou seja, a distâncias muito pequenas e energias muito altas, os quarks se comportam como partículas livres, num processo chamado de liberdade assintótica. Essas distâncias só podem ser atingidas de dois modos: a frações de segundo após o Big-Bang, a fase de altíssimas temperatura e densidade que marca o início da historia do universo, ou em colisões entre núcleos atômicos a altíssimas energias. Nessas condições dramáticas, as partículas que contém os quarks e os glúons sofrem uma metamorfose, transformando-se em uma sopa de quarks e glúons, ou um plasma de quark-glúons, como ovos mutantes que se quebram revelando suas duas ou três gemas (os quarks) e a clara em torno delas (os glúons).
No início de fevereiro, um time com mais de 600 físicos no Cern, laboratório europeu de física de altas energias, declarou ter identificado a presença do plasma de quark-glúons em colisões de núcleos de chumbo e ouro. Para tal, as colisões criaram temperaturas 100 mil vezes maiores que no centro do Sol, que ocorreram quando o Universo tinha menos de um milésimo de segundo de existência. Certos tipos de timidez são extremamente persistentes.
domingo, 23 de janeiro de 2000
Brasileiros buscam pistas sobre a estrutura da matéria
Quando físicos contam para seus amigos que eles estudam a estrutura fundamental da matéria, num bate-papo durante uma festa ou num barzinho, eles podem querer dizer coisas bem diferentes, dependendo de sua área de especialização; um físico pesquisando as propriedades de materiais, como cristais de germânio ou silício, e outro estudando o interior do núcleo atômico, usam metodologias experimentais completamente diferentes, desenhadas para responder questões também diferentes.
Na corrida pela compreensão do muito pequeno, estamos realizando experiências que investigam a estrutura da matéria a distâncias muito menores do que um próton, o integrante do núcleo atômico com carga positiva e um diâmetro aproximado de um milionésimo de bilionésimo de metro (ou 10-15 metros)!Para tal, usamos máquinas conhecidas como aceleradores de partículas, que aceleram dois feixes de partículas em direções contrárias em um túnel subterrâneo de quilômetros de circunferência.
Em certos pontos, esses dois feixes colidem e os cientistas estudam os detritos dessas colisões, que aparecem na forma de novas partículas. Nos pontos das colisões, físicos posicionam os detectores de partículas, que são como máquinas fotográficas desenhadas exclusivamente para captar tipos específicos de partículas que surgem durante as colisões.
Alguns fatores são essenciais para o sucesso da experiência: 1) quanto maior a energia do acelerador, mais profunda nossa cirurgia no interior das partículas subatômicas; 2) quanto mais "focado" for o feixe de partículas, maior a probabilidade de várias colisões ocorrerem nos pontos de encontro dentro dos detectores: isso é o que os físicos chamam de maior "luminosidade"; 3) quanto mais preciso o detector, maior nossa probabilidade de detectar eventos interessantes, possivelmente até novas espécies de partículas.
Atualmente, o acelerador recordista mundial de energia é o "Tevatron", que se encontra a oeste de Chicago, no laboratório conhecido como Fermilab. O Tevatron tem dois detectores, o "CDF" e o "D0". É no D0, um gigante com altura de cinco andares e pesando centenas de toneladas, que encontramos um grupo de físicos e engenheiros brasileiros, parte de uma colaboração envolvendo 50 instituições de pesquisa em 16 países.
A participação brasileira também representa um consórcio de instituições e universidades que inclui, no Rio, o Centro Brasileiro de Pesquisas Físicas e as Universidades Federal e Estadual; em São Paulo, a Universidade Estadual de Campinas e o Instituto de Física Teórica da Unesp; e a Universidade Federal da Bahia.Alguns membros do grupo brasileiro, como Alberto Santoro e outros, já têm uma relação antiga com o Fermilab, havendo participado de vários experimentos na última década.
A novidade é que o D0 está sendo reformado e uma parte importante dessa reforma se deve à contribuição dos cientistas brasileiros. Essa reforma é necessária devido a um futuro aumento na luminosidade do Tevatron, que exigirá um nível de precisão bem mais elevado do detector. O grupo está envolvido no chamado "Detector de Prótons Espalhados", criando dispositivos chamados de "potes romanos", em homenagem ao físico italiano (e romano) Giorgio Mathiae, que desenvolveu os primeiros potes.
Esses potes alojam sofisticados detectores de posição que são então acoplados ao corpo do D0. Com eles, os cientistas esperam seguir o processo de colisão das partículas desde seus momentos iniciais, que passavam despercebidos no passado. A esperança é que esses momentos iniciais incluam fenômenos que abrirão novas direções em nossos estudos da física subatômica.É importante exaltar o aspecto tecnológico do projeto; os detectores de posição usam fibras ópticas acopladas a amplificadores de alta precisão, puxando os limites dessas tecnologias. Isso só pode acontecer nas mãos de um time de altíssima qualidade, um exemplo da ciência de alta qualidade realizada por aqui.
Na corrida pela compreensão do muito pequeno, estamos realizando experiências que investigam a estrutura da matéria a distâncias muito menores do que um próton, o integrante do núcleo atômico com carga positiva e um diâmetro aproximado de um milionésimo de bilionésimo de metro (ou 10-15 metros)!Para tal, usamos máquinas conhecidas como aceleradores de partículas, que aceleram dois feixes de partículas em direções contrárias em um túnel subterrâneo de quilômetros de circunferência.
Em certos pontos, esses dois feixes colidem e os cientistas estudam os detritos dessas colisões, que aparecem na forma de novas partículas. Nos pontos das colisões, físicos posicionam os detectores de partículas, que são como máquinas fotográficas desenhadas exclusivamente para captar tipos específicos de partículas que surgem durante as colisões.
Alguns fatores são essenciais para o sucesso da experiência: 1) quanto maior a energia do acelerador, mais profunda nossa cirurgia no interior das partículas subatômicas; 2) quanto mais "focado" for o feixe de partículas, maior a probabilidade de várias colisões ocorrerem nos pontos de encontro dentro dos detectores: isso é o que os físicos chamam de maior "luminosidade"; 3) quanto mais preciso o detector, maior nossa probabilidade de detectar eventos interessantes, possivelmente até novas espécies de partículas.
Atualmente, o acelerador recordista mundial de energia é o "Tevatron", que se encontra a oeste de Chicago, no laboratório conhecido como Fermilab. O Tevatron tem dois detectores, o "CDF" e o "D0". É no D0, um gigante com altura de cinco andares e pesando centenas de toneladas, que encontramos um grupo de físicos e engenheiros brasileiros, parte de uma colaboração envolvendo 50 instituições de pesquisa em 16 países.
A participação brasileira também representa um consórcio de instituições e universidades que inclui, no Rio, o Centro Brasileiro de Pesquisas Físicas e as Universidades Federal e Estadual; em São Paulo, a Universidade Estadual de Campinas e o Instituto de Física Teórica da Unesp; e a Universidade Federal da Bahia.Alguns membros do grupo brasileiro, como Alberto Santoro e outros, já têm uma relação antiga com o Fermilab, havendo participado de vários experimentos na última década.
A novidade é que o D0 está sendo reformado e uma parte importante dessa reforma se deve à contribuição dos cientistas brasileiros. Essa reforma é necessária devido a um futuro aumento na luminosidade do Tevatron, que exigirá um nível de precisão bem mais elevado do detector. O grupo está envolvido no chamado "Detector de Prótons Espalhados", criando dispositivos chamados de "potes romanos", em homenagem ao físico italiano (e romano) Giorgio Mathiae, que desenvolveu os primeiros potes.
Esses potes alojam sofisticados detectores de posição que são então acoplados ao corpo do D0. Com eles, os cientistas esperam seguir o processo de colisão das partículas desde seus momentos iniciais, que passavam despercebidos no passado. A esperança é que esses momentos iniciais incluam fenômenos que abrirão novas direções em nossos estudos da física subatômica.É importante exaltar o aspecto tecnológico do projeto; os detectores de posição usam fibras ópticas acopladas a amplificadores de alta precisão, puxando os limites dessas tecnologias. Isso só pode acontecer nas mãos de um time de altíssima qualidade, um exemplo da ciência de alta qualidade realizada por aqui.
domingo, 16 de janeiro de 2000
A recriação da infância do Universo em laboratório
Nem sempre o dito popular "falem mal, mas falem de mim" é bem-vindo. Um exemplo recente diz respeito a um experimento de extrema importância que será realizado no Laboratório Nacional de Brookhaven, no Estado de Nova York, nos EUA. Um acelerador de partículas, com o nome pouco romântico de Colisor Relativístico de Íons Pesados (do inglês RHIC), andou recebendo manchetes em vários jornais e revistas do mundo inteiro.
Em princípio, essa atenção da mídia é de grande relevância para divulgar a ciência ao público não-especializado: como a ciência pura é, em sua maior parte, financiada pelo governo por meio de bolsas tiradas do orçamento da União -que, por sua vez, vem de impostos-, a população tem o direito de saber para onde está indo esse dinheiro. Mais ainda, a ciência faz parte da cultura gerada pela sociedade e deve, portanto, ser apresentada a essa, do mesmo modo que a música, a pintura ou o cinema. Em um brado bem populista, pode-se até dizer que "a ciência vem do povo e é para o povo".
Voltando ao laboratório de Brookhaven, os jornais anunciaram que a máquina lá construída poderia provocar o fim do mundo: o apocalipse causado por nossas próprias mãos, e não por obra divina. O prestigioso jornal britânico "Sunday Times" alertou que "máquina do Big Bang pode destruir a Terra". Claro, várias pessoas ficaram muito preocupadas com essas notícias que, caso fossem verdadeiras, seriam mesmo assustadoras.
Eis então um ótimo exemplo da mídia dando cobertura à ciência de forma histérica e irresponsável. Esse tipo de atenção da mídia só contribui para aumentar ainda mais as suspeitas que as pessoas têm com relação a pesquisas científicas de altas energias.O RHIC é uma máquina capaz de acelerar íons pesados -núcleos de átomos de elementos como o ouro- até velocidades próximas à velocidade da luz. Esses íons são acelerados em sentido contrário e colidem uns com os outros dentro de detectores, usados para estudar os resultados dessas colisões. O acelerador é um anel subterrâneo, com 3,8 km de circunferência, e sua operação conta com mais de 800 físicos e técnicos do mundo inteiro.
A missão do projeto é recriar as condições de energia e temperatura existentes no Universo, centésimos de milésimos de segundos após o Big Bang.A histeria começou na sessão de "Cartas dos Leitores" da revista americana "Scientific American". Alguns leitores levantaram a possibilidade de as colisões entre íons pesados poderem criar um miniburaco negro que imediatamente afundaria até o centro da Terra, devorando-a em minutos. Em astrofísica, buracos negros são os restos mortais de estrelas bem mais maciças do que o Sol.Mas, em princípio, qualquer concentração de matéria, caso ela seja comprimida a altíssimas densidades, pode ser transformada em um buraco negro.
Para converter um ser humano em um buraco negro, basta comprimi-lo em uma bola com o diâmetro de um bilionésimo de um próton! Essa operação requer energias absolutamente impossíveis para nossos laboratórios. O mesmo com íons de ouro.Outra possibilidade levantada foi a formação de objetos exóticos chamados "strangelets", formados por uma combinação de três tipos de quarks: "up", "down" e "strange". Os quarks "up" e "down" formam o próton e o nêutron, sendo, junto ao elétron, as partículas fundamentais da matéria. Há quatro outros tipos de quarks, incluindo o strange, que são criados e destruídos durante colisões de altas energias.
Caso um strangelet de longa vida e carga negativa fosse criado, ele teria o mesmo efeito de um buraco negro. Um grupo de físicos mostrou que strangelets só podem aparecer no interior de estrelas de nêutrons, objetos astrofísicos com densidades milhões de bilhões de vezes maiores do que o ouro. As descobertas que poderão ser feitas no RHIC são muito promissoras. Mas, certamente, não são apocalípticas.
Em princípio, essa atenção da mídia é de grande relevância para divulgar a ciência ao público não-especializado: como a ciência pura é, em sua maior parte, financiada pelo governo por meio de bolsas tiradas do orçamento da União -que, por sua vez, vem de impostos-, a população tem o direito de saber para onde está indo esse dinheiro. Mais ainda, a ciência faz parte da cultura gerada pela sociedade e deve, portanto, ser apresentada a essa, do mesmo modo que a música, a pintura ou o cinema. Em um brado bem populista, pode-se até dizer que "a ciência vem do povo e é para o povo".
Voltando ao laboratório de Brookhaven, os jornais anunciaram que a máquina lá construída poderia provocar o fim do mundo: o apocalipse causado por nossas próprias mãos, e não por obra divina. O prestigioso jornal britânico "Sunday Times" alertou que "máquina do Big Bang pode destruir a Terra". Claro, várias pessoas ficaram muito preocupadas com essas notícias que, caso fossem verdadeiras, seriam mesmo assustadoras.
Eis então um ótimo exemplo da mídia dando cobertura à ciência de forma histérica e irresponsável. Esse tipo de atenção da mídia só contribui para aumentar ainda mais as suspeitas que as pessoas têm com relação a pesquisas científicas de altas energias.O RHIC é uma máquina capaz de acelerar íons pesados -núcleos de átomos de elementos como o ouro- até velocidades próximas à velocidade da luz. Esses íons são acelerados em sentido contrário e colidem uns com os outros dentro de detectores, usados para estudar os resultados dessas colisões. O acelerador é um anel subterrâneo, com 3,8 km de circunferência, e sua operação conta com mais de 800 físicos e técnicos do mundo inteiro.
A missão do projeto é recriar as condições de energia e temperatura existentes no Universo, centésimos de milésimos de segundos após o Big Bang.A histeria começou na sessão de "Cartas dos Leitores" da revista americana "Scientific American". Alguns leitores levantaram a possibilidade de as colisões entre íons pesados poderem criar um miniburaco negro que imediatamente afundaria até o centro da Terra, devorando-a em minutos. Em astrofísica, buracos negros são os restos mortais de estrelas bem mais maciças do que o Sol.Mas, em princípio, qualquer concentração de matéria, caso ela seja comprimida a altíssimas densidades, pode ser transformada em um buraco negro.
Para converter um ser humano em um buraco negro, basta comprimi-lo em uma bola com o diâmetro de um bilionésimo de um próton! Essa operação requer energias absolutamente impossíveis para nossos laboratórios. O mesmo com íons de ouro.Outra possibilidade levantada foi a formação de objetos exóticos chamados "strangelets", formados por uma combinação de três tipos de quarks: "up", "down" e "strange". Os quarks "up" e "down" formam o próton e o nêutron, sendo, junto ao elétron, as partículas fundamentais da matéria. Há quatro outros tipos de quarks, incluindo o strange, que são criados e destruídos durante colisões de altas energias.
Caso um strangelet de longa vida e carga negativa fosse criado, ele teria o mesmo efeito de um buraco negro. Um grupo de físicos mostrou que strangelets só podem aparecer no interior de estrelas de nêutrons, objetos astrofísicos com densidades milhões de bilhões de vezes maiores do que o ouro. As descobertas que poderão ser feitas no RHIC são muito promissoras. Mas, certamente, não são apocalípticas.
domingo, 9 de janeiro de 2000
A busca pela gravitação quântica
Em física, o lema "quanto mais simples melhor" é muito importante. De fato, a história das grandes conquistas da física teórica pode ser recontada como a história da busca pela unificação de teorias que, aparentemente, não têm uma ligação imediata. A primeira grande unificação da física ocorreu quando o inglês Isaac Newton demonstrou que a força da gravidade que faz com que uma maçã caia no solo é a mesma que faz com que os planetas girem em torno do Sol.
No século 19, James Clerk Maxwell mostrou que a óptica e os fenômenos elétricos e magnéticos são manifestações de uma única força, a força eletromagnética. Para tal, Maxwell e também Michael Faraday introduziram o conceito de "campo", que reflete no espaço a presença de alguma fonte. Por exemplo, um ímã gera um campo magnético à sua volta, que atrai ou repele outro ímã. Quando esse ímã entra em movimento, ele também gera uma força elétrica que irá interagir com cargas elétricas à sua volta. De lá para cá, o conceito de campo passou a ser essencial em física.
Em 1916, Einstein mostrou que a força gravitacional pode ser interpretada como uma distorção no espaço (e no tempo) em torno de um objeto com massa, unificando a geometria e a gravidade. Ele passou os últimos 30 anos de sua vida procurando uma formulação de sua teoria que unificasse o eletromagnetismo de Maxwell e a força gravitacional.Essa busca pelo "campo unificado" persiste até hoje, apesar de ela ter avançado em direções que nem mesmo Einstein poderia ter intuído.
Com a exploração das propriedades da matéria a distâncias cada vez menores, duas outras forças foram descobertas, as forças nucleares forte e fraca. Dos anos 60 até os anos 80, físicos teóricos construíram uma teoria unificada das forças eletromagnética e fraca, criando a força eletrofraca. Essa teoria deixou claro que o caráter unificado de diferentes forças se manifesta quando estudamos a matéria e suas interações em energias muito altas, o que equivale a distâncias cada vez menores.
Hoje, existem modelos que visam unificar a força forte com a eletrofraca, em energias milhões de bilhões de vezes maiores que as energias nucleares. E a força gravitacional? Aí a coisa complica muito.Isso por causa da ligação da força gravitacional com a geometria do espaço. Como a mecânica quântica, que é a base da unificação das outras três forças, mostra, no mundo do muito pequeno nada é contínuo; tudo se manifesta em pequenos pacotes, ou "quanta". Portanto, para trazer a gravidade dentro desse esquema de unificação, ela também deve ser "quantizada".
Como a gravitação está ligada com a geometria do espaço e com a passagem do tempo, quantizar a gravitação significa quantizar o espaço e o tempo! Ou seja, nas energias absurdamente altas em que a gravitação é quantizada, os conceitos de espaço e tempo deixam de fazer sentido.Para resolver esse dilema, físicos criaram novas entidades para descrever a estrutura material do mundo, as supercordas. A idéia por trás das supercordas é que todas as partículas e forças são na verdade provenientes desses objetos, que vibram com energias diferentes.
Até o momento, a teoria tem se deparado com grandes obstáculos matemáticos que vêm impedindo seu progresso. Mas pequenos passos têm sido dados e hoje vemos que existem apenas cinco tipos de teorias de cordas fundamentais, que se manifestam como partículas a energias mais baixas. Essas teorias têm relações entre si.
Claro, o ideal seria ter uma teoria, pois seu limite em baixas energias geraria as quatro forças da natureza.Mas como explicar o movimento de algo, mesmo uma supercorda, sem a idéia de espaço e tempo? Como o leitor pode ver, o desafio continua em aberto.Talvez, no final desse novo século, tenhamos alguma idéia do princípio fundamental que rege a teoria das supercordas e, com ela, a unificação de todas as forças da natureza. Ou, perversamente, teremos descoberto que, conceitualmente, as coisas não funcionam assim; que nem tudo que é simples e elegante é real.
No século 19, James Clerk Maxwell mostrou que a óptica e os fenômenos elétricos e magnéticos são manifestações de uma única força, a força eletromagnética. Para tal, Maxwell e também Michael Faraday introduziram o conceito de "campo", que reflete no espaço a presença de alguma fonte. Por exemplo, um ímã gera um campo magnético à sua volta, que atrai ou repele outro ímã. Quando esse ímã entra em movimento, ele também gera uma força elétrica que irá interagir com cargas elétricas à sua volta. De lá para cá, o conceito de campo passou a ser essencial em física.
Em 1916, Einstein mostrou que a força gravitacional pode ser interpretada como uma distorção no espaço (e no tempo) em torno de um objeto com massa, unificando a geometria e a gravidade. Ele passou os últimos 30 anos de sua vida procurando uma formulação de sua teoria que unificasse o eletromagnetismo de Maxwell e a força gravitacional.Essa busca pelo "campo unificado" persiste até hoje, apesar de ela ter avançado em direções que nem mesmo Einstein poderia ter intuído.
Com a exploração das propriedades da matéria a distâncias cada vez menores, duas outras forças foram descobertas, as forças nucleares forte e fraca. Dos anos 60 até os anos 80, físicos teóricos construíram uma teoria unificada das forças eletromagnética e fraca, criando a força eletrofraca. Essa teoria deixou claro que o caráter unificado de diferentes forças se manifesta quando estudamos a matéria e suas interações em energias muito altas, o que equivale a distâncias cada vez menores.
Hoje, existem modelos que visam unificar a força forte com a eletrofraca, em energias milhões de bilhões de vezes maiores que as energias nucleares. E a força gravitacional? Aí a coisa complica muito.Isso por causa da ligação da força gravitacional com a geometria do espaço. Como a mecânica quântica, que é a base da unificação das outras três forças, mostra, no mundo do muito pequeno nada é contínuo; tudo se manifesta em pequenos pacotes, ou "quanta". Portanto, para trazer a gravidade dentro desse esquema de unificação, ela também deve ser "quantizada".
Como a gravitação está ligada com a geometria do espaço e com a passagem do tempo, quantizar a gravitação significa quantizar o espaço e o tempo! Ou seja, nas energias absurdamente altas em que a gravitação é quantizada, os conceitos de espaço e tempo deixam de fazer sentido.Para resolver esse dilema, físicos criaram novas entidades para descrever a estrutura material do mundo, as supercordas. A idéia por trás das supercordas é que todas as partículas e forças são na verdade provenientes desses objetos, que vibram com energias diferentes.
Até o momento, a teoria tem se deparado com grandes obstáculos matemáticos que vêm impedindo seu progresso. Mas pequenos passos têm sido dados e hoje vemos que existem apenas cinco tipos de teorias de cordas fundamentais, que se manifestam como partículas a energias mais baixas. Essas teorias têm relações entre si.
Claro, o ideal seria ter uma teoria, pois seu limite em baixas energias geraria as quatro forças da natureza.Mas como explicar o movimento de algo, mesmo uma supercorda, sem a idéia de espaço e tempo? Como o leitor pode ver, o desafio continua em aberto.Talvez, no final desse novo século, tenhamos alguma idéia do princípio fundamental que rege a teoria das supercordas e, com ela, a unificação de todas as forças da natureza. Ou, perversamente, teremos descoberto que, conceitualmente, as coisas não funcionam assim; que nem tudo que é simples e elegante é real.
domingo, 2 de janeiro de 2000
E o mundo não acabou
Se tudo tiver dado certo, você estará curado, ou quase, de sua ressaca de virada de milênio (uma virada simbólica, pois, na verdade, a virada ocorre em 2001), lendo esta coluna confortavelmente em sua casa ou na praia. Como eu escrevi este texto antes da grande virada, não posso garantir qual o meu estado no momento. Mas devo congratulá-lo(a) pela sua perseverança. Por via das dúvidas, resolvi enviar essa coluna para a redação tanto por e-mail como por "pomba-mail". Afinal, é difícil prever o que poderá acontecer com o famoso problema Y2K -o bug do ano 2000.
Claro, se você está lendo esta coluna, ao menos a redação da Folha e os distribuidores de jornais sobreviveram ao possível apocalipse eletrônico. Mas também é possível que, para você estar lendo o Mais! agora, o pessoal da Folha tenha recebido minha coluna via pomba-mail, datilografado o texto nas Olivettis resgatadas às pressas do almoxarifado, fazendo as cópias necessárias usando papel-carbono e o mimeógrafo da escola ao lado. Parece mentira, mas máquinas de escrever, papel carbono e mimeógrafos são coisa do passado. Do milênio passado.
Vamos então supor que o jornal tenha chegado às suas mãos, talvez entregue por alguém de bicicleta, já que as bombas de gasolina também resolveram achar que estamos no ano 1900, e não em 2000. Como não havia bomba de gasolina em 1900, os postos tiveram que fechar e as bicicletas invadiram as ruas do Brasil. Começamos o novo milênio como terminamos o outro, sem carros, sem computadores, sem televisores, sem cinema, sem microondas, sem CDs e DVDs e mesmo sem o rádio.
Com saudades da música, as pessoas começam a cantar em casa, nas ruas, e os teatros com música ao vivo lotam. Aos poucos, as máquinas que sobreviveram ao problema Y2K começam a quebrar e, por falta de peças, elas são encostadas de lado e esquecidas. Sem elevadores, as pessoas preferem abandonar os prédios altos e trabalhar em escritórios em casas ou em prédios de três andares.
A concentração urbana deixa de fazer sentido, e as pessoas começam a voltar para o campo, a plantar sua própria comida, reinventando a agricultura de subsistência em larga escala. No meio tempo, técnicos tentam consertar os computadores, mas, como seu equipamento depende também de microchips que emperraram (não existiam microchips em 1900), eles não conseguem fazer nada.
Após meses de tentativas frustradas, todos desistem da tecnologia e resolvem viver junto à natureza, tranquilos. Algumas pessoas resolvem entoar hinos ao Sol, para garantir uma boa colheita e alimentos fartos para todos. Outros cantam para os céus, para espantar as enchentes.
Quando alguém fica doente, os médicos tentam usar os remédios que sobraram do milênio passado, quando o mundo era adiantado. Mas os remédios vão acabando, seus prazos de validade vão vencendo, e as ervas medicinais se tornam cada vez mais importantes. Grandes peregrinações são organizadas para a floresta amazônica, onde as pessoas aprendem com os ianomâmis e outros nativos como usar as plantas para curar e inspirar. Os índios se tornam nossos mestres.
Claro, as conquistas do milênio passado estão todas nos livros, milhões deles, contando em detalhe nossa história, nossas invenções e nossos absurdos. Aos poucos, as pessoas começam a reinventar o mundo, recriando as tecnologias que fizeram o século 20 ser tão revolucionário.
Mas tudo agora é diferente. O retorno forçado à natureza causou uma pane na cabeça das pessoas. Ficou óbvio o quanto dependemos dela, o quanto nosso equilíbrio nesse mundo é frágil.
A natureza se tornou uma deusa, adorada por todos, uma nova (e velha) religião universal. Os engenheiros e técnicos reinventam as máquinas, os computadores recriados sem problemas com datas -todas são armazenadas na íntegra, isto é, o ano 2999 não é guardado com 99-, e as coisas vão voltando ao normal.
Mas o mundo mudou, e o susto do milênio transformou a sociedade; as pessoas respeitam diferenças, novas fontes de energia reduzem o efeito estufa e o que é colhido ou cortado é replantado. Sem dúvida, tudo isso é uma utopia de início de milênio. Mas será que é tão difícil assim?
Claro, se você está lendo esta coluna, ao menos a redação da Folha e os distribuidores de jornais sobreviveram ao possível apocalipse eletrônico. Mas também é possível que, para você estar lendo o Mais! agora, o pessoal da Folha tenha recebido minha coluna via pomba-mail, datilografado o texto nas Olivettis resgatadas às pressas do almoxarifado, fazendo as cópias necessárias usando papel-carbono e o mimeógrafo da escola ao lado. Parece mentira, mas máquinas de escrever, papel carbono e mimeógrafos são coisa do passado. Do milênio passado.
Vamos então supor que o jornal tenha chegado às suas mãos, talvez entregue por alguém de bicicleta, já que as bombas de gasolina também resolveram achar que estamos no ano 1900, e não em 2000. Como não havia bomba de gasolina em 1900, os postos tiveram que fechar e as bicicletas invadiram as ruas do Brasil. Começamos o novo milênio como terminamos o outro, sem carros, sem computadores, sem televisores, sem cinema, sem microondas, sem CDs e DVDs e mesmo sem o rádio.
Com saudades da música, as pessoas começam a cantar em casa, nas ruas, e os teatros com música ao vivo lotam. Aos poucos, as máquinas que sobreviveram ao problema Y2K começam a quebrar e, por falta de peças, elas são encostadas de lado e esquecidas. Sem elevadores, as pessoas preferem abandonar os prédios altos e trabalhar em escritórios em casas ou em prédios de três andares.
A concentração urbana deixa de fazer sentido, e as pessoas começam a voltar para o campo, a plantar sua própria comida, reinventando a agricultura de subsistência em larga escala. No meio tempo, técnicos tentam consertar os computadores, mas, como seu equipamento depende também de microchips que emperraram (não existiam microchips em 1900), eles não conseguem fazer nada.
Após meses de tentativas frustradas, todos desistem da tecnologia e resolvem viver junto à natureza, tranquilos. Algumas pessoas resolvem entoar hinos ao Sol, para garantir uma boa colheita e alimentos fartos para todos. Outros cantam para os céus, para espantar as enchentes.
Quando alguém fica doente, os médicos tentam usar os remédios que sobraram do milênio passado, quando o mundo era adiantado. Mas os remédios vão acabando, seus prazos de validade vão vencendo, e as ervas medicinais se tornam cada vez mais importantes. Grandes peregrinações são organizadas para a floresta amazônica, onde as pessoas aprendem com os ianomâmis e outros nativos como usar as plantas para curar e inspirar. Os índios se tornam nossos mestres.
Claro, as conquistas do milênio passado estão todas nos livros, milhões deles, contando em detalhe nossa história, nossas invenções e nossos absurdos. Aos poucos, as pessoas começam a reinventar o mundo, recriando as tecnologias que fizeram o século 20 ser tão revolucionário.
Mas tudo agora é diferente. O retorno forçado à natureza causou uma pane na cabeça das pessoas. Ficou óbvio o quanto dependemos dela, o quanto nosso equilíbrio nesse mundo é frágil.
A natureza se tornou uma deusa, adorada por todos, uma nova (e velha) religião universal. Os engenheiros e técnicos reinventam as máquinas, os computadores recriados sem problemas com datas -todas são armazenadas na íntegra, isto é, o ano 2999 não é guardado com 99-, e as coisas vão voltando ao normal.
Mas o mundo mudou, e o susto do milênio transformou a sociedade; as pessoas respeitam diferenças, novas fontes de energia reduzem o efeito estufa e o que é colhido ou cortado é replantado. Sem dúvida, tudo isso é uma utopia de início de milênio. Mas será que é tão difícil assim?
domingo, 26 de dezembro de 1999
Crônica para um novo milênio
Nós temos o privilégio de ser seres "intermilenares", com um pé no milênio que está por terminar e outro no milênio que está por começar. Daí que olhamos tanto para trás quanto para a frente, a história nos ensinando a não repetir os erros do passado e nos inspirando a repensar o futuro.
É difícil resistir à tentação de fazer comparações e projeções, apesar de as projeções serem, na maioria, errôneas. Mas, se pensarmos no mundo ocidental na passagem do último milênio, no ano 1000, e no mundo agora, no ano 2000, percebemos a enormidade das transformações que ocorreram nos últimos mil anos. E começamos a sonhar com o que poderá acontecer nos próximos mil.
A Europa estava assolada pelas trevas medievais, com pestes, pobreza, fome e superstições de todos os tipos. A crença no milenarismo -em que a chegada do ano 1000 coincidiria com o dia do Julgamento Final, quando o Messias reinaria na Terra, inaugurando uma nova era de paz e justiça para aqueles que suportaram seus sofrimentos com virtude e fé- oferecia esperança e terror.
Passados mil anos e aqui estamos nós, com uma sonda meteorológica tentando pousar em Marte (com certos problemas, mas...), a sociedade globalmente "internetizada", realidades sendo reinventadas virtualmente em mundos de silício e nanotecnologia, seres vivos sendo clonados e redesenhados, a humanidade participando como criadora no processo evolucionário, o Universo em expansão, o estudo da física no interior do núcleo atômico, a descoberta dos buracos negros, de outros sistemas solares, das vacinas e dos antibióticos.
Passados mil anos e aqui estamos nós, guerras matando mais nesse século do que em toda a história da humanidade, a população mundial passando dos 6 bilhões, a maioria com fome, doente e analfabeta, a poluição industrial e urbana causando sérios distúrbios ecológicos e climáticos e prometendo outros muito piores, a intolerância pelas diferenças raciais, políticas e culturais e a falta de respeito ao próximo em plena alta, a explosão do capitalismo global afogando economias emergentes, os abusos da energia nuclear ameaçando nossa destruição global e problemas de controle do lixo atômico, a engenharia genética forçando uma nova ética para a humanidade, onde a própria definição do que significa ser humano está em jogo, as pessoas sempre com pressa, muita pressa.
Passados mil anos, nós sabemos pôr um homem na Lua, mas ainda não sabemos como não nos matar. Tanto progresso e tão pouco progresso. Tantas descobertas e tanta ignorância. O que será de nós daqui a mil anos? Será que nós ainda estaremos aqui, nesse planeta que está se tornando cada vez menor para acomodar nossos sonhos e nossas ganâncias? Ou será que levaremos a cabo o processo evolucionário sobre nós mesmos e nos extinguiremos como espécie? Eu, eterno otimista, vejo um futuro muito melhor.
Infelizmente, para chegarmos lá, como nas visões escatológicas dos milenaristas, a coisa vai primeiro piorar. Infelizmente, nós temos uma grande capacidade de reação, mas não de prevenção; nós funcionamos sob pressão. As mudanças climáticas vão ter de causar danos financeiros e sociais sérios antes que os governos façam realmente alguma coisa a respeito. As pesquisas em genética vão criar situações inesperadas que vão acabar por ampliar nossos horizontes éticos, e não criar uma nova treva medieval. A distribuição de alimentos e de riqueza vai melhorar a qualidade de vida da população global. Novas fontes de energia, benignas e renováveis, vão reformular nossa relação com a atmosfera. Tecnologias misturando genética e nanotecnologia irão criar novas curas e novos seres, meio humanos, meio máquinas, que irão pensar e sentir como nós.
Do mesmo modo que nos últimos mil anos nós exploramos nosso planeta, viajando pelos seus quatro cantos, nos próximos mil nós iremos explorar os quatro cantos do nosso e de outros sistema solares, criando novas terras para povoar de vida nossa galáxia. E, quem sabe, até estabelecer contato com outras formas de vida inteligente. O paraíso na Terra, se vier a existir, terá de ser nossa criação.
É difícil resistir à tentação de fazer comparações e projeções, apesar de as projeções serem, na maioria, errôneas. Mas, se pensarmos no mundo ocidental na passagem do último milênio, no ano 1000, e no mundo agora, no ano 2000, percebemos a enormidade das transformações que ocorreram nos últimos mil anos. E começamos a sonhar com o que poderá acontecer nos próximos mil.
A Europa estava assolada pelas trevas medievais, com pestes, pobreza, fome e superstições de todos os tipos. A crença no milenarismo -em que a chegada do ano 1000 coincidiria com o dia do Julgamento Final, quando o Messias reinaria na Terra, inaugurando uma nova era de paz e justiça para aqueles que suportaram seus sofrimentos com virtude e fé- oferecia esperança e terror.
Passados mil anos e aqui estamos nós, com uma sonda meteorológica tentando pousar em Marte (com certos problemas, mas...), a sociedade globalmente "internetizada", realidades sendo reinventadas virtualmente em mundos de silício e nanotecnologia, seres vivos sendo clonados e redesenhados, a humanidade participando como criadora no processo evolucionário, o Universo em expansão, o estudo da física no interior do núcleo atômico, a descoberta dos buracos negros, de outros sistemas solares, das vacinas e dos antibióticos.
Passados mil anos e aqui estamos nós, guerras matando mais nesse século do que em toda a história da humanidade, a população mundial passando dos 6 bilhões, a maioria com fome, doente e analfabeta, a poluição industrial e urbana causando sérios distúrbios ecológicos e climáticos e prometendo outros muito piores, a intolerância pelas diferenças raciais, políticas e culturais e a falta de respeito ao próximo em plena alta, a explosão do capitalismo global afogando economias emergentes, os abusos da energia nuclear ameaçando nossa destruição global e problemas de controle do lixo atômico, a engenharia genética forçando uma nova ética para a humanidade, onde a própria definição do que significa ser humano está em jogo, as pessoas sempre com pressa, muita pressa.
Passados mil anos, nós sabemos pôr um homem na Lua, mas ainda não sabemos como não nos matar. Tanto progresso e tão pouco progresso. Tantas descobertas e tanta ignorância. O que será de nós daqui a mil anos? Será que nós ainda estaremos aqui, nesse planeta que está se tornando cada vez menor para acomodar nossos sonhos e nossas ganâncias? Ou será que levaremos a cabo o processo evolucionário sobre nós mesmos e nos extinguiremos como espécie? Eu, eterno otimista, vejo um futuro muito melhor.
Infelizmente, para chegarmos lá, como nas visões escatológicas dos milenaristas, a coisa vai primeiro piorar. Infelizmente, nós temos uma grande capacidade de reação, mas não de prevenção; nós funcionamos sob pressão. As mudanças climáticas vão ter de causar danos financeiros e sociais sérios antes que os governos façam realmente alguma coisa a respeito. As pesquisas em genética vão criar situações inesperadas que vão acabar por ampliar nossos horizontes éticos, e não criar uma nova treva medieval. A distribuição de alimentos e de riqueza vai melhorar a qualidade de vida da população global. Novas fontes de energia, benignas e renováveis, vão reformular nossa relação com a atmosfera. Tecnologias misturando genética e nanotecnologia irão criar novas curas e novos seres, meio humanos, meio máquinas, que irão pensar e sentir como nós.
Do mesmo modo que nos últimos mil anos nós exploramos nosso planeta, viajando pelos seus quatro cantos, nos próximos mil nós iremos explorar os quatro cantos do nosso e de outros sistema solares, criando novas terras para povoar de vida nossa galáxia. E, quem sabe, até estabelecer contato com outras formas de vida inteligente. O paraíso na Terra, se vier a existir, terá de ser nossa criação.
domingo, 19 de dezembro de 1999
Os silenciosos ruídos do Universo
Você liga seu rádio e pronto: música, notícias, comerciais, informações enviadas por estações de rádio a enormes distâncias. Uma confusão bastante comum que se faz é achar que ondas de rádio e de som são a mesma coisa. Na verdade, ondas de som e de rádio são duas coisas muito diferentes.
Quando escutamos algum ruído é porque algum distúrbio se propagou pelo ar até chegar aos nossos ouvidos, onde essas vibrações são transformadas em sons pelo nosso cérebro. Sem um meio material, como o ar, não existe som. O mesmo com ondas de água; algum distúrbio, como a queda de uma pedra, gera ondas que se propagam pelo meio que lhes dá suporte, no caso, a água.
Já as ondas de rádio são parte das ondas eletromagnéticas, geradas quando cargas elétricas oscilam com alguma frequência. A luz também é uma onda eletromagnética que, após ser captada por nossos olhos, é transformada em imagem no nosso cérebro. A única diferença entre luz e ondas de rádio é a sua frequência; ondas de luz têm frequências centenas de milhares de vezes maiores do que as ondas de rádio.
Como nosso equipamento para captação de ondas eletromagnéticas é bastante limitado (a luz visível pelos olhos e a radiação em infravermelho, ou calor, pela pele), ondas de rádio passam por nós despercebidamente. O mesmo ocorre com outros tipos de ondas eletromagéticas com frequências ainda maiores do que a luz visível, como a radiação ultravioleta, os raios X e os raios gama, sendo que que algumas podem ser bem nocivas à saúde.
Quando você liga seu rádio, ele capta ondas eletromagnéticas na frequência de ondas de rádio (FM, em torno de 88 milhões a 108 milhões de ciclos por segundo, ou megahertz), transformando-as em sons audíveis por nós, vibrações que se propagam no ar e são transformadas em som no nosso cérebro.
A música e as vozes que ouvimos, com frequências entre 50 e 4.500 hertz -muito menores que os milhões de ciclos das ondas de rádio-, estão codificadas nas ondas de rádio emitidas pela estação. Portanto, as estações mandam uma espécie de onda combinada de alta e baixa frequência (chamada de onda modulada), produzida pelo movimento das cargas elétricas nas suas antenas de transmissão.
As estações AM e FM na Terra não são as únicas fontes de ondas de rádio. Nós sabemos que vários corpos celestes, como estrelas e nebulosas, emitem ondas eletromagnéticas, pois podemos vê-las. Toda a astronomia ótica é baseada no fato de que estrelas e outros objetos astrofísicos geram quantidades enormes de radiação eletromagnética, devido ao movimento acelerado de cargas elétricas que, a altas temperaturas, têm frequências na porção visível do espectro.
Ou seja, podemos ver esses objetos. Mas, se isso é verdade, esses e outros objetos podem gerar ondas eletromagnéticas que, apesar de invisíveis, são tão reais como a luz das estrelas. Hoje em dia, a astronomia é subdividida em todas as janelas das ondas eletromagnéticas, da radioastronomia à de raios gama.
Um novo projeto em radioastronomia promete revolucionar nosso conhecimento nessa área. Nós sabemos que fontes de rádio são em geral "frias", geradas em processos no interior de galáxias ou na formação de sistemas solares. As dimensões do projeto Alma (do inglês Grande Arranjo em Milímetros de Atacama) são realmente fantásticas: 64 antenas parabólicas, cada uma com diâmetro de 14 m, arranjadas em uma área de cerca de 10 km de extensão. Quando trabalharem juntas, as antenas serão equivalentes a uma única antena do tamanho de um campo de futebol. Essa estrutura será construída no deserto de Atacama, no Chile, uma das regiões mais inóspitas e secas do planeta, a 5.500 m de altitude.
A vantagem das ondas de rádio é que elas atravessam zonas com poeira e gás. (A recepção do seu rádio não piora com a poluição). Com isso, podemos "ver" fenômenos ofuscados no visível, como regiões em que uma estrela e seus planetas estão nascendo. As antenas da Alma poderão também "ver" objetos a vários bilhões de anos-luz de distância, mais antigos que a Terra: Alma será uma janela para a própria infância do Universo.
Quando escutamos algum ruído é porque algum distúrbio se propagou pelo ar até chegar aos nossos ouvidos, onde essas vibrações são transformadas em sons pelo nosso cérebro. Sem um meio material, como o ar, não existe som. O mesmo com ondas de água; algum distúrbio, como a queda de uma pedra, gera ondas que se propagam pelo meio que lhes dá suporte, no caso, a água.
Já as ondas de rádio são parte das ondas eletromagnéticas, geradas quando cargas elétricas oscilam com alguma frequência. A luz também é uma onda eletromagnética que, após ser captada por nossos olhos, é transformada em imagem no nosso cérebro. A única diferença entre luz e ondas de rádio é a sua frequência; ondas de luz têm frequências centenas de milhares de vezes maiores do que as ondas de rádio.
Como nosso equipamento para captação de ondas eletromagnéticas é bastante limitado (a luz visível pelos olhos e a radiação em infravermelho, ou calor, pela pele), ondas de rádio passam por nós despercebidamente. O mesmo ocorre com outros tipos de ondas eletromagéticas com frequências ainda maiores do que a luz visível, como a radiação ultravioleta, os raios X e os raios gama, sendo que que algumas podem ser bem nocivas à saúde.
Quando você liga seu rádio, ele capta ondas eletromagnéticas na frequência de ondas de rádio (FM, em torno de 88 milhões a 108 milhões de ciclos por segundo, ou megahertz), transformando-as em sons audíveis por nós, vibrações que se propagam no ar e são transformadas em som no nosso cérebro.
A música e as vozes que ouvimos, com frequências entre 50 e 4.500 hertz -muito menores que os milhões de ciclos das ondas de rádio-, estão codificadas nas ondas de rádio emitidas pela estação. Portanto, as estações mandam uma espécie de onda combinada de alta e baixa frequência (chamada de onda modulada), produzida pelo movimento das cargas elétricas nas suas antenas de transmissão.
As estações AM e FM na Terra não são as únicas fontes de ondas de rádio. Nós sabemos que vários corpos celestes, como estrelas e nebulosas, emitem ondas eletromagnéticas, pois podemos vê-las. Toda a astronomia ótica é baseada no fato de que estrelas e outros objetos astrofísicos geram quantidades enormes de radiação eletromagnética, devido ao movimento acelerado de cargas elétricas que, a altas temperaturas, têm frequências na porção visível do espectro.
Ou seja, podemos ver esses objetos. Mas, se isso é verdade, esses e outros objetos podem gerar ondas eletromagnéticas que, apesar de invisíveis, são tão reais como a luz das estrelas. Hoje em dia, a astronomia é subdividida em todas as janelas das ondas eletromagnéticas, da radioastronomia à de raios gama.
Um novo projeto em radioastronomia promete revolucionar nosso conhecimento nessa área. Nós sabemos que fontes de rádio são em geral "frias", geradas em processos no interior de galáxias ou na formação de sistemas solares. As dimensões do projeto Alma (do inglês Grande Arranjo em Milímetros de Atacama) são realmente fantásticas: 64 antenas parabólicas, cada uma com diâmetro de 14 m, arranjadas em uma área de cerca de 10 km de extensão. Quando trabalharem juntas, as antenas serão equivalentes a uma única antena do tamanho de um campo de futebol. Essa estrutura será construída no deserto de Atacama, no Chile, uma das regiões mais inóspitas e secas do planeta, a 5.500 m de altitude.
A vantagem das ondas de rádio é que elas atravessam zonas com poeira e gás. (A recepção do seu rádio não piora com a poluição). Com isso, podemos "ver" fenômenos ofuscados no visível, como regiões em que uma estrela e seus planetas estão nascendo. As antenas da Alma poderão também "ver" objetos a vários bilhões de anos-luz de distância, mais antigos que a Terra: Alma será uma janela para a própria infância do Universo.
domingo, 12 de dezembro de 1999
Será que as fontes de petróleo vão se esgotar?
Eu me lembro, quando ainda garoto, da famosa crise no abastecimento de petróleo nos anos 70: racionamento de gasolina, preços altos, filas intermináveis nos postos e viagens curtas nos finais de semana. Neste fim de milênio, vale lembrar que nossa absoluta dependência de combustíveis fósseis pode também levar a vários prognósticos apocalípticos. O que será do mundo se o petróleo acabar?
A crise dos anos 70 acelerou nosso interesse em criar fontes alternativas de energia, como o programa do álcool no Brasil ou de carros movidos a gás natural, que também é um combustível fóssil como o petróleo, mas bem mais abundante. A ênfase deve ser em fontes não só alternativas, mas também renováveis.
Uma possibilidade interessante é o uso de hidrogênio como combustível. Hidrogênio é, de longe, o elemento mais abundante no Universo, em torno de 75%, seguido do gás hélio, com 24%. Mais ainda, um carro movido a hidrogênio produz vapor de água, e não os vários gases tóxicos e poluentes que são produzidos na combustão da gasolina. As vantagens são óbvias. Os primeiros carros movidos a hidrogênio estão programados para ser lançados em 2004, um ótimo presente para a humanidade do novo milênio.
Os países mais poluentes do mundo são os EUA e a China. No caso da China, o combustível mais usado é o carvão, o que faz com que 9 das 10 cidades mais poluídas do mundo estejam em território chinês. Em torno de 33% das mortes nessas cidades estão relacionadas a doenças pulmonares, cardiovasculares e formas de câncer causadas pelo uso abusivo de carvão como combustível.
No caso dos EUA, 40% da poluição causada pelo petróleo vem de automóveis. É realmente absurda a relação dos americanos com carros e a relutância generalizada no uso de transportes públicos. Indo ao trabalho de manhã, você vê milhares de carros com apenas um motorista, todos empilhados no trânsito, enquanto o metrô e os trens passam vazios ao lado das avenidas. Em São Paulo a coisa não é muito melhor, e uma reforma nos transportes públicos é fundamental para garantir o futuro dessa cidade. E de várias outras no Brasil.
Enquanto não desenvolvemos fontes alternativas e renováveis de energia a preços acessíveis, o debate sobre as reservas mundiais de petróleo continua. Mas o foco do debate mudou. Hoje, ao contrário dos anos 70, as previsões são de que as reservas de petróleo durarão muito mais do que o esperado, confortavelmente pelos próximos cem ou mais anos. Eu acho essa previsão lamentável, pois ela irá desacelerar as pesquisas em produção alternativa de energia; infelizmente, novas fontes só irão se tornar viáveis quando houver interesse econômico por trás.
Considerando que anualmente cerca de 14 milhões de galões de petróleo são "acidentalmente" despejados em águas doces e salgadas, fora a poluição atmosférica e o efeito estufa que é causado pela combustão de vários derivados do petróleo, é uma forma de cegueira não acelerarmos as pesquisas de outros combustíveis. A questão não é mais se o petróleo vai acabar, mas se ele vai acabar com a gente.
Para piorar as coisas, em um recente livro, o físico iconoclasta Thomas Gold, ex-diretor do Centro de Radiofísica e Pesquisas Espaciais da Universidade de Cornell, nos EUA, sugere que o petróleo não vai acabar tão cedo, que ele é constantemente renovado por todo um ecossistema subterrâneo que até o momento permanece invisível. Sua idéia é que vastas quantidades de materiais orgânicos foram armazenadas no interior profundo da Terra durante sua infância.
Esses materiais percolam através de rochas até atingir profundidades entre 10 km e 300 km, onde eles são consumidos por vastas colônias de microrganismos, com mais massa orgânica do que toda a vida na superfície. Devido a movimentos internos na Terra, esse material recombinado sobe ainda mais, onde ele é depositado nos reservatórios de petróleo e gás que exploramos. Claro, a hipótese de Gold é altamente especulativa e, espero, errada. Mas, caso ele esteja certo, o nosso futuro vai depender de nossa sabedoria e não de nossa ganância.
A crise dos anos 70 acelerou nosso interesse em criar fontes alternativas de energia, como o programa do álcool no Brasil ou de carros movidos a gás natural, que também é um combustível fóssil como o petróleo, mas bem mais abundante. A ênfase deve ser em fontes não só alternativas, mas também renováveis.
Uma possibilidade interessante é o uso de hidrogênio como combustível. Hidrogênio é, de longe, o elemento mais abundante no Universo, em torno de 75%, seguido do gás hélio, com 24%. Mais ainda, um carro movido a hidrogênio produz vapor de água, e não os vários gases tóxicos e poluentes que são produzidos na combustão da gasolina. As vantagens são óbvias. Os primeiros carros movidos a hidrogênio estão programados para ser lançados em 2004, um ótimo presente para a humanidade do novo milênio.
Os países mais poluentes do mundo são os EUA e a China. No caso da China, o combustível mais usado é o carvão, o que faz com que 9 das 10 cidades mais poluídas do mundo estejam em território chinês. Em torno de 33% das mortes nessas cidades estão relacionadas a doenças pulmonares, cardiovasculares e formas de câncer causadas pelo uso abusivo de carvão como combustível.
No caso dos EUA, 40% da poluição causada pelo petróleo vem de automóveis. É realmente absurda a relação dos americanos com carros e a relutância generalizada no uso de transportes públicos. Indo ao trabalho de manhã, você vê milhares de carros com apenas um motorista, todos empilhados no trânsito, enquanto o metrô e os trens passam vazios ao lado das avenidas. Em São Paulo a coisa não é muito melhor, e uma reforma nos transportes públicos é fundamental para garantir o futuro dessa cidade. E de várias outras no Brasil.
Enquanto não desenvolvemos fontes alternativas e renováveis de energia a preços acessíveis, o debate sobre as reservas mundiais de petróleo continua. Mas o foco do debate mudou. Hoje, ao contrário dos anos 70, as previsões são de que as reservas de petróleo durarão muito mais do que o esperado, confortavelmente pelos próximos cem ou mais anos. Eu acho essa previsão lamentável, pois ela irá desacelerar as pesquisas em produção alternativa de energia; infelizmente, novas fontes só irão se tornar viáveis quando houver interesse econômico por trás.
Considerando que anualmente cerca de 14 milhões de galões de petróleo são "acidentalmente" despejados em águas doces e salgadas, fora a poluição atmosférica e o efeito estufa que é causado pela combustão de vários derivados do petróleo, é uma forma de cegueira não acelerarmos as pesquisas de outros combustíveis. A questão não é mais se o petróleo vai acabar, mas se ele vai acabar com a gente.
Para piorar as coisas, em um recente livro, o físico iconoclasta Thomas Gold, ex-diretor do Centro de Radiofísica e Pesquisas Espaciais da Universidade de Cornell, nos EUA, sugere que o petróleo não vai acabar tão cedo, que ele é constantemente renovado por todo um ecossistema subterrâneo que até o momento permanece invisível. Sua idéia é que vastas quantidades de materiais orgânicos foram armazenadas no interior profundo da Terra durante sua infância.
Esses materiais percolam através de rochas até atingir profundidades entre 10 km e 300 km, onde eles são consumidos por vastas colônias de microrganismos, com mais massa orgânica do que toda a vida na superfície. Devido a movimentos internos na Terra, esse material recombinado sobe ainda mais, onde ele é depositado nos reservatórios de petróleo e gás que exploramos. Claro, a hipótese de Gold é altamente especulativa e, espero, errada. Mas, caso ele esteja certo, o nosso futuro vai depender de nossa sabedoria e não de nossa ganância.
domingo, 5 de dezembro de 1999
A explosiva origem da matéria
Qual a origem da matéria? De onde vem a matéria que preenche o Universo, suas galáxias com bilhões de estrelas, planetas e pessoas? Até recentemente, essa pergunta fazia parte daquele grupo de perguntas misteriosas que dependem mais da fé do que da ciência. Nós ainda não sabemos qual a resposta, mas temos hoje algumas idéias interessantes, talvez os primeiros passos em direção a uma compreensão mais profunda do Universo.
A cosmologia moderna é baseada no modelo do Big Bang, que diz que o Universo teve uma infância muito quente e densa. A idéia é que, próximo ao início de sua história, o Universo era uma espécie de sopa de partículas que interagiam ferozmente com a radiação. O Universo foi gradativamente se expandindo e se resfriando e, aos poucos, estruturas mais complexas foram se formando, começando com núcleos atômicos bem leves, depois átomos de hidrogênio que formaram nuvens enormes e instáveis que, ao colapsar, originaram as galáxias e estrelas.
A composição química do Universo também é bastante simples. Basicamente, o Universo consiste em 75% de hidrogênio, 24% de hélio e o 1% restante de átomos, incluindo carbono, nitrogênio e oxigênio. Esses elementos mais pesados não foram formados na fornalha primordial, mas sim em estrelas, em particular durante os processos que marcam a "morte" desses objetos.
Mas esse cenário supõe que, de alguma forma, existia já uma sopa de partículas. Esse é um problema conhecido como uma "condição inicial", semelhante a um livro de receitas: dadas certas partículas, nós sabemos como "cozinhar" o resto da matéria usando a expansão do Universo como forno. A questão é como que essas partículas apareceram; será que existe algum mecanismo capaz de gerá-las usando as leis da física e não uma "condição inicial"? É como se os cosmólogos tivessem chegado atrasados no cinema e tivessem perdido o início do filme. E com o Universo, não dá para esperar pela próxima sessão...
Para responder a essa pergunta é necessário ir além do modelo do Big Bang em sua versão mais simples, que supõe a existência das partículas. Durante as últimas duas décadas, uma nova versão do Big Bang conhecida como modelo "inflacionário" vem revolucionando nossa concepção da infância do Universo. Essa nova versão da cosmologia também tem algo a dizer sobre a origem da matéria. Se não a resposta final, ao menos um novo modo de se pensar sobre ela. No modelo inflacionário, o Universo não começa como uma sopa primordial de partículas, mas quase vazio. Tudo o que existe é uma fonte de energia que faz com que o Universo se expanda de forma rápida. Essa expansão faz com que a temperatura do Universo seja baixa e não alta, como no modelo tradicional. No modelo inflacionário, o Universo começa frio e não quente.
Aos poucos, essa fonte de energia vai relaxando e chegando ao seu ponto mínimo, como uma bola rolando colina abaixo até chegar a uma vala. Como sabemos, uma bola que rola até uma vala oscila em torno do ponto mínimo até parar lá devido à fricção. Pois é, essa fonte de energia faz a mesma coisa. A diferença é que, no caso do Universo, a energia liberada pela fricção reaparece em forma de partículas. É como se a vala estivesse cheia de partículas inertes que são "acordadas" pela bola.
O resultado é um caos completo: partículas aparecem em números enormes e começam a popular o Universo e a esquentá-lo. Esse processo explosivo, conhecido como ressonância paramétrica, é observado em vários outros sistemas físicos sem nenhuma relação com o Universo. Só que, no Universo, ele dá origem às partículas e ao calor inicial que chamamos de Big Bang. Portanto, de acordo com o modelo inflacionário, o Big Bang não é o começo do filme. O começo fica com a origem dessa fonte de energia, um problema que deixo para outro dia.
A cosmologia moderna é baseada no modelo do Big Bang, que diz que o Universo teve uma infância muito quente e densa. A idéia é que, próximo ao início de sua história, o Universo era uma espécie de sopa de partículas que interagiam ferozmente com a radiação. O Universo foi gradativamente se expandindo e se resfriando e, aos poucos, estruturas mais complexas foram se formando, começando com núcleos atômicos bem leves, depois átomos de hidrogênio que formaram nuvens enormes e instáveis que, ao colapsar, originaram as galáxias e estrelas.
A composição química do Universo também é bastante simples. Basicamente, o Universo consiste em 75% de hidrogênio, 24% de hélio e o 1% restante de átomos, incluindo carbono, nitrogênio e oxigênio. Esses elementos mais pesados não foram formados na fornalha primordial, mas sim em estrelas, em particular durante os processos que marcam a "morte" desses objetos.
Mas esse cenário supõe que, de alguma forma, existia já uma sopa de partículas. Esse é um problema conhecido como uma "condição inicial", semelhante a um livro de receitas: dadas certas partículas, nós sabemos como "cozinhar" o resto da matéria usando a expansão do Universo como forno. A questão é como que essas partículas apareceram; será que existe algum mecanismo capaz de gerá-las usando as leis da física e não uma "condição inicial"? É como se os cosmólogos tivessem chegado atrasados no cinema e tivessem perdido o início do filme. E com o Universo, não dá para esperar pela próxima sessão...
Para responder a essa pergunta é necessário ir além do modelo do Big Bang em sua versão mais simples, que supõe a existência das partículas. Durante as últimas duas décadas, uma nova versão do Big Bang conhecida como modelo "inflacionário" vem revolucionando nossa concepção da infância do Universo. Essa nova versão da cosmologia também tem algo a dizer sobre a origem da matéria. Se não a resposta final, ao menos um novo modo de se pensar sobre ela. No modelo inflacionário, o Universo não começa como uma sopa primordial de partículas, mas quase vazio. Tudo o que existe é uma fonte de energia que faz com que o Universo se expanda de forma rápida. Essa expansão faz com que a temperatura do Universo seja baixa e não alta, como no modelo tradicional. No modelo inflacionário, o Universo começa frio e não quente.
Aos poucos, essa fonte de energia vai relaxando e chegando ao seu ponto mínimo, como uma bola rolando colina abaixo até chegar a uma vala. Como sabemos, uma bola que rola até uma vala oscila em torno do ponto mínimo até parar lá devido à fricção. Pois é, essa fonte de energia faz a mesma coisa. A diferença é que, no caso do Universo, a energia liberada pela fricção reaparece em forma de partículas. É como se a vala estivesse cheia de partículas inertes que são "acordadas" pela bola.
O resultado é um caos completo: partículas aparecem em números enormes e começam a popular o Universo e a esquentá-lo. Esse processo explosivo, conhecido como ressonância paramétrica, é observado em vários outros sistemas físicos sem nenhuma relação com o Universo. Só que, no Universo, ele dá origem às partículas e ao calor inicial que chamamos de Big Bang. Portanto, de acordo com o modelo inflacionário, o Big Bang não é o começo do filme. O começo fica com a origem dessa fonte de energia, um problema que deixo para outro dia.
domingo, 28 de novembro de 1999
Ciência, ética e imortalidade
A pesquisa, tanto nas universidades quanto nas indústrias, é financiada por uma combinação de fundos oriundos do governo e da iniciativa privada, isto é, a própria indústria. Daí que existe uma subdivisão não muito clara entre dois "tipos" de pesquisa, a básica e a aplicada.
Em princípio, a pesquisa básica seria a que não tem em vista sua aplicação imediata na criação e no aperfeiçoamento de tecnologias, estando mais preocupada em entender os fenômenos naturais. A pesquisa aplicada é, também em princípio, direcionada ao mercado, à criação de novas tecnologias que darão lucro para empresas ou independência tecnológica ao Estado.
Na prática, as fronteiras entre pesquisa básica e aplicada são difíceis, em muitos casos, de ser separadas. Daí que é muito comum certos projetos terem um financiamento híbrido. Projetos financiados pelo Estado, como os que vem fazendo a Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo), aliás exemplarmente, podem ter aplicações futuras no mercado, como o Projeto Genoma, que busca o mapeamento genético do ser humano. Há o lado da pesquisa básica, a compreensão de nossa estrutura genética, e o lado aplicado, como a cura de doenças, que dependerá de procedimentos médicos que gerarão lucro.
Certas áreas de pesquisa têm um impacto imediato na sociedade. Dois exemplos importantes são a pesquisa na física nuclear e na área da engenharia genética. Em ambos os casos, há financiamento do governo e privado. Em ambos os casos, há a possibilidade de lucro. Na pesquisa nuclear, o lucro pode vir da geração de energia e das inúmeras aplicações médicas. No caso da engenharia genética, das várias aplicações na indústria de alimentos e na medicina. Em ambos os casos, as novas tecnologias podem ser usadas para destruir. A ciência tem o lado luz e o lado sombra.
Em um futuro não muito distante, vamos poder clonar seres humanos, cópias idênticas de você. Poderemos também criar "fazendas humanas", verdadeiras plantações de seres destinados apenas a nos prover com órgãos para transplantes. Esses seres seriam criados com cérebros atrofiados, primitivos, e não se oporiam a nada, como galinhas no matadouro. Eles seriam humanos? Quem teria direito de decidir isso? Um clone seu será mais ou menos humano que você? Esse clone não será "você" sob o ponto de vista psicológico, não terá suas memórias etc. Mas ele/ela poderá aprender tudo a seu respeito. E, se for possível construir um clone que não envelheça rápido (um problema que aflige os clones animais de agora), você poderá existir indefinidamente: imortalidade genética! É só ir de clone em clone...
Num futuro um pouco mais distante, talvez sejamos capazes de captar a essência do seu consciente, a informação neuronal do seu cérebro, o que você é, em um hipercomputador, um híbrido de tecidos orgânicos com chips rápidos. As pessoas poderão conversar com esse computador, que terá a sua voz. Quem é esse computador? Você? Existe então a possibilidade de uma imortalidade não só genética, mas também computadorizada, um programa que será a sua essência e que, em princípio, poderá existir para sempre. Você será uma máquina imortal.
Essas realidades meio que fantásticas ainda não existem. Mas elas poderão vir a existir, mais cedo do que nós pensamos. Seria inútil tentarmos controlar de alguma forma o progresso da pesquisa, genética ou qualquer outra. Ela irá acontecer do mesmo jeito, se não oficialmente, clandestinamente, o que é muito pior. Os cientistas têm o dever de alertar a população do impacto imediato e projetado de suas descobertas, sejam elas financiadas pela indústria ou pelo Estado: algumas questões vão além do lucro. Aqui entra a ética da ciência, na democratização da informação pela pesquisa. O debate do nosso futuro como espécie pertence a todos.
domingo, 21 de novembro de 1999
O paradoxo da unificação
O avanço da maioria das ciências depende da eficiência com que generalizações são feitas; dada uma grande variedade de fenômenos, é sempre muito mais atraente tentar explicá-los a partir de uma ou poucas idéias do que ter uma idéia para cada. Em física, nós usamos a mesma equação matemática para descrever vários fenômenos diferentes. É o caso das leis de movimento de Isaac Newton, que podem ser aplicadas na descrição de qualquer movimento que ocorra na natureza, contanto que: 1) ele não seja muito rápido quando comparado à velocidade da luz, de 300 mil quilômetros por segundo; 2) ele não seja o movimento de objetos muito pequenos, na escala molecular ou menor (atômica, nuclear etc.); 3) ele não esteja em uma região com fortes forças gravitacionais, como muito perto do Sol ou de um buraco negro. Ou seja, movimentos na escala "humana" são devidamente descritos pelas leis de Newton.
Quando tentamos descrever o mundo à nossa volta, temos de usar aproximações. Segundo Newton, o mundo pode ser descrito a partir de partículas (ou objetos) interagindo por meio de certas forças. O Sol atrai a Terra devido a sua gravidade (e a Terra atrai o Sol de volta; é a terceira lei de Newton); uma carga elétrica atrai outra de carga oposta ou repele sua irmã de mesma carga. A ação dessas forças nas partículas faz com que elas se movam em movimentos acelerados. Essa mesma descrição é usada em escalas bem menores, onde há outras forças, que só atuam em distâncias nucleares: as forças nucleares forte e fraca. Portanto, usando essa descrição do mundo a partir de partículas e forças, chegamos a uma realidade em que fenômenos podem, ultimamente, ser descritos por essas quatro forças atuando sobre partículas. Esse é o mundo de acordo com o método reducionista, que foi e é eficiente na nossa descrição da natureza e de suas complexidades.
O clímax do reducionismo seria chegar a uma descrição do mundo usando apenas uma força atuando nos blocos fundamentais da matéria: Essa força unificaria a ação de todas as outras quatro forças, e toda a matéria poderia ser reconstruída a partir desses blocos fundamentais. Essa teoria unificada é às vezes chamada de "teoria de tudo", um nome que, acredito, é extremamente infeliz. Sem dúvida, a evolução da física se deu, em grande parte, devido ao nosso esforço em unificar conceitos e idéias, em procurar os aspectos mais fundamentais da realidade, que se escondem por trás de uma aparente complexidade; a natureza, em muitos casos, revela uma simplicidade belíssima, que nós, a partir de nossas leis, conseguimos às vezes descrever.
Mas o sucesso pode criar vícios. Nas últimas décadas, apesar de todos os esforços por uma teoria de unificação, a física está cada vez mais fragmentada: para a maioria dos físicos, chegar ou não a uma teoria que descreva as quatro interações como apenas uma, a energias zilhões de vezes maiores que as do nosso dia-a-dia (em torno de 10 bilhões de bilhões de vezes maiores do que as energias que ligam um elétron a um próton para formar um átomo de hidrogênio), é irrelevante; essa teoria unificada não os ajudará a compreender melhor os processos térmicos que ocorrem em seus cristais ou no interior de Júpiter, ou como funciona a memória.
Aparentemente, há uma divisão "social" entre os físicos e outros cientistas com relação a essas questões. Em defesa da busca pela unificação, deve ser dito que é provável que, caso um dia tenhamos tal teoria, ela irá nos revelar aspectos profundos da natureza, impossíveis de prever. Essa é uma lição da história que não devemos esquecer. Por outro lado, deve-se também dizer que há problemas fundamentais na ciência que são independentes de uma teoria da unificação e, mais importante, igualmente relevantes. É na complementariedade das linhas de pesquisa que está a força da ciência, e não na competição por relevância.
domingo, 14 de novembro de 1999
Um mundo imerso em ondas
Ondas estão por toda a parte. Nós ouvimos porque ondas de som se propagam pelo ar, fazendo vibrar o delicado mecanismo dentro de nossos ouvidos. Quando vemos algo, nossos olhos estão captando ondas luminosas refletidas pela superfície do objeto. Os processos neuronais que traduzem esses estímulos externos em sensações são ainda objeto de muita pesquisa. Mas sabemos que os neurônios responsáveis por essa "tradução" funcionam devido à propagação de ondas elétricas pelos axônios. O mapa de realidade externa que é reconstruído em nosso cérebro é o resultado da propagação e interação de diversos tipos de ondas. Mas o que é uma onda?
Por incrível que pareça, essa pergunta tem várias respostas. Fundamentalmente, a existência de ondas deve-se ao amor que a natureza tem pelo equilíbrio estável; quando um sistema em equilíbrio é levemente perturbado, ele tenderá naturalmente a voltar à condição de equilíbrio. A superfície de um lago, ou de uma banheira cheia d'água, permanece intacta, a menos que algum estímulo externo perturbe esse equilíbrio. Rapidamente, ondas concêntricas se propagam a partir do ponto de contato, e a energia extra depositada ali é então dissipada: o sistema volta ao equilíbrio. Portanto, podemos dizer que ondas são uma propagação organizada de um desequilíbrio.
Em geral, ondas são resultados de perturbações lineares, ou seja, que provocam uma resposta proporcional ao estímulo: um estímulo duas vezes maior provoca uma resposta do sistema duas vezes maior. Quando o problema é formulado matematicamente, as soluções das equações representam as ondas que observamos no lago.
Nem todo estímulo gera uma resposta linear. Vários sistemas são dominados por efeitos não-lineares, em que um pequeno estímulo pode gerar uma resposta muito intensa e vice-versa, sem uma relação simples entre os dois. Um exemplo dramático é o de uma onda quebrando na areia. No mar, vemos ondas na superfície com períodos de cinco a dez segundos; esse regime é essencialmente linear.
Quando essas ondas se aproximam da praia, a menor profundidade aumenta a influência de termos não-lineares. A amplitude da onda aumenta, sua velocidade diminui e, não podendo mais se sustentar, ela quebra, fazendo com que o movimento organizado se torne turbulento. Mas seria prematuro concluir que toda a não-linearidade leva à destruição de ordem. Em certos sistemas, é justamente a não-linearidade que provoca a manutenção da onda, compensando exatamente sua tendência natural de se dispersar, como uma espécie de cola. Essas configurações estáveis e não-lineares são conhecidas como sólitons.
Em 1834, o engenheiro inglês J. Scott Russell relatou seu encontro com um sóliton, ou onda solitária: "Estava observando um barco puxado por dois cavalos em um canal estreito, quando os cavalos pararam subitamente. Uma massa de água formou-se em torno do barco e começou a se propagar a uma alta velocidade (15 km/h), uma formação solitária e elegante, que viajou pelo menos por dois ou três quilômetros, até eu perdê-la de vista."
Hoje vemos sólitons em praticamente todas as áreas da física, desde a propagação de sinais em fibras óticas e domínios magnéticos em vários materiais até a condução de certos impulsos nervosos. A não-linearidade também pode trazer a ordem. Claro, ondas não são restritas ao mundo visível. Átomos e partículas de matéria e de radiação (ou, no visível, luz) também são descritos por ondas. Essas "ondas de matéria" não sofrem dissipação como as ondas no mundo visível à nossa volta: a mecânica quântica mostra que ondas de matéria nunca param por si só. Talvez exista uma relação profunda entre ondas e nosso conceito de tempo. Afinal, mudanças ou transformações são uma manifestação da passagem do tempo.
domingo, 7 de novembro de 1999
Métodos para datar o passado
Quando cientistas dizem que certa espécie de dinossauro existiu há 100 milhões de anos ou que certos microrganismos têm mais de 1 bilhão de anos, certas pessoas levantam os olhos e perguntam: "Mas como isso é possível? Como os cientistas podem saber esse tipo de coisa, se eles não estavam lá para confirmar?" Essa pergunta é muito importante, e está na raiz de vários conflitos entre a ciência e a religião. Em particular, religiosos mais radicais, quando afirmam que a Terra tem apenas 6.000 anos porque assim "diz" a Bíblia, negam frontalmente esse tipo de informação científica. Por isso, hoje quero discutir como nós, cientistas, sabemos datar o passado com ótima precisão.
O método usa o decaimento de substâncias radiativas. Como sabemos, todo elemento químico tem um determinado átomo, cujo núcleo tem um certo número de prótons e nêutrons. Por exemplo, o elemento hélio tem dois prótons e dois nêutrons no núcleo. Já os isótopos de um elemento químico têm o mesmo número de prótons, mas um número diferente de nêutrons. Por exemplo, um isótopo de hélio, o He-3 (três é o número de prótons mais o de nêutrons), tem apenas um nêutron no núcleo. Conhecemos em torno de 1.500 isótopos, dos quais 305 ocorrem naturalmente e 1.200 são artificialmente produzidos. Dos que ocorrem naturalmente, 25 são isótopos radiativos, isto é, que decaem em outros isótopos e/ou elementos químicos. Esses radioisótopos naturais são usados para datar fósseis e materiais biológicos.
O datamento por radioisótopos baseia-se na lei da radiatividade, descoberta em 1902 por Ernest Rutherford e Frederick Soddy. Essa lei explica a desintegração de átomos radiativos. Todos os métodos usam o fato de que cada radioisótopo decai a uma taxa constante, sua meia-vida. O carbono-14 tem meia-vida de 5.730 anos. Portanto, uma amostra contendo 1 milhão de átomos de C-14 conteria 500 mil após 5.730 anos, 250 mil após 11.460 anos etc. Se soubermos a quantidade de átomos na amostra original, podemos facilmente estimar sua idade atual medindo sua radiatividade. Caso contrário, podemos estimar essa quantidade, pois todos os animais ingerem C-14 depositado em plantas verdes. Quando o animal ou a planta morrem, o nível de C-14 decai, sendo gradativamente transformado no isótopo de nitrogênio, N-14: medindo a quantidade de C-14 e N-14 na amostra, estimamos sua idade. O método é usado para amostras de até 40 mil anos, para evitar erros de contaminação.
Outros isótopos são usados para datar amostras mais antigas. O rubídio-87 é um isótopo com uma meia-vida de 48,8 bilhões de anos, decaindo no estrôncio-87, que é estável. O método compara a quantidade de dois isótopos, estrôncio-87 (que vem do R-87) e o estrôncio-86, e foi usado para datar as rochas mais antigas da Terra, com 3,8 bilhões de anos, no sul da Groenlândia. Quando usado em meteoritos, o método acusa uma idade de 4,6 bilhões de anos, aproximadamente a idade do Sistema Solar.
Existem vários outros métodos usando radioisótopos. Esses métodos são replicáveis e quantitativos. Albert Einstein dizia que a ciência sem religião é capenga e que a religião sem ciência é cega. Ou seja, que a ciência nasce de uma inspiração espiritual com relação ao desconhecido, que Einstein atribuía a uma inspiração religiosa. Por outro lado, a religião não pode negar os avanços da ciência, pois corre o perigo de ficar cega. Interpretar a Bíblia como uma descrição literal da história do Universo e da Terra vai de encontro aos achados da ciência moderna. Não acredito que a Bíblia tenha sido escrita com essa intenção, do mesmo modo que artigos científicos não devem ter um conteúdo religioso. É na complementaridade de ambos que reside a solução desse suposto conflito, na aceitação das missões e dos limites da ciência e da religião em nossas vidas.
O método usa o decaimento de substâncias radiativas. Como sabemos, todo elemento químico tem um determinado átomo, cujo núcleo tem um certo número de prótons e nêutrons. Por exemplo, o elemento hélio tem dois prótons e dois nêutrons no núcleo. Já os isótopos de um elemento químico têm o mesmo número de prótons, mas um número diferente de nêutrons. Por exemplo, um isótopo de hélio, o He-3 (três é o número de prótons mais o de nêutrons), tem apenas um nêutron no núcleo. Conhecemos em torno de 1.500 isótopos, dos quais 305 ocorrem naturalmente e 1.200 são artificialmente produzidos. Dos que ocorrem naturalmente, 25 são isótopos radiativos, isto é, que decaem em outros isótopos e/ou elementos químicos. Esses radioisótopos naturais são usados para datar fósseis e materiais biológicos.
O datamento por radioisótopos baseia-se na lei da radiatividade, descoberta em 1902 por Ernest Rutherford e Frederick Soddy. Essa lei explica a desintegração de átomos radiativos. Todos os métodos usam o fato de que cada radioisótopo decai a uma taxa constante, sua meia-vida. O carbono-14 tem meia-vida de 5.730 anos. Portanto, uma amostra contendo 1 milhão de átomos de C-14 conteria 500 mil após 5.730 anos, 250 mil após 11.460 anos etc. Se soubermos a quantidade de átomos na amostra original, podemos facilmente estimar sua idade atual medindo sua radiatividade. Caso contrário, podemos estimar essa quantidade, pois todos os animais ingerem C-14 depositado em plantas verdes. Quando o animal ou a planta morrem, o nível de C-14 decai, sendo gradativamente transformado no isótopo de nitrogênio, N-14: medindo a quantidade de C-14 e N-14 na amostra, estimamos sua idade. O método é usado para amostras de até 40 mil anos, para evitar erros de contaminação.
Outros isótopos são usados para datar amostras mais antigas. O rubídio-87 é um isótopo com uma meia-vida de 48,8 bilhões de anos, decaindo no estrôncio-87, que é estável. O método compara a quantidade de dois isótopos, estrôncio-87 (que vem do R-87) e o estrôncio-86, e foi usado para datar as rochas mais antigas da Terra, com 3,8 bilhões de anos, no sul da Groenlândia. Quando usado em meteoritos, o método acusa uma idade de 4,6 bilhões de anos, aproximadamente a idade do Sistema Solar.
Existem vários outros métodos usando radioisótopos. Esses métodos são replicáveis e quantitativos. Albert Einstein dizia que a ciência sem religião é capenga e que a religião sem ciência é cega. Ou seja, que a ciência nasce de uma inspiração espiritual com relação ao desconhecido, que Einstein atribuía a uma inspiração religiosa. Por outro lado, a religião não pode negar os avanços da ciência, pois corre o perigo de ficar cega. Interpretar a Bíblia como uma descrição literal da história do Universo e da Terra vai de encontro aos achados da ciência moderna. Não acredito que a Bíblia tenha sido escrita com essa intenção, do mesmo modo que artigos científicos não devem ter um conteúdo religioso. É na complementaridade de ambos que reside a solução desse suposto conflito, na aceitação das missões e dos limites da ciência e da religião em nossas vidas.
Assinar:
Comentários (Atom)