O livro da Ciência
(Textos Escolhidos)
Adam Hart-Davis... ... [et al.].
Tradução de Alice Klesck.
São Paulo: Globo Livros, 2014.
Frases da Capa
Mundos para além do sistema solar
Queremos sugerir uma estrutura para o sal do ácido desoxirribonucleico (ADN)
Abordar a elasticidade do ar
O raio do espaço iniciou-se no zero
Somos feitos de pó das estrelas
A órbita de todos os planetas é uma elipse
A radiação é uma propriedade atômica dos elementos
Uma nova lei da natureza
Uma teoria de tudo?
Introduzir genes em seres humanos para curar doenças
Um elo evolutivo entre pássaros e dinossauros
A massa de uma planta vem do ar
O universo é grande... e está a expandir-se
Nascido numa colônia grega da Ásia Menor, Tales de Mileto é frequentemente encarado como o fundador da filosofia ocidental, mas foi também uma figura-chave no desenvolvimento inicial da ciência. Durante a sua vida obteve reconhecimento pelo seu pensamento sobre matemática, física e astronomia.
O feito mais famoso de Tales foi talvez também o mais controverso. Segundo o historiador grego Heródoto, que escreveu mais de um século depois do acontecimento, Tales teria previsto um eclipse solar, atualmente datado para 28 de maio de 585 a. C., famoso por interromper a batalha entre Lídios e Medos.
História contestada
O feito de Tales não seria repetido durante vários séculos e os historiadores da ciência há muito que debatem como é que o terá alcançado, ou mesmo se o previu. Alguns argumentam que o relato de Heródoto é impreciso e vago, mas a façanha de Tales parece ter sido amplamente conhecida e era encarada como um facto por escritores posteriores, que sabiam ser necessário tratar os relatos de Heródoto com cautela. Assumindo que terá sido verdade, é provável que Tales tenha descoberto um ciclo de 18 anos nos movimentos do Sol e da Lua, conhecido como o ciclo de Saros, o qual foi usado por astrônomos gregos posteriores na previsão de eclipses.
Independentemente do método usado, a previsão de Tales teve um efeito dramático na Batalha de Hális, na atual Turquia. O eclipse pôs fim não só à batalha, como também a uma guerra de 15 anos entre os Medos e os Lídios.
A natureza da matéria preocupava muitos dos antigos pensadores gregos. Tendo visto água líquida, gelo sólido e névoa gasosa, Tales de Mileto acreditava que tudo devia ser feito de água. Aristóteles sugeriu que “o alimento de todas as coisas é húmido, e até o calor tem origem no molhado e vive segundo este”. Escrevendo duas gerações depois de Tales, Anaxímenes disse que o mundo é feito de ar, argumentando que, quando o ar se condensa, produz névoa, depois chuva e por fim pedras.
Nascido em Agrigento, na Sicília, o médico e poeta Empédocles pensou numa teoria mais complexa: tudo é composto por quatro raízes — não usou a palavra “elementos” —, terra, ar, fogo e água. Misturar essas raízes produziria qualidades como o calor e a humidade para fazer a terra, as pedras e todas as plantas e animais. Originalmente, as quatro raízes formavam uma esfera perfeita, unida pelo amor, a força centrípeta. Mas, gradualmente, a discórdia, a força centrífuga, começou a desmembrá-las. Para Empédocles, o amor e a discórdia são as duas forças que moldam o Universo. Neste mundo, a discórdia tende a predominar, e por isso a vida é tão difícil.
Esta teoria relativamente simples dominou o pensamento europeu — que se referia aos “quatro humores” — até ao desenvolvimento da química moderna, no século XVII.
O astrônomo e matemático grego Erastóstenes é recordado como a primeira pessoa a medir o tamanho da Terra, mas foi também o fundador da geografia — não apenas por ter cunhado a palavra, mas por ter estabelecido muitos dos princípios básicos usados para a medição de locais do nosso planeta. Nascido em Cirene (na atual Líbia), Erastóstenes viajou bastante pelo mundo grego, estudando em Atenas e Alexandria e acabando por se tornar bibliotecário da Grande Biblioteca de Alexandria.
Foi ali que Erastóstenes ouviu um relato de que, a sul, na cidade de Swenet (atual Assuão), o Sol passava diretamente por cima durante o solstício de verão (o dia mais longo do ano, quando o Sol alcança o ponto mais alto do céu). Pressupondo que o Sol estava tão distante que os seus raios seriam quase paralelos uns aos outros quando atingissem a Terra, ele usou uma haste vertical, ou “gnómon”, para projetar a sombra do Sol no mesmo momento em Alexandria. Ali, calculou que o Sol estava a 7,2° a sul do zénite — o que corresponde a 1/50 da circunferência de um círculo. Pensou, então, que a distância entre as duas cidades, ao longo de um meridiano norte-sul, teria de ser 1/50 da circunferência da Terra, o que lhe permitiu calcular o tamanho de nosso planeta em 230 mil estádios, ou 39 690 quilômetros — um erro de menos de dois por cento.
Erudito persa nascido em Bagdade em 1201, durante a Idade de Ouro do Islão, Nazir al-Din al-Tusi foi poeta, filósofo, matemático e astrônomo e um dos primeiros a propor um sistema de evolução. Sugeriu que o Universo foi em tempos composto por elementos idênticos que se tinham gradualmente separado, tornando-se alguns minerais, e outros, mudando mais depressa, transformando-se em plantas e animais.
Em Akhalaq-i-Nasri, o seu trabalho sobre ética, Al-Tusi expôs uma hierarquia de formas de vida na qual os animais eram superiores às plantas e os seres humanos superiores aos outros animais. Ele encarava a vontade consciente dos animais como um passo em direção à consciência humana. Os animais conseguem deslocar-se conscientemente em busca de alimento e aprendem coisas novas. Nessa capacidade para aprender, Al-Tusi via uma capacidade para raciocinar: “O cavalo treinado ou o falcão de caça estão num ponto de desenvolvimento mais elevado no mundo animal”, disse ele, acrescentando: “Os primeiros passos da perfeição humana começam a partir daqui.” Al-Tusi acreditava que os organismos mudavam ao longo do tempo, e nessa mudança via uma progressão em direção à perfeição. Via os seres humanos num “grau intermédio da escala evolutiva”, potencialmente capazes, através da própria vontade, de alcançar um nível mais elevado de desenvolvimento. Foi o primeiro a sugerir que não só os organismos mudam com o tempo, como toda a cadeia da vida evoluiu a partir de uma altura em que não existia sequer vida.
O escritor romano Vitrúvio escreve, no século I a. C., a possivelmente fictícia história de um incidente ocorrido dois séculos antes. Hierão II, rei da Sicília, tinha encomendado uma nova coroa de ouro. Quando a coroa foi entregue, Hierão desconfiou que o ourives teria substituído parte do ouro por prata, fundindo esta com o ouro restante para que a cor fosse semelhante a ouro puro. O rei pediu ao seu cientista-chefe, Arquimedes, que investigasse.
Arquimedes debruçou-se sobre o assunto. A nova coroa era preciosa e não podia ser danificada. Foi então aos banhos públicos de Siracusa para pensar sobre o problema. A banheira estava cheia até à borda e, quando entrou, Arquimedes notou duas coisas: o nível da água subiu, fazendo transbordar uma parte, e ele sentiu-se sem peso. Gritando “Heureca!” (descobri!), correu para casa completamente nu.
Medir o volume
Arquimedes percebeu que, se colocasse a coroa num balde cheio de água, esta deslocaria alguma água — exatamente uma quantidade igual ao seu próprio volume — e ele poderia medir quanta água tinha transbordado. Isto indicar-lhe-ia o volume da coroa. A prata é menos densa do que o ouro, portanto, uma coroa de prata do mesmo peso seria maior do que uma coroa de ouro e deslocaria mais água. Assim, uma coroa adulterada deslocaria mais água do que uma de ouro puro — e mais do que um pedaço de ouro do mesmo peso. Na prática, o efeito seria pequeno e difícil de medir, mas Arquimedes percebera também que qualquer objeto submerso num líquido sofre uma impulsão (força ascendente) igual ao peso do líquido por ele deslocado.
Arquimedes resolveu provavelmente o problema pendurando a coroa e um peso igual em ouro puro nas pontas opostas de uma vara, a qual suspendeu depois pelo meio para que os dois pesos se equilibrassem. A seguir, mergulhou tudo numa banheira com água. Se a coroa fosse de ouro puro, esta e o pedaço de ouro sofreriam uma impulsão igual e a vara manter-se-ia na horizontal. Mas se a coroa contivesse prata, o seu volume seria maior do que o volume da peça de ouro — a coroa deslocaria mais água e a vara ficaria bastante inclinada.
A ideia de Arquimedes tornou-se conhecida como o “princípio de Arquimedes”, que afirma que a impulsão de um objeto num fluido é igual ao peso do fluido que o objeto desloca. Esse princípio explica como objetos feitos de material denso conseguem flutuar na água. Um navio de aço de uma tonelada irá afundar-se até ter deslocado uma tonelada de água, mas depois não se afundará mais. O seu casco fundo e oco tem um volume maior e desloca mais água do que um pedaço de aço do mesmo peso, portanto, flutua sustentado por uma impulsão maior.
Vitrúvio conta-nos que a coroa de Hierão tinha, de facto, alguma prata, e o ourives foi devidamente punido.
Por volta do ano 140 a. C., o astrônomo grego Hiparco, provavelmente o melhor astrônomo da Antiguidade, compilou um catálogo com cerca de 850 estrelas. Explicou também como prever os movimentos do Sol e da Lua e as datas de eclipses. No seu trabalho Almagesto, de cerca de 150 a. C., Ptolomeu de Alexandria listou 1000 estrelas e 48 constelações. A maior parte do seu trabalho era, na realidade, uma versão atualizada do que Hiparco tinha escrito, mas de um modo mais prático. No Ocidente, Almagesto tornou-se o texto-padrão de astronomia durante a Idade Média. As suas tabelas incluíam todas as informações necessárias para calcular as futuras posições do Sol e da Lua, dos planetas e das principais estrelas, bem como os eclipses do Sol e da Lua.
Em 120 d. C., o polímata chinês Zhang Heng produziu um trabalho intitulado Ling Xian, ou A Constituição Espiritual do Universo, no qual escreveu que “o céu é como um ovo de galinha, redondo como a bala de um arco, e a Terra é como a gema do ovo, sozinha, no centro. O céu é grande e a Terra é pequena”. Tratava-se, na sequência de Hiparco e Ptolomeu, de um Universo com a Terra no seu centro. Zhang catalogou 2500 estrelas “brilhantes” e 124 constelações e acrescentou que “das estrelas muito pequenas, existem 11 520”.
Eclipses da Lua e dos planetas
Zhang era fascinado por eclipses e escreveu: “O Sol é como fogo e a Lua como água. O fogo dá a luz e a água reflete-a. Assim, a luminosidade da Lua é produzida pelo esplendor do Sol e a escuridão da Lua deve-se à obstrução da luz do Sol. A face virada para o Sol está inteiramente iluminada, e o lado oposto escuro.” Zhang também descreveu um eclipse lunar, no qual a luz do Sol não consegue alcançar a Lua porque a Terra está no caminho. Ele reconheceu que os planetas também eram “como água”, refletindo a luz, portanto, eram igualmente sujeitos a eclipses: “Quando [um efeito semelhante] acontece com um planeta, damos-lhe o nome de ocultação; quando a Lua atravessa o caminho do Sol, então dá-se um eclipse solar.”
No século XI, outro astrônomo chinês, Shen Kuo, expandiu o trabalho de Zhang num ponto importante. Demonstrou que as observações dos quartos crescente e minguante da Lua provavam que os corpos celestes eram esféricos.
O astrônomo e matemático árabe Alhazen, que viveu em Bagdade, no atual Iraque, durante a Idade de Ouro da civilização islâmica, foi provavelmente o primeiro cientista experimental do mundo. Embora os antigos pensadores gregos e persas tenham explicado o mundo natural de diversas formas, chegaram às suas conclusões através do raciocínio abstrato, e não por meio de experiências concretas. Alhazen, trabalhando numa cultura islâmica que vibrava de curiosidade e investigação, foi o primeiro a usar aquilo que hoje designamos por método científico: estabelecer uma hipótese e testá-la metodicamente através de experiências. Tal como observou: “Aquele que procura a verdade não é o que estuda os escritos dos antigos (...) confiando, mas sim o que suspeita da sua própria fé neles e questiona o que dos outros recebe; é aquele que se submete ao argumento e à demonstração.”
Compreender a visão
Alhazen é recordado hoje em dia como o fundador da ciência ótica. Os seus trabalhos mais importantes foram estudos da estrutura do olho e do processo da visão. Os estudiosos gregos Euclides e, mais tarde, Ptolomeu acreditavam que a visão derivava de “raios” emitidos pelo olho, que eram refletidos por aquilo para onde a pessoa estivesse a olhar. Através da observação das sombras e da reflexão, Alhazen mostrou que a luz é refletida pelos objetos e viaja em linha reta para dentro dos nossos olhos. A visão era um fenômeno passivo e não ativo, pelo menos até atingir a retina. Ele notou que «luz e cor são emitidas a partir de cada ponto de cada corpo colorido, iluminado por qualquer luz, ao longo de todas as linhas retas que possam ser desenhadas a partir desse ponto”. Para vermos só precisamos de abrir os olhos e deixar a luz entrar. Os olhos não precisam de emitir raios, mesmo que o pudessem fazer.
Alhazen também descobriu, através das suas experiências com os olhos de touros, que a luz entra por um pequeno orifício (a pupila) e é focada por uma lente sobre uma superfície sensível (a retina) na parte de trás do olho. No entanto, embora tenha reconhecido o olho como uma lente, não explicou como o olho ou o cérebro formam a imagem.
Experiências com a luz
O Livro da Ótica, a obra monumental em sete volumes de Alhazen, apresentou a sua teoria da luz e da visão. Permaneceu como a maior autoridade no assunto até à publicação de Princípios, de Newton, 650 anos depois. O livro aborda a interação da luz com as lentes e descreve o fenômeno da refração (mudança de direção) da luz —700 anos antes da lei da refração do cientista holandês Willebrord van Roijen Snell. Examina também a refração de luz pela atmosfera e descreve as sombras, os arco-íris e os eclipses. A Ótica influenciou bastante os cientistas ocidentais posteriores, incluindo Francis Bacon, um dos cientistas responsáveis pela recuperação do método científico de Alhazen durante o Renascimento, na Europa.
Ao longo da sua história inicial, o pensamento do Ocidente foi moldado por uma ideia de Universo que colocava a Terra no centro de tudo. Este “modelo geocêntrico” parecia, a princípio, estar enraizado na observação diária e no senso comum — não sentimos qualquer movimento no solo que pisamos e, superficialmente, também não parece haver qualquer evidência observacional de que o planeta está em movimento. Certamente, a explicação mais simples seria o Sol, a Lua, os planetas e as estrelas estarem todos a girar em volta da Terra a ritmos diferentes? Este sistema parece ter sido amplamente aceite na Antiguidade e consolidou-se na filosofia clássica através dos trabalhos de Platão e Aristóteles, no século IV a. C.
No entanto, quando os gregos antigos mediram o movimento dos planetas, tornou-se claro que o sistema geocêntrico tinha problemas. As órbitas dos planetas conhecidos —cinco luzes deambulantes no céu — seguiam percursos complexos. Mercúrio e Vênus eram sempre vistos de manhã e ao entardecer, traçando arcos estreitos em volta do Sol. Enquanto isso, Marte, Júpiter e Saturno demoravam 780 dias, 12 anos e 30 anos, respetivamente, para efetuar um círculo perante as estrelas em fundo, com os seus movimentos a complicarem-se através de arcos “retrógrados”, nos quais desaceleravam e invertiam temporariamente a direção do seu movimento.
Sistema ptolemaico
Para explicar estas complicações, os astrônomos gregos introduziram a ideia de epiciclos — “subórbitas” em volta das quais os planetas giravam, enquanto os pontos-pivô centrais das subórbitas eram transportados em redor do Sol. Este sistema foi aprofundado pelo grande astrônomo e geógrafo greco-romano Ptolomeu de Alexandria, no século II d. C.
Contudo, mesmo no mundo clássico, havia divergências de opinião — o pensador grego Aristarco de Samos, por exemplo, usou medições trigonométricas engenhosas para calcular as distâncias relativas do Sol e da Lua, no século II a. C. Descobriu que o Sol era imenso e isso inspirou-o a sugerir que o Sol seria um ponto-pivô mais provável para o movimento do cosmos.
O sistema ptolemaico, no entanto, acabou por vencer as teorias rivais, o que teve implicações profundas. Nos séculos seguintes, enquanto o Império Romano definhava, a Igreja Cristã herdava muitas das suas pressuposições. A ideia de que a Terra era o centro de tudo e que o homem era o apogeu da Criação de Deus, com domínio sobre a Terra, tornou-se um princípio central do cristianismo, dominando a Europa até ao século XVI.
Isso não significa, no entanto, que a astronomia tenha estagnado durante um milênio e meio depois de Ptolomeu. A capacidade de prever com precisão o movimento dos planetas não era apenas uma questão filosófica e científica, tinha também motivos supostamente práticos, graças às superstições da astrologia. Observadores de estrelas de todas as convicções tinham bons motivos para tentar obter medições cada vez mais precisas dos movimentos planetários.
Erudição árabe
Os últimos séculos do primeiro milênio corresponderam ao primeiro grande florescimento da ciência árabe. A rápida disseminação do Islão pelo Médio Oriente e o Norte de África, a partir do século VII, colocou os pensadores árabes em contato com os textos clássicos, incluindo os escritos astronômicos de Ptolomeu e outros.
A prática da “astronomia posicional” — o cálculo da posição dos corpos celestes —alcançou o seu apogeu em Espanha, que se transformara num caldeirão dinâmico do pensamento islâmico, judaico e cristão. No final do século XIII, o rei Afonso X de Castela patrocinou a compilação das Tábuas Afonsinas, as quais misturavam observações novas com séculos de registos islâmicos, de modo a trazer uma nova precisão ao sistema ptolemaico, disponibilizando os dados que seriam usados para o cálculo das posições planetárias até ao início do século XVII.
Questionar Ptolomeu
Por esta altura, contudo, o modelo ptolemaico estava a tornar-se absurdamente complicado, sendo adicionados cada vez mais epiciclos de modo a manter-se a previsão de acordo com a observação. Em 1377, o filósofo francês Nicole Oresme, bispo de Lisieux, abordou diretamente este problema no trabalho Livre du Ciel et du Monde (Livro do Céu e da Terra). Demonstrou a falta de provas observacionais de que a Terra era estática e argumentou não haver motivos para se supor que esta não estivesse em movimento. No entanto, apesar de destruir as provas que sustentavam o sistema ptolemaico, Oresme concluiu que ele próprio não acreditava numa Terra em movimento.
No início do século XVI, a situação tornara-se muito diferente. As forças paralelas da Renascença e da Reforma Protestante levaram a que muitos dogmas religiosos antigos fossem postos em causa. Foi nesse contexto que Nicolau Copérnico, um cónego católico polaco da província de Vármia, apresentou a primeira teoria heliocêntrica moderna, mu- dando o centro do Universo da Terra para o Sol.
Copérnico publicou pela primeira vez as suas ideias num pequeno panfleto conhecido como Commentariolus, que circulou entre amigos por volta de 1514. A sua teoria era essencialmente semelhante ao sistema proposto por Aristarco e, embora superasse muitas das falhas do modelo anterior, permanecia profundamente ligada a certos pilares do pensamento ptolemaico — como a ideia de que as órbitas dos corpos celestes estavam assentes em esferas cristalinas que giravam num movimento circular perfeito. Como resultado, Copérnico teve de introduzir os seus próprios “epiciclos” para regular a velocidade dos movimentos planetários em determinadas partes das suas órbitas. Uma implicação importante do seu modelo era o facto de aumentar bastante o tamanho do Universo. Se a Terra se movia em volta do Sol, isso devia notar-se através de efeitos de paralaxe causados pela mudança do nosso ponto de vista: as estrelas deveriam parecer mudar de lugar no céu ao longo do ano. E como isso não acontece, elas devem estar realmente muito longe.
O modelo de Copérnico depressa provou ser bem mais preciso do que qualquer melhoramento do antigo sistema ptolemaico, e a notícia espalhou-se pelos círculos intelectuais da Europa, chegando até Roma, onde, ao contrário da crença popular, o modelo foi inicialmente bem acolhido em alguns círculos católicos. O novo modelo causou agitação suficiente para que o matemático Georg Joachim Rheticus viajasse até Vármia e se tornasse pupilo e assistente de Copérnico a partir de 1539. Foi Rheticus quem, em 1540, publicou o primeiro relato amplamente divulgado do sistema de Copérnico, conhecido como Narratio Prima. Rheticus incitou o sacerdote envelhecido a publicar o seu trabalho na íntegra — algo em que Copérnico vinha pensando há anos, mas com que só concordou em 1543, no seu leito de morte.
Ferramenta matemática
Publicado postumamente, Das Revoluções das Esferas Celestes não foi inicialmente, recebido com desagrado, embora qualquer sugestão de que a Terra estava em movimento contradissesse diretamente várias passagens das Escrituras, sendo, portanto, considerada herética, tanto por teólogos católicos como protestantes. Para contornar o problema, foi inserido um prefácio explicando que o modelo heliocêntrico era apenas uma ferramenta matemática de previsão, e não uma descrição do Universo físico. Contudo, em vida, o próprio Copérnico não apresentara tais reservas. Apesar das suas implicações heréticas, o modelo de Copérnico foi usado nos cálculos da grande reforma do calendário introduzida pelo papa Gregório XIII, em 1582.
Mas em breve começaram a surgir novos problemas relacionados com a precisão das previsões do modelo, graças às observações meticulosas do astrônomo dinamarquês Tycho Brahe (1546-1601), que demonstrou que o modelo de Copérnico não descrevia adequadamente os movimentos planetários. Brahe tentou resolver essas contradições com um modelo próprio, no qual os planetas circundavam o Sol, mas o Sol e a Lua permaneciam em órbita em volta da Terra. A verdadeira solução — com órbitas elípticas só seria encontrada pelo seu pupilo, Johannes Kepler.
Passar-se-iam seis décadas até o sistema de Copérnico se tornar, de facto, emblemático na divisão causada na Europa pela Reforma da Igreja, graças, em grande parte, à controvérsia que rodeou o cientista italiano Galileu Galilei. As observações de Galileu, em 1610, sobre as fases apresentadas por Vênus e a presença de luas a orbitar Júpiter convenceram-no de que a teoria heliocêntrica estava correta e o seu apoio fervoroso à mesma, no coração da Itália católica, foi expresso no seu Diálogo sobre os Dois Principais Sistemas do Mundo (1632). Isto levou Galileu a entrar em conflito com o papado, resultando na censura retrospectiva de passagens controversas em Das Revoluções, em 1616. Esta proibição só seria levantada mais de dois séculos depois.
Embora o trabalho de Nicolau Copérnico, sobre as órbitas celestes, publicado em 1543, tinha sido convincente para um modelo universal heliocêntrico (centrado no Sol) seu sistema continha problemas relevantes. Sem conseguir se libertar das ideias antigas de que os corpos celestes eram fixados em esferas cristalinas, Copérnico afirmara que os planetas orbitavam o Sol em traçados circulares perfeitos e foi forçado a introduzir complexidades em seu modelo, para esclarecer suas irregularidades.
Supernova e cometas
Na segunda metade do século XVI, O nobre dinamarquês Tycho Brahe (1546-1601) fez observações que se provariam vitais para resolver os problemas. A explosão de uma supernova vista na constelação de Cassiopeia, em 1572, minou a ideia de Copérnico de que o Universo para além dos planetas era imutável. Em 1577, Brahe representou o movimento de um cometa. Estes eram considerados um fenômeno local, mais próximos do que a Lua, mas as observações de Brahe mostraram que o cometa tinha de estar muito para além da Lua e que se movia, de facto, por entre os planetas. De uma assentada, esta prova demoliu a ideia de “esferas celestes”. No entanto, Brahe permaneceu preso à ideia de órbitas circulares no seu modelo geocêntrico (centrado na Terra).
Em 1597, Brahe foi convidado a ir a Praga, onde passou os seus últimos anos como matemático imperial do imperador Rodolfo II. Ali, foi acompanhado pelo astrólogo alemão Johannes Kepler, que prosseguiu o trabalho de Brahe após a sua morte.
Romper com os círculos
Kepler tinha já começado a calcular uma nova órbita para Marte a partir das observações de Brahe e, por volta dessa altura, concluiu que essa órbita tinha de ser oval em vez de perfeitamente circular. Kepler formulou um modelo heliocêntrico com órbitas ovais, mas este ainda não era compatível com os dados observados. Em 1605, ele concluiu que Marte tinha de orbitar o Sol numa elipse — um “círculo alongado”, tendo o Sol como um dos seus dois pontos focais. No seu Astronomia Nova, de 1609, ele descreveu duas leis do movimento planetário. A primeira afirmava que a órbita de qualquer planeta é uma elipse. A segunda declarava que uma linha unindo um planeta ao Sol percorre áreas iguais, durante períodos iguais de tempo. Isto significa que a velocidade dos planetas aumenta quanto mais perto estão do Sol. Uma terceira lei, de 1619, descrevia a relação entre o ano de um planeta e a sua distância do Sol: o quadrado do período orbital (ano) de um planeta é proporcional ao cubo da sua distância do Sol. Portanto, um planeta que estiver a duas vezes a distância do Sol de outro planeta terá um ano com quase o triplo de duração.
A natureza da força que mantém os planetas em órbita era desconhecida. Kepler acreditava que era magnética, mas só em 1687 é que Newton mostraria que se tratava da gravidade.
Durante dois mil anos, poucas pessoas desafiaram a afirmação de Aristóteles de que uma força externa mantém as coisas em movimento e que os objetos pesados caem mais depressa que os leves. Só no século XVII é que o astrônomo e matemático italiano Galileu Galilei insistiu em que as ideias tinham de ser testadas. Galileu elaborou experiências para testar como e por que razão os objetos se movem e param, e foi o primeiro a perceber o princípio da inércia que os objetos resistem a uma mudança no movimento e precisam de uma força para começarem a mover-se, acelerar ou desacelerar. Ao cronometrar a queda de objetos, Galileu demonstrou que a velocidade de queda é a mesma para todos os objetos e percebeu o papel do atrito na desaceleração. Com o equipamento disponível durante a década de 1630, Galileu não podia medir diretamente a velocidade ou a aceleração de objetos em queda. Ao fazer rebolar bolas por uma rampa abaixo, e acima noutra, mostrou que a velocidade de uma bola no sopé da rampa dependia da altura onde começava, e não do ângulo de inclinação da rampa, e que uma bola subiria sempre até à mesma altura de onde tinha começado, independentemente da inclinação da rampa.
Galileu realizou as suas experiências com uma rampa de cinco metros de comprimento, forrada com um material liso para reduzir o atrito. Para a cronometragem, usou um grande recipiente de água com um pequeno cano no fundo. Recolhia a água que caía durante o intervalo de medição e pesava-a. Ao soltar a bola em pontos diferentes da rampa, mostrou que a distância percorrida dependia do quadrado do tempo demorado por outras palavras, a bola acelerava ladeira abaixo.
A lei dos corpos em queda
A conclusão de Galileu é que todos os corpos caem à mesma velocidade num vácuo, ideia desenvolvida mais tarde por Isaac Newton. Há uma força gravitacional superior numa massa maior, mas a massa maior também precisa de mais força para acelerar. Os dois efeitos anulam-se; portanto, na ausência de quaisquer outras forças, todos os objetos em queda irão acelerar na mesma proporção. Vemos as coisas cair a velocidades diferentes, todos os dias, devido ao efeito da resistência do ar, que desacelera os objetos a diferentes ritmos, dependendo do seu tamanho e formato. Uma bola de praia e uma bola de bowling do mesmo tamanho acelerarão inicialmente à mesma velocidade. Uma vez em movimento, a mesma quantidade de resistência do ar atuará sobre elas, mas o tamanho desta força terá uma proporção muito maior da força descendente sobre a bola de praia do que sobre a bola de bowling e, portanto, a bola de praia vai desacelerar mais.
A insistência de Galileu em testar as teorias através de observações cautelosas e experiências mensuráveis fez dele, assim como de Alhazen, um dos criadores da ciência moderna. As suas ideias sobre forças e movimento prepararam o caminho para as leis do movimento de Newton, 50 anos depois, e sustentam o nosso entendimento do movimento no Universo, dos átomos às galáxias.
No final do século XVI, os capitães dos navios já recorriam às bússolas magnéticas para manter as rotas através dos oceanos, mas ninguém sabia como elas funcionavam. Alguns achavam que o ponteiro da bússola era atraído pela Estrela Polar, outros que era atraído pelas montanhas magnéticas do Ártico. Foi o médico inglês William Gilbert quem descobriu que a própria Terra é magnética.
O avanço de Gilbert não surgiu de um lampejo de inspiração, mas de 17 anos de experiências meticulosas. Gilbert aprendeu tudo o que conseguiu com os capitães dos navios e com os fabricantes de bússolas, e depois fez um modelo de globo, ou “terrella”, a partir de magnetite e nele testou vários ponteiros de bússolas. Os ponteiros reagiam em volta da terrella tal como as bússolas dos navios faziam em maior escala — mostrando os mesmos padrões de declinação (apontando com um ligeiro desvio para verdadeiro norte no polo geográfico, o qual difere do norte magnético) e inclinação (inclinando para baixo a partir da horizontal, em direção ao globo).
Gilbert concluiu, corretamente, que o planeta inteiro é um ímã com um núcleo de ferro. Publicou então as suas ideias no livro De Magnete, em 1600, causando grande sensação. Johannes Kepler e Galileu, em especial, foram inspirados pela sua sugestão de que a Terra não está fixa em esferas celestes rotativas, como a maioria das pessoas ainda pensava, mas que gira devido à força invisível do seu próprio magnetismo.
O filósofo, estadista e cientista inglês Francis Bacon não foi o primeiro a realizar experimentos — Alhazen e outros cientistas os conduziram 600 anos antes —, mas foi o primeiro a explicar os métodos de raciocínio induzido e apresentar o método científico. Ele também via a ciência como um "salto de invenções que podem superar e, até certo ponto, reduzir nossas necessidades e tristezas".
A experimentação
Para Platão, a verdade era descoberta através da autoridade e do argumento — se um número suficiente de homens inteligentes discutisse algo, a verdade seria alcançada. O seu aluno, Aristóteles, não achava a experimentação necessária. Bacon troçava de tais “autoridades” como sendo aranhas que tecem teias a partir da sua própria substância. Insistia em provas do mundo real, especialmente através de experiências.
Dois trabalhos-chave de Bacon estabeleceram o futuro da investigação científica. Em Novum Organum (Novo Instrumento de Ciência) (1620), Bacon define os seus três pilares do método científico: observação, dedução para formular uma teoria que possa explicar o que foi observado, e uma experiência para testar se a teoria está correta. Em Nova Atlântida (1623), Bacon descreve uma ilha fictícia e a sua Casa de Salomão — uma instituição de investigação onde sábios conduzem investigações puras centradas em experiências e fazem invenções. Partilhando esses objetivos, a Royal Society foi fundada em 1660, em Londres, com Robert Hooke como o seu primeiro curador de experiências.
No século XVII, vários cientistas na Europa investigavam as propriedades do ar e o seu trabalho iria conduzir o cientista anglo-irlandês Robert Boyle a produzir as suas leis matemáticas, que descrevem a pressão num gás. Este trabalho foi associado a um debate mais alargado sobre a natureza do espaço entre as estrelas e os planetas. Os “atomistas” sustentavam que existia um espaço vazio entre os corpos celestes, enquanto os cartesianos (seguidores do filósofo francês René Descartes) afirmavam que o espaço entre as partículas era preenchido por uma substância desconhecida chamada “éter”, e que era impossível produzir-se um vácuo.
Barômetros
Em Itália, o matemático Gasparo Berti realizou experiências para descobrir por que razão uma bomba de sucção não conseguia elevar a água a mais de dez metros de altura. Berti pegou num tubo comprido, selou-o num dos lados e encheu-o de água. Depois inverteu o tubo, colocando o lado aberto dentro de uma bacia com água. O nível de água do tubo caiu até a coluna ficar com cerca de dez metros de altura. Em 1642, o seu conterrâneo Evangelista Torricelli, ouvindo falar do trabalho de Berti, construiu um sistema semelhante, mas usou mercúrio em vez de água. O mercúrio é 13 vezes mais denso do que a água, portanto, a sua coluna de liquido tinha apenas cerca de 76 centímetros de altura. A explicação de Torricelli para o facto era que o peso do ar sobre o mercúrio, na cisterna, estava a pressioná-lo para baixo e que isso equilibrava o peso do mercúrio dentro da coluna. Ele dizia que o espaço no tubo, por cima do mercúrio, era um vácuo. Isto é explicado hoje em dia em termos de pressão (força sobre determinada área), mas a ideia básica é a mesma. Torricelli tinha inventado o primeiro barômetro de mercúrio.
O cientista francês Blaise Pascal ouviu falar do barômetro de Torricelli em 1646, o que o levou a começar as suas próprias experiências. Uma delas, realizada pelo seu cunhado, Florin Périer, foi demonstrar que a pressão do ar mudava conforme a altitude. Um barômetro foi montado no terreno de um mosteiro em Clermont e observado por um monge durante o dia. Périer levou outro barômetro ao topo do Puy de Dôme, a cerca de 1000 metros acima da cidade. A coluna de mercúrio era mais curta, em cerca de oito centímetros, no topo da montanha do que no jardim do mosteiro. Como há menos ar no cimo de uma montanha do que sobre o vale no seu sopé, isto mostrou que era, de facto, o peso do ar que segurava o líquido nos tubos de mercúrio ou de água. Por esse e por outros trabalhos, a unidade moderna de pressão tem o nome de “pascal”.
Bombas de ar
Outra descoberta importante foi levada a cabo pelo cientista prussiano Otto von Guericke, que fez uma bomba capaz de bombear parte do ar para fora de um recipiente. Von Guericke realizou a sua demonstração mais famosa em 1654, quando juntou dois hemisférios metálicos, hermeticamente selados, e bombeou o ar para fora — duas parelhas de cavalos não conseguiram separar os hemisférios. Antes de o ar ser bombeado para fora, a pressão de ar dentro dos hemisférios selados era igual à do ar de fora. Sem o ar no interior, a pressão do ar exterior mantinha os hemisférios unidos.
Robert Boyle soube das experiências de Von Guericke quando estas foram publicadas em 1657. Para realizar as suas próprias experiências, Boyle contratou Robert Hooke (p. 54) para desenhar e construir uma bomba de ar. A bomba de ar de Hooke consistia num “receptor” (recipiente) de vidro, cujo diâmetro era de quase 40 centímetros, um cilindro com um pistão por baixo e um conjunto de tampões e torneiras entre eles. Movimentos sucessivos do pistão extraíam cada vez mais ar do receptor. Devido a fugas lentas nos selos do equipamento, o quase-vácuo dentro do receptor apenas podia ser mantido por pouco tempo. Contudo, a máquina era um grande avanço em relação a tudo o que já fora feito, um exemplo da importância da tecnologia no avanço das investigações científicas.
Resultados experimentais
Boyle realizou várias experiências diferentes com a bomba de ar, descritas no seu livro Novas Experiências Físico-Mecânicas de 1660. No livro, ele empenha-se em frisar que todos os resultados descritos derivam de experiências, já que, na altura, até experimentadores conhecidos, como Galileu, relatavam frequentemente resultados de “experiências idealizadas”.
Muitas das experiências de Boyle estavam diretamente relacionadas com a pressão atmosférica. O receptor podia ser modificado para conter um barômetro de Torricelli, com o tubo a sair fora do topo do receptor e mantido fixo com cimento. À medida que a pressão no receptor se reduzia, o nível do mercúrio caía. Também realizou a experiência oposta, descobrindo que, quando a pressão dentro do receptor se elevava, o nível de mercúrio subia. Isto confirmou as descobertas anteriores de Torricelli e Pascal.
Boyle notou que era cada vez mais difícil bombear o ar para fora do receptor à medida que a quantidade de ar restante diminuía e demonstrou também que uma bexiga semi-insuflada no receptor aumentava de volume conforme o ar à sua volta era retirado. Podia ser obtido um efeito semelhante na bexiga suspendendo-a diante do fogo. Ele apresentou duas explicações possíveis para a “elasticidade” do ar, que causava estes efeitos: cada partícula de ar podia ser comprimida como uma mola e toda a massa de ar era semelhante a um manto de lã, ou o ar era composto por partículas que se moviam aleatoriamente.
Era uma visão semelhante à dos cartesianos, embora Boyle não concordasse com a ideia do éter, sugerindo que os “corpúsculos” moviam-se num espaço vazio. A sua explicação é incrivelmente semelhante à teoria cinética moderna, que descreve as propriedades da matéria em termos de partículas em movimento.
Algumas das experiências de Boyle eram fisiológicas, investigando os efeitos da redução da pressão do ar em pássaros e ratos e especulando sobre como o ar entra e sai dos pulmões.
A lei de Boyle
A lei de Boyle afirma que a pressão de um gás multiplicada pelo seu volume é uma constante, desde que a quantidade de gás e a temperatura se mantenham iguais. Por outras palavras, se diminuir o volume de um gás, a sua pressão aumenta. É esta pressão aumentada que produz a elasticidade de ar. Podemos sentir este efeito usando uma bomba de bicicleta, cobrindo a ponta com o dedo e empurrando o manípulo.
Embora tenha o seu nome, esta lei foi inicialmente proposta não por Boyle, mas pelos cientistas ingleses Richard Towneley e Henry Power, que realizaram uma série de experiências com um barômetro de Torricelli, publicando os seus resultados em 1663. Boyle viu um primeiro esboço do livro e discutiu os resultados com Towneley. Confirmou-os através de experimentação e publicou “A hipótese do Sr. Towneley”, em 1662, como parte de uma resposta aos críticos das suas experiências originais.
O trabalho de Boyle com gases foi especialmente significativo devido à sua cuidadosa técnica experimental e também ao seu relato integral de todas as suas experiências e possíveis fontes de erro, independentemente de estas produzirem ou não os resultados esperados. Isto levou muitos a procurar ampliar o seu trabalho. Hoje, a lei de Boyle foi combinada com leis descobertas por outros cientistas para formar a “Lei dos Gases Ideais”, que se aproxima do comportamento dos gases verdadeiros sob mudanças de temperatura, pressão ou volume. As suas ideias acabariam também por levar ao desenvolvimento da teoria cinética.
No século XVII, Isaac Newton e o astrônomo holandês Christiaan Huygens analisaram a verdadeira natureza da luz e chegaram a conclusões muito diferentes. O problema que enfrentavam era que qualquer teoria sobre a natureza da luz tinha de explicar reflexo, refração, difração e cor. Refração é a curva da luz quando esta passa de uma substância para outra e é o motivo para que as lentes possam focar a luz. Difração é a difusão da luz quando passa por um nicho bem estreito.
Antes das experiências de Newton era amplamente aceite que a luz ganhava a sua característica da cor interagindo com a matéria que o efeito “arco-íris”, visto quando a luz atravessa um prisma, é produzido porque o prisma manchou, de alguma forma, a luz. Newton demonstrou que a luz “branca” que vemos é, na realidade, uma mistura de cores diferentes de luz e que estas são separadas por um prisma, porque são todas refratadas em quantidades ligeiramente diferentes.
Tal como muitos filósofos naturalista da época, Newton acreditava que a luz era composta por um feixe de partículas ou “corpúsculos”. Esta ideia explicava como a luz viajava em linha reta e “fazia ricochete” em superfícies refletoras. Também explicava a refração em termos de forças nas fronteiras entre materiais diferentes.
Reflexão parcial
Contudo, a teoria de Newton não conseguia explicar como, quando a luz atinge muitas superfícies, parte é refletida e parte é refratada. Em 1678, Huygens argumentou que o espaço era preenchido por partículas sem peso (o éter) e que a luz causava distúrbios no éter, que se propagavam em ondas esféricas. A refração era assim explicada se materiais diferentes (quer fossem o éter, a água ou o vidro) fizessem com que as ondas de luz viajassem a velocidades diferentes. A teoria de Huygens conseguia explicar por que razão tanto a reflexão como a refração podem acontecer numa superfície. E explicava também a difração.
As ideias de Huygens causaram pouco impacto na altura. Isto aconteceu, em parte, devido ao enorme crédito que Newton já tinha como cientista. No entanto, um século depois, em 1803, Thomas Young mostrou que a luz se comporta de facto como uma onda, e experiências no século XX mostraram que ela se comporta igualmente como onda e como partícula, embora existam grandes diferenças entre as “ondas esféricas” de Huygens e os nossos modelos modernos de luz. Huygens disse que as ondas de luz eram longitudinais ao atravessarem uma substância — o éter. As ondas de som também são ondas longitudinais, nas quais as partículas da substância que a onda atravessa vibram na mesma direção em que a onda viaja. A nossa visão moderna das ondas de luz é que estas são transversas, agindo mais como ondas de água. Não precisam de matéria para se propagarem (difundirem), enquanto as partículas vibram em ângulos retos (para cima e para baixo) em relação à direção da onda.
Os trânsitos planetários ofereciam uma oportunidade para se testar a primeira das três leis de Kepler do movimento planetário que os planetas orbitam o Sol num percurso elíptico. As breves passagens de Vênus e Marte em frente ao Sol — previstas, na altura, pelas Tábuas Rodolfinas de Kepler — revelariam se a teoria subjacente estava correta.
O primeiro teste — um trânsito de Mercúrio de 1631, observado pelo astrônomo francês Pierre Gassendi — provou ser encorajador. No entanto, a sua tentativa de avistar o trânsito de Vênus, um mês depois, falhou devido às imprecisões dos cálculos de Kepler. Esses mesmos números previam um “quase encontro” entre Vênus e o Sol em 1639, mas o astrônomo inglês Jeremiah Horrocks calculou que o trânsito iria realmente ocorrer.
Ao amanhecer do dia 4 de dezembro de 1639, Horrocks montou o seu melhor telescópio, focando o disco solar num cartão. Por volta das 15h15, as nuvens dissiparam-se, revelando um “ponto de magnitude incomum” — Vênus — a atravessar a face do Sol. Enquanto Horrocks marcava a sua progressão no cartão, cronometrando cada intervalo, um amigo media o trânsito noutro local. Usando os dois conjuntos de medições a partir de pontos diferentes e recalculando o diâmetro de Vênus em relação ao Sol, Horrocks pôde então estimar a distância entre a Terra e o Sol com a maior precisão alguma vez efetuada.
A metamorfose de uma borboleta, do ovo à lagarta, ao casulo e ao inseto adulto, é hoje um processo familiar para nós, porém, no século XVII, a reprodução era vista de modo muito diferente. Seguindo o filósofo grego Aristóteles, a maioria das pessoas acreditava que a vida — principalmente a das criaturas “inferiores”, como os insetos — surgia por geração espontânea a partir de matéria não viva. A teoria de “pre-formismo” sustentava que um organismo “superior” assumia a sua forma completamente madura no seu início minúsculo, mas que os animais inferiores” eram demasiado simples para ter interiores complexos. Em 1669, o pioneiro microscopista holandês Jan Swammerdam contradisse Aristóteles ao dissecar insetos ao microscópio, incluindo borboletas, libélulas, abelhas, vespas e formigas.
Uma nova metamorfose
“Metamorfose” significara em tempos a morte de um indivíduo seguida pelo surgimento de outro, a partir dos seus restos. Swammerdam mostrou que os estádios do ciclo de vida de um inseto — fêmea adulta, ovo, larva e pupa (ou ninfa), adulto — são formas diferentes da mesma criatura. Cada estádio de vida tem os seus órgãos internos formados, bem como versões iniciais dos órgãos de estádios posteriores. Vistos sob esse novo aspeto, os insetos justificavam estudos científicos adicionais. Swammerdam foi pioneiro na classificação dos insetos, baseada na sua reprodução e no seu desenvolvimento, antes de morrer de malária aos 43 anos.
O desenvolvimento do microscópio composto, no século XVII, abriu um mundo novo de estruturas nunca antes vistas. Um microscópio simples é formado apenas por uma lente, enquanto o microscópio composto, desenvolvido por fabricantes de lentes holandeses, usa duas ou mais lentes e, geralmente, fornece uma ampliação maior.
O cientista inglês Robert Hooke não foi o primeiro a observar coisas vivas usando um microscópio. No entanto, com a publicação do seu Micrographia, em 1665, tornou-se o primeiro autor científico popular de um best-seller, espantando os seus leitores com a nova ciência da microscopia. Gravuras precisas feitas pelo próprio Hooke mostravam objetos que o público nunca vira — a anatomia pormenorizada de piolhos e pulgas; os olhos compostos de uma mosca; as asas delicadas de um mosquito. Hooke desenhou também alguns objetos feitos pelo homem — a ponta afiada de uma agulha parecia romba ao microscópio — e usou as suas observações para explicar como os cristais se formam e o que acontece quando a água congela. O jornalista inglês Samuel Pepys descreveu Micrographia como “o livro mais genial que já li na vida”.
Descrever as células
Um dos desenhos de Hooke era de uma fina fatia de cortiça. Ele notou, na estrutura da cortiça, algo semelhante às paredes que dividiam as celas dos monges num mosteiro. Estas foram o primeiro registo de desenhos e descrições de células, as unidades básicas a partir das quais são feitas todas as coisas vivas.
Os estratos sedimentários de rochas que compõem boa parte da superfície terrestre também formam a base da história geológica da Terra e são normalmente descritos como uma coluna de camadas com os estratos mais antigos em baixo e os mais recentes no topo. O processo depositário de rochas pela água e pela gravidade é conhecido há séculos, mas o bispo e cientista dinamarquês Niels Stensius, também conhecido como Nicolau Steno, foi o primeiro a descrever os princípios-base do processo. As suas conclusões, publicadas em 1669, foram retiradas a partir de observações de estratos geológicos na Toscana, em Itália.
A lei da sobreposição de Steno afirma que qualquer depósito sedimentário, ou estrato, é mais jovem do que a sequência de estratos sobre a qual assenta e mais antigo do que os estratos que repousam sobre ele. Os princípios de Steno de horizontalidade original e continuidade lateral afirmam que os estratos são depositados em camadas horizontais e contínuas e, se forem encontrados inclinados, dobrados ou quebrados, devem ter sofrido tal alteração após o seu depósito. Finalmente, o seu princípio da intersecção afirma que “se um corpo ou descontinuidade atravessar um estrato, este só se pode ter formado depois daquele estrato”.
As percepções de Steno permitiram o mapeamento posterior dos estratos geológicos por William Smith, na Grã-Bretanha, e Georges Cuvier e Alexandre Brongniart, em França. Também possibilitaram a subdivisão dos estratos em unidades temporais, que podiam ser relacionadas umas com as outras em todo o mundo.
Antonie van Leeuwenhoek raramente se aventurava para longe de casa, situada por cima de uma loja de tecidos, em Delft, na Holanda. Contudo, trabalhando sozinho no seu gabinete, descobriu um mundo inteiramente novo — o mundo da vida microscópica nunca antes vista, que incluía o esperma humano, células sanguíneas e, o mais impressionante de tudo, as bactérias.
Antes do século XVII, ninguém desconfiava da existência de formas de vida demasiado pequenas para ser vistas a olho nu. Pensava-se que as pulgas eram a forma de vida mais pequena possível. Então, por volta de 1600, o microscópio foi inventado por fabricantes de óculos holandeses, que colocaram duas lentes juntas para aumentar a sua ampliação (p. 54). Em 1665, o cientista inglês Robert Hooke fez o primeiro desenho das minúsculas células vivas que tinha visto ao microscópio numa fatia de cortiça.
Nunca ocorrera a Hooke, ou a outro microscopista da altura, procurar vida em lugares onde não a pudessem já ver com os próprios olhos. Leeuwenhoek, por outro lado, virou as suas lentes para lugares onde parecia não haver vida, especialmente nos líquidos. Estudou gotas de chuva, a placa dentária, fezes, esperma, sangue e muito mais. Foi nessas substâncias, aparentemente sem vida, que Leeuwenhoek descobriu a riqueza da vida microscópica.
Ao contrário de Hooke, Leeuwenhoek não usou um microscópio “composto” de duas lentes, mas uma lente única, de alta qualidade — uma verdadeira lupa. Na altura, era mais fácil produzir imagens nítidas com microscópios simples. Uma ampliação superior a 30 vezes era impossível com um microscópio composto, já que a imagem ficava desfocada. Leeuwenhoek fazia os seus próprios microscópios de lente única e, depois de anos a aperfeiçoar a técnica, conseguiu uma ampliação superior a 200 vezes. Os seus microscópios eram dispositivos pequenos com lentes minúsculas de apenas alguns milímetros de diâmetro. A amostra era colocada num alfinete, num dos lados da lente, e Leeuwenhoek olhava pelo lado oposto.
Vida unicelular
A princípio, Leeuwenhoek não encontrou nada de incomum, mas então, em 1674, relatou ter visto criaturas minúsculas, mais finas do que um cabelo humano, numa amostra de água de um lago. Eram algas verdes Spirogyra, um exemplo das formas de vida simples hoje conhecidas como protistas. Leeuwenhoek chamou a essas criaturinhas “animálculos”. Em outubro de 1676 descobriu bactérias unicelulares ainda mais pequenas em gotas de água. No ano seguinte descreveu como o seu próprio sêmen estava apinhado de criaturinhas, que designamos hoje por espermatozoides. Ao contrário das criaturas que encontrara na água, os animálculos no sêmen eram todos idênticos. Cada um dos muitos milhares que via tinha a mesma cauda minúscula e a mesma cabecinha, e mais nada, e nadavam como girinos no sêmen.
Leeuwenhoek relatou as suas descobertas em centenas de cartas à Royal Society, em Londres. Ao mesmo tempo que publicava as descobertas, mantinha as suas técnicas de fabrico das lentes em segredo. É provável que fizesse as suas pequenas lentes fundindo fios minúsculos de vidro, mas não sabemos ao certo.
Júpiter tem muitas luas, mas apenas as quatro maiores (Io, Europa, Ganimedes e Calisto) eram visíveis através de um telescópio na altura em que Ole Rømer observava os céus do Norte da Europa no final do século XVII. Estas luas entram em eclipse quando atravessam a sombra de Júpiter e, em certos momentos, podem ser observadas a entrar ou a sair da sombra, dependendo das posições relativas da Terra e de Júpiter em volta do Sol. Durante quase metade do ano, os eclipses das luas não podem sequer ser observados, porque o Sol está entre a Terra e Júpiter.
Giovanni Cassini, diretor do Observatoire Royal, em Paris, quando Rømer começou a trabalhar ali, no final da década de 1660, publicou um conjunto de tabelas prevendo os eclipses das luas. Conhecer os momentos desses eclipses fornecia um novo meio de cálculo da longitude. A medição da longitude depende de se conhecer a diferença entre o tempo num determinado local e o tempo num meridiano de referência (neste caso, Paris). Em terra, pelo menos, era agora possível calcular a longitude observando o momento do eclipse de uma das luas de Júpiter, comparando-o com a hora prevista do eclipse em Paris. Não era possível manter um telescópio imóvel a bordo de um barco para se observar os eclipses, e a medição da longitude no mar permaneceu impossível até John Harrison construir os primeiros cronômetros náuticos relógios que podiam marcar as horas no mar — na década de 1730.
Velocidade finita ou infinita?
Rømer estudou as observações de eclipses da lua lo, registadas durante um período de dois anos, e comparou-as com as previsões das tabelas de Cassini. Encontrou uma discrepância de 11 minutos entre as observações feitas quando a Terra estava mais perto de Júpiter e as feitas quando ela estava mais distante. Esta discrepância não podia ser explicada por nenhuma das irregularidades conhecidas nas órbitas da Terra, Júpiter ou Io. Tinha de ser o tempo que a luz levava para percorrer o diâmetro da órbita terrestre. Conhecendo esse diâmetro, Rømer podia agora calcular a velocidade da luz. Ele produziu um resultado de 214 000 km/s. O valor atual é de 299 792 km/s, portanto, o cálculo de Rømer tinha um erro de aproximadamente 25%. No entanto, foi uma excelente primeira aproximação e solucionou a questão previamente aberta de se saber se a luz tinha uma velocidade finita.
Em Inglaterra, Isaac Newton aceitou prontamente a hipótese de Rømer de que a luz não viajava instantaneamente. No entanto, nem todos concordaram com o raciocínio de Rømer. Cassini frisou que as discrepâncias nas observações das outras luas ainda não estavam explicadas. As descobertas de Rømer só foram universalmente aceites quando o astrônomo inglês James Bradley produziu um número mais exato para a velocidade da luz, em 1729, ao medir a paralaxe das estrelas. (p. 39)
O conceito moderno de espécie de planta ou animal baseia-se na reprodução. Uma espécie inclui todos os indivíduos que podem, real ou potencialmente, combinar-se para produzir descendência, a qual, por sua vez, pode fazer o mesmo. Este conceito, apresentado originalmente pelo historiador natural inglês John Ray, em 1686, ainda é a base da taxonomia — a ciência da classificação, na qual a genética tem hoje um papel importante.
Abordagem metafísica
Durante este período, o termo “espécie” era de uso comum, ainda que estreitamente ligado à religião e à metafísica — uma abordagem que persistia desde a Grécia antiga. Os filósofos gregos Platão, Aristóteles e Teofrasto tinham discutido a classificação e usado termos como “gênero” e “espécie” para descrever grupos e subgrupos de todo o tipo de coisas, vivas ou inanimadas. Ao fazê-lo, tinham invocado qualidades vagas como “essência” e “alma”. Assim, os membros pertenciam a uma espécie, porque partilhavam a mesma “essência”, em vez de partilharem a mesma aparência ou a capacidade de procriar uns com os outros.
Até ao século XVII, existiam inúmeras classificações. Muitas eram organizadas por ordem alfabética ou segundo grupos derivados do folclore, tal como agrupar as plantas segundo o tipo de doenças que podiam curar. Em 1666, Ray voltou de uma viagem de três anos pela Europa com uma grande coleção de plantas e animais, que ele e o seu colega Francis Willughby pretendiam classificar de modo mais científico.
Natureza prática
Ray introduziu uma nova abordagem observacional prática. Examinava todas as partes das plantas, desde a raiz à ponta do caule e às flores. Introduziu os termos “pétala” e “pólen” na linguagem geral e decidiu que os tipos florais deviam ser uma característica importante de classificação, tal como o tipo de semente. Também introduziu a distinção entre monocotiledôneas (plantas com uma única folha de semente) e dicotiledôneas (plantas com duas folhas de semente). Recomendou, contudo, um limite para o número de características de classificação, para evitar que o número de espécies se multiplicasse incontrolavelmente. O seu maior trabalho foi Historia Plantarum (História das Plantas), publicado em três volumes em 1686, 1688 e 1704, que contém mais de 18 mil registos.
Para Ray, a reprodução era crucial para a definição de uma espécie. A sua própria definição vinha da sua experiência a reunir espécimes, semear sementes e a observar a sua germinação: “nenhum critério mais seguro para determinar uma espécie (de plantal me ocorreu senão distinguir os traços que se perpetuam na propagação da semente (...) Do mesmo modo, os animais especificamente diferentes preservam permanentemente as suas espécies distintas; uma espécie nunca nasce da semente de outra e vice-versa”. Ray estabeleceu a base de um grupo geneticamente puro, pelo qual uma espécie ainda é definida hoje em dia. Ao fazê-lo, transformou a botânica e a zoologia em atividades científicas. Um religioso devoto, Ray via o seu trabalho como um meio de expor as maravilhas de Deus.
À época em que Isaac Newton nasceu, o modelo heliocêntrico do universo, no qual a Terra e outros planetas orbitavam o Sol, era a explicação aceita para os movimentos observados de Sol, Lua e planetas. Esse modelo não era novo, mas tinha voltado à proeminência quando Nicolau Copérnico publicou suas ideias ao final da vida, em 1543. No modelo de Copérnico, a Lua e cada um dos planetas giram ao redor de sua própria esfera cristalina, em volta do Sol, com uma esfera externa segurando os astros "fixos". Esse modelo foi suplantado quando Johannes Kepler publicou suas leis de movimento planetário, em 1609. Kepler dispensou as esferas cristalinas de Copérnico e mostrou que as órbitas dos planetas eram elipses. Também descreveu como a velocidade de um planeta muda com seu deslocamento.
O que faltava em todos esses modelos do universo era uma explicação do motivo para que os planetas se movessem da forma como fazem. Foi aí que Newton entrou. Ele percebeu que a força que puxava uma maçã para o centro da Terra era a mesma que mantinha os planetas em órbita ao redor do Sol e demonstrou, matematicamente, como essa força mudava com a distância. A matemática que ele usava envolvia as três Leis de Movimento de Newton e sua Lei Universal de Gravidade.
Ideias em transformação
Durante séculos, o pensamento científico foi dominado, pelas ideias de Aristóteles, que chegou às suas conclusões sem realizar experiências para as testar. Aristóteles ensinou que os objetos em movimento só continuam a mover-se se forem empurrados e que os objetos pesados caem mais depressa do que os leves. Ele explicou que os objetos pesados caíam na Terra porque estavam a mover-se em direção ao seu local natural. Disse também que os corpos celestes, sendo perfeitos, têm de mover-se em círculos a velocidades constantes.
Galileu Galilei apresentou um conjunto diferente de ideias, às quais chegou através da experimentação. Ele observou bolas a rebolar por rampas e demonstrou que todos os objetos caem à mesma velocidade se a resistência do ar for mínima. Também concluiu que os objetos em movimento continuam a mover-se, a não ser que uma força, como o atrito, aja para os desacelerar. O princípio da inércia de Galileu viria a fazer parte da primeira lei do movimento de Newton. Como o atrito e a resistência do ar agem sobre todos os objetos em movimento que encontramos no quotidiano, o conceito do atrito não é imediatamente óbvio. Foi apenas através de experiências cuidadosas que Galileu pôde mostrar que a força que mantém algo em movimento, a uma velocidade constante, só é necessária para contrariar o atrito.
Leis do movimento
Newton efetuou experiências em várias áreas, mas não sobreviveu nenhum registo das suas experiências sobre o movimento. No entanto, as suas três leis têm sido verificadas em muitas experiências, sendo verdadeiras para velocidades bastante abaixo da velocidade da luz. Newton afirmou sobre a sua primeira lei: “Todo o corpo permanece em estado de repouso ou em movimento uniforme, numa linha reta, a menos que seja compelido a mudar esse estado por forças aplicadas sobre ele.” Por outras palavras, um objeto estacionário só começa a mover-se se uma força atuar sobre ele e um objeto em movimento continua a mover-se, a uma velocidade constante, a menos que uma força atue sobre ele. Aqui, velocidade significa tanto a direção de um objeto em movimento como a sua rapidez. Portanto, um objeto só mudará de velocidade ou de direção se uma força agir sobre ele. A força importante é a força resultante. Um carro em movimento tem muitas forças a agir sobre ele, incluindo o atrito, a resistência do ar e também o motor que guia as rodas. Se as forças que fazem avançar o carro equilibram as forças que o tentam desacelerar, não há força resultante e o carro manterá uma velocidade constante.
A segunda lei de Newton afirma que a aceleração (uma mudança de velocidade) de um corpo depende da intensidade da força que age sobre ele, sendo geralmente escrita como: F = ma, em que F é a força, m é a massa e a é a aceleração. Isto mostra que quanto maior for a força sobre um corpo, maior a sua aceleração. Também mostra que a aceleração depende da massa de um objeto. Para uma determinada força, um corpo com pouca massa vai acelerar mais depressa do que um com uma massa maior.
A terceira lei de Newton diz: “Para toda a ação existe sempre uma reação oposta de igual intensidade.” Isto significa que todas as forças existem em pares: se um objeto exerce uma força sobre um segundo objeto, então o segundo objeto exerce simultaneamente uma força sobre o primeiro e ambas as forças são iguais e opostas. Apesar do termo “ação”, não se exige movimento para que tal seja verdade. Isto está relacionado com as ideias de Newton sobre a gravidade, já que um exemplo desta terceira lei é a atração gravitacional entre os corpos. A Terra não puxa apenas a Lua, esta puxa também a Terra com a mesma força.
Atração universal
Newton começou a pensar sobre a gravidade no final da década de 1660, quando se retirou para a localidade de Woolsthorpe, durante alguns anos, para evitar a praga que assolava Cambridge. Na altura, várias pessoas sugeriam a existência de uma força de atração do Sol e que o tamanho dessa força era inversamente proporcional ao quadrado da distância. Por outras palavras, se a distância entre o Sol e outro corpo for duplicada, a força entre eles é apenas um quarto da força original. No entanto, não se pensava que esta regra podia ser aplicada perto da superfície de um corpo volumoso como a Terra.
Newton, vendo uma maçã cair de uma árvore, ponderou que a Terra devia atrair a maçã e, como a maçã caía sempre perpendicularmente ao solo, a sua direção de queda era orientada para o centro da Terra. Portanto, a força de atração entre a Terra e a maçã tinha de agir como se se originasse no centro da Terra. Estas ideias abriram caminho para que o Sol e os planetas fossem tratados como pequenos pontos com grandes massas, o que facilitava imenso os cálculos, efetuando-se as medições a partir dos seus centros. Newton não via motivo para pensar que a força que fazia uma maçã cair diferia da força que mantinha os planetas nas suas órbitas. A gravidade era, assim, uma força universal.
Se a teoria de gravidade de Newton é aplicada a objetos em queda. M. é a massa da Terra e M. é a massa do objeto em queda. Portanto, quanto maior a massa de um objeto, maior é a força que o atrai para baixo. No entanto, a segunda lei de Newton diz-nos que uma massa maior não acelera com a mesma rapidez do que uma mais pequena se a força for igual. Assim, é necessária uma força maior para acelerar uma massa maior e todos os objetos caem à mesma velocidade, desde que não haja outras forças, como a resistência do ar para complicar as coisas. Sem resistência do ar, um martelo e uma pena caem à mesma velocidade — um facto demonstrado finalmente em 1971 pelo astronauta Dave Scott, que realizou a experiência na superfície da Lua durante a missão Apollo 15.
Newton descreveu uma experiência idealizada para explicar as órbitas num primeiro esboço de Princípios Matemáticos de Filosofia Natural. Imaginou um canhão numa montanha muito alta que disparava balas, horizontalmente, a velocidades cada vez maiores. Quanto maior a velocidade do disparo da bala, mais longe ela irá aterrar. Se for lançada com velocidade suficiente, não aterrará sequer, continuando o seu percurso em redor da Terra até voltar novamente ao topo da montanha. Da mesma forma, um satélite lançado em órbita à velocidade correta continuará a contornar a Terra. O satélite é continuamente acelerado pela gravidade da Terra. Desloca-se a uma velocidade constante, mas a sua direção está continuamente a mudar, fazendo-o circundar o planeta, em vez de disparar em linha reta em direção ao espaço. Neste caso, a gravidade da Terra só muda a direção do movimento do satélite, e não a sua velocidade.
Publicar as ideias
Em 1684, Robert Hooke gabou-se aos seus amigos Edmond Halley e Christopher Wren dizendo que tinha descoberto as leis do movimento planetário. Halley era amigo de Newton e perguntou-lhe sobre o assunto. Newton disse que já tinha resolvido o problema, mas perdera as suas notas. Halley incentivou Newton a refazer o trabalho e, como resultado, Newton produziu Sobre o Movimento dos Corpos em Órbita, um breve manuscrito enviado à Royal Society em 1684. Neste trabalho, Newton mostrava que o movimento elíptico dos planetas, descrito por Kepler, era o resultado de uma força que puxava tudo em direção ao Sol, sendo essa força inversamente proporcional à distância entre os corpos. Newton expandiu esse trabalho, incluindo outros escritos sobre forças e movimento, escrevendo a obra Princípios Matemáticos publicada em três volumes e contendo, entre outras coisas, a lei da atração universal e as suas três leis do movimento. Os volumes foram escritos em latim e só em 1729 foi publicada a primeira tradução para o inglês, baseada na terceira edição de Princípios Matemáticos.
Hooke e Newton já se tinham desentendido por causa das críticas de Hooke à teoria da luz de Newton. Contudo, após a publicação de Newton, grande parte do trabalho de Hooke sobre o movimento planetário passou para segundo plano. No entanto, Hooke não tinha sido o único a sugerir tal lei e também não demonstrara que funcionava. Newton mostrara que a sua lei da atração universal e as leis do movimento podiam ser usadas matematicamente para descrever as órbitas dos planetas e dos cometas e que essas descrições eram compatíveis com as observações.
Receção cética
As ideias de Newton sobre a gravidade não foram bem recebidas em todo o lado. A ação à distância da força de gravidade de Newton, sem qualquer explicação de como ou por que razão ocorria, era vista como uma ideia “oculta”. O próprio Newton recusou-se a especular sobre a natureza da gravidade. Para ele, era suficiente ter mostrado que a ideia de uma atração inversamente proporcional ao quadrado da distância podia explicar os movimentos planetários, portanto, a matemática estava correta. No entanto, as leis de Newton descreviam tantos fenômenos que depressa passaram a ser geralmente aceites e, hoje em dia, a unidade de força usada internacionalmente tem o seu nome.
Usar as equações
Edmond Halley usou as equações de Newton para calcular a órbita de um cometa visto em 1682 e mostrou que era o mesmo cometa observado em 1531 e em 1607. O cometa tem hoje o nome de Halley. Halley previu com sucesso que este voltaria em 1758, o que aconteceu 16 anos após sua mor- te. Foi a primeira vez que se demonstrou que os cometas orbitam o Sol. O cometa Halley passa perto da Terra a cada 75-76 anos e é o mesmo cometa visto em 1066, antes da Batalha de Hastings, no Sul da Inglaterra.
As equações foram também usadas com sucesso para se descobrir um novo planeta. Urano é o sétimo planeta a partir do Sol e foi identificado como tal por William Herschel, em 1781. Herschel descobriu o planeta por acaso, enquanto fazia observações cuidadosas do céu noturno. Observações adicionais de Urano permitiram aos astrônomos calcular a sua órbita e produzir tabelas prevendo onde poderia ser observado no futuro. Estas previsões, no entanto, nem sempre estavam corretas, conduzindo à ideia de que devia existir um outro planeta além de Urano, cuja gravidade estava a afetar a órbita deste. Por volta de 1845, os astrônomos tinham calculado onde esse oitavo planeta se deveria situar no céu e Netuno foi descoberto em 1846.
Problemas com a teoria
Para um planeta com uma órbita elíptica, o ponto da aproximação mais próxima do Sol tem o nome de periélio. Se houvesse apenas um planeta a orbitar o Sol, o periélio da sua órbita manter-se-ia no mesmo lugar. No entanto, todos os planetas do nosso Sistema Solar se afetam uns aos outros, portanto, o periélio faz uma precessão (rotação) em redor do Sol. Tal como todos os outros planetas, o periélio de Mercúrio faz uma precessão, mas esta não pode ser completamente explicada usando as equações de Newton. Isto foi reconhecido como um problema em 1859. Mais de 50 anos depois, a teoria geral da relatividade de Einstein descrevia a gravidade como um efeito da curvatura do espaço-tempo e os cálculos baseados nesta teoria explicam a precessão da órbita de Mercúrio, bem como outras observações não relacionadas com as leis de Newton.
As leis de Newton atualmente
As leis de Newton formam a base do que é designado por “mecânica clássica” um conjunto de equações usado para calcular os efeitos das forças e do movimento. Embora estas leis tenham sido substituídas por equações baseadas nas teorias da relatividade de Einstein, os dois conjuntos de leis concordam, desde que qualquer movimento envolvido seja pequeno comparado com a velocidade da luz. Portanto, para os cálculos relacionados com o desenho de aviões ou carros, ou para se descobrir a solidez que os componentes de um arranha-céus têm de ter, as equações da mecânica clássica são ao mesmo tempo bastante precisas e muito mais simples de usar. A mecânica newtoniana, embora não seja estritamente correta, ainda é amplamente usada.
A classificação do mundo natural numa hierarquia clara de grupos de organismos descritos e designados é a pedra fundamental das ciências biológicas. Esses agrupamentos ajudam a entender a diversidade da vida, permitindo aos cientistas a comparação e a identificação de milhões de organismos individuais. A taxonomia moderna — ciência da identificação, denominação e classificação dos organismos — começou com o naturalista sueco Carl Lineu. Este foi o primeiro a compor uma hierarquia sistemática baseada no seu extenso e pormenorizado estudo das características físicas de plantas e animais. Foi também pioneiro na forma, ainda atualmente em uso, de nomeação dos diferentes organismos.
A mais influente das classificações iniciais foi a do filósofo grego Aristóteles. Na sua História dos Animais, Aristóteles agrupou animais semelhantes em gêneros alargados, distinguindo as espécies em cada grupo e classificando-as segundo uma scala naturae, ou “escada da natureza”, com 11 graus de complexidade crescente, em forma e propósito, desde as plantas na base aos seres humanos no topo.
Ao longo dos séculos foi surgindo uma multiplicidade caótica de nomes e descrições de plantas e animais. Até ao século XVII, os cientistas esforçavam-se para estabelecer um sistema mais coerente e consistente. Em 1686, o botânico inglês John Ray introduziu o conceito das espécies biológicas, definidas pela capacidade das plantas ou dos animais de se reproduzirem entre si, sendo esta ainda a definição mais geralmente aceite.
Em 1735, Lineu formulou uma classificação num opúsculo de 12 páginas, que, por volta de 1778, acabaria por se transformar num multivolume com 12 edições, desenvolvendo ideia de gênero numa hierarquia dos agrupamentos baseados em características físicas partilhadas. No topo existiam três reinos: animal, vegetal e mineral. Os reinos eram divididos em filos e depois em classes, ordens, famílias, gêneros e espécies. Lineu estabilizou também o nome das espécies, usando uma designação dupla em latim, com um dos nome para o gênero e o outro para a espécie dentro desse gênero, como Homo sapiens — Lineu foi o primeiro a definir os seres humanos como animais.
Ordem divina
Para Lineu, a classificação revelava que “a natureza não avança aos saltos”, mas segundo a ordem divina. O seu trabalho era fruto de expedições pela Suécia e pelo resto da Europa em busca de novas espécies. O seu sistema de classificação preparou o caminho para Charles Darwin, que viu a importância evolutiva dessa “hierarquia natural”, com todas as espécies num gênero ou família relacionadas por descendência e divergência com um antepassado comum. Um século depois de Darwin, o biólogo alemão Willi Hennig desenvolveu uma nova abordagem de classificação, chamada cladística. Para refletir os seus elos evolutivos, esta agrupava os organismos em “clades”, com uma ou mais características únicas partilhadas, herdadas do seu último antepassado comum e não existentes em antepassados mais distantes. O processo de classificação por clades prossegue até hoje, sendo as espécies recolocadas em novas posições à medida que novas provas são encontradas.
Professor de medicina na Universidade de Glasgow, e mais tarde em Edimburgo, Joseph Black também dava palestras sobre química. Embora fosse um cientista de investigação notável, raramente publicava os seus resultados formalmente, anunciando-os nas suas palestras; os seus alunos estavam na vanguarda da nova ciência.
Alguns dos alunos de Black eram filhos de destiladores de whisky escoceses, preocupados com os custos da gestão dos seus negócios. Perguntavam-lhe por que razão era tão dispendioso destilar o whisky, já que tudo o que faziam era ferver o líquido e condensar o vapor.
Uma ideia colocada a ferver
Em 1761, Black investigou os efeitos do calor nos líquidos e descobriu que, se uma panela de água for aquecida num fogão, a temperatura aumenta continuamente até chegar aos 100° C. Então a água começa a ferver, mas a temperatura não muda, embora o calor ainda esteja a entrar na água. Black percebeu que o calor é necessário para transformar o líquido em vapor ou, em termos atuais, para dar às moléculas energia suficiente para escapar dos elos que as mantêm presas no líquido. Este calor não altera a temperatura e parece desaparecer — portanto, Black deu-lhe o nome de calor latente (do latim para “escondido”). Mais precisamente, é o calor latente da evaporação da água. Esta descoberta foi o início da ciência da termodinâmica — estudo do calor, a sua relação com a energia e a conversão da energia do calor em movimento para realizar trabalhos mecânicos
A água possui um calor latente invulgarmente alto, significando que a água líquida ferve durante muito tempo antes de se transformar em gás. É por isso que o vapor é um modo tão eficiente de cozer legumes e a razão pela qual possui um incrível poder escaldante, sendo usado em sistemas de aquecimento.
Derreter o gelo
Tal como o calor é necessário para transformar a água em vapor, também é necessário para transformar o gelo em água. O calor latente do gelo a derreter significa que o gelo refresca as bebidas. Derreter o gelo exige calor, e este calor é extraído da bebida na qual flutua, arrefecendo assim o líquido.
Black explicou tudo isto aos destiladores, embora não os tenha conseguido ajudar a poupar dinheiro. Também o explicou a um colega chamado James Watt, que estava a tentar descobrir por que razão os motores a vapor eram tão ineficientes. Posteriormente, Watt teve a ideia do condensador isolado, que condensava o vapor sem arrefecer o pistão e o cilindro. Isto tornou o motor a vapor uma máquina muito mais eficaz e fez de Watt um homem rico.
Em 1754, Joseph Black tinha descrito aquilo que hoje designamos por dióxido de carbono (CO) como “ar fixo”. Ele não foi apenas o primeiro cientista a identificar um gás, também demonstrou que havia diversos tipos de “ar”, ou gases.
Doze anos depois, um cientista inglês chamado Henry Cavendish relatou à Royal Society, em Londres, que os metais zinco, ferro e estanho “geram ar inflamável ao ser colocados numa solução ácida”. Ele chamou ao seu novo gás “ar inflamável” devido à sua pronta combustão, ao contrário do ar comum, ou “ar fixo”. Hoje, damos-lhe o nome de hidrogênio (H.). Este foi o segundo gás a ser identificado e o primeiro elemento gasoso a ser isolado. Cavendish propôs-se a calcular o peso de uma amostra de gás, medindo a perda de peso da mistura de zinco e ácido durante a reação e recolhendo todo o gás produzido numa bexiga e pesando-o primeiro cheia de gás, e depois vazia. Sabendo o volume, ele podia calcular a sua densidade. Descobriu que o ar inflamável era 11 vezes menos denso do que o ar comum.
A descoberta de um gás de baixa densidade conduziu aos balões aeronáuticos, mais leves do que o ar. Em França, em 1783, o inventor Jacques Charles lançou o primeiro balão de hidrogênio, menos de duas semanas depois de os irmãos Montgolfier terem lançado o seu primeiro balão de ar quente tripulado.
Descobertas explosivas
Cavendish também misturou amostras medidas do seu gás com volumes conhecidos de ar, em garrafas, e incendiou as misturas tirando as tampas e introduzindo pedaços de papel acesos. Descobriu que com nove partes de ar e uma parte de hidrogênio ocorria uma chama lenta e calma; aumentando as proporções de hidrogênio, a mistura explodia com uma ferocidade cada vez maior; mas o hidrogênio 100% puro não se incendiava.
O pensamento de Cavendish ainda era limitado pela noção obsoleta da alquimia de que um elemento semelhante ao fogo (“o flogisto”) era libertado durante a combustão. No entanto, foi preciso nas suas experiências e nos seus relatos: “Parece que 423 medidas de ar inflamável são quase suficientes para flogistar 1000 partes de ar comum; e o ar restante depois da explosão é pouco mais de quatro quintos do ar comum utilizado. Podemos concluir que (...) quase todo o ar inflamável e cerca de um quinto do ar comum (...) são condensados no orvalho que cobre o vidro.”
Definir a água
Embora Cavendish tenha usado o termo «flogistar», conseguiu demonstrar que o único material novo produzido era água e deduziu que dois volumes do ar inflamável se tinham combinado com um volume de oxigénio. Ou seja, mostrou que a composição da água é H2O. Embora tenha relatado as suas descobertas a Joseph Priestley, Cavendish era tão hesitante em relação a publicar os resultados que o seu amigo, o engenheiro escocês James Watt, foi o primeiro a anunciar a fórmula, em 1783.
Entre as suas muitas contribuições para a ciência, Cavendish calculou a composição do ar como sendo “uma parte ar desflogistado [oxigênio), misturada com quatro partes de ar flogistado [nitrogênio] — os dois gases que, sabemos hoje, compõem 99% da atmosfera terrestre.
Em 1700 sabia-se que os ventos de superfície predominantes, ou “ventos alísios”, sopram numa direção norte-leste, entre a latitude de 30° N e o equador a 0°. Galileu sugerira que as rotações da Terra em direção a leste faziam com que esta se “adiantasse” em relação ao ar dos trópicos e, portanto, os ventos vinham de leste. Mais tarde, o astrônomo Edmond Halley percebeu que o calor do Sol, no seu máximo por cima do equador, faz com que o ar suba e esse ar ascendente é substituído por ventos que sopram de latitudes mais elevadas.
Em 1735, o físico inglês George Hadley publicou a sua teoria dos ventos alísios. Concordava com o facto de o Sol fazer o ar subir, mas a subida do ar perto do equador só faria com que os ventos soprassem em direção ao mesmo vindos de norte e de sul, e não de leste. Como o ar gira juntamente com a Terra, o ar que se desloca de 30° N em direção ao equador teria o seu próprio momento cinético em direção a leste. No entanto, a superfície da Terra move-se mais depressa no equador do que em latitudes mais elevadas, portanto, a velocidade de superfície torna-se maior do que a velocidade do ar e os ventos parecem vir de uma direção cada vez mais oriental, à medida que se aproximam do equador.
A ideia de Hadley representava uma maior compreensão dos padrões do vento, mas continha erros. A chave para a mudança da direção do vento é o facto de o momento cinético do vento (a sua rotação) ser conservado, e não o seu momento linear.
A quente corrente do Golfo, que flui em direção a leste atravessando o Atlântico Norte, é um dos maiores movimentos de água da Terra. É conduzida para leste pelos ventos de oeste predominantes e faz parte de um grande círculo, que depois volta a cruzar o Atlântico, nas Caraíbas. A corrente é conhecida desde 1513, quando o explorador espanhol Juan Ponce de Léon viu o seu navio mover-se para norte, junto à costa da Flórida, apesar de os ventos soprarem para sul. Mas só foi adequadamente mapeada em 1770 pelo estadista e cientista americano Benjamin Franklin.
Vantagem local
Como membro representante das colónias britânico-americanas, Franklin ficou fascinado com o motivo que levava os navios de correio britânicos a demorar mais duas semanas do que os navios de carga americanos para atravessar o Atlântico. Já famoso pela sua invenção do para-raios, ele perguntou ao capitão baleeiro de Nantucket, Timothy Folger, qual seria a razão. Folger explicou que os capitães americanos conheciam a corrente oeste-leste. Conseguiam avistá-la pelas migrações das baleias, pelas diferenças de temperatura e de cor e pela velocidade das bolhas de superfície e, portanto, cruzavam a corrente para a evitar, enquanto os navios de correio britânicos, que seguiam para oeste, lutavam contra ela durante todo o percurso.
Com a ajuda de Folger, Franklin mapeou o curso da corrente, seguindo o seu fluxo na costa leste, desde o golfo do México até à Terra Nova e depois atravessando o Atlântico para leste. Foi também ele quem batizou a corrente do Golfo.
No seguimento da descoberta pioneira de Joseph Black do “ar fixo”, ou dióxido de carbono (CO), um pároco inglês chamado Joseph Priestley interessou-se pela investigação de vários outros “ares”, ou gases, e identificou vários outros — mais famosamente o oxigénio.
Como pastor de Leeds, Priestley visitou a cervejaria que ficava perto da sua casa. Já se sabia que a camada de ar por cima das cubas de fermentação era ar fixo. Priestley descobriu que, quando baixava uma vela sobre a cuba, a vela apagava-se a cerca de 30 centímetros acima da espuma, onde a chama entrava na camada de ar fixo que ali flutuava. O fumo deslocava-se ao longo do topo do ar fixo, tornando-o visível e revelando a linha divisória entre os dois tipos de ar. Ele também notou que o ar fixo fluía por cima dos lados da cuba e descia para o chão, porque era mais denso do que o ar “comum”. Quando Priestley experimentou dissolver o ar fixo em água fria, agitando-o de um recipiente para outro, descobriu que isso dava origem a uma bebida refrescante e efervescente, o que conduziu posteriormente à loucura pela água com gás.
Libertar oxigênio
No dia 1º de agosto de 1774, Priestley isolou pela primeira vez o seu novo gás — atualmente conhecido como oxigénio (O) — a partir de óxido de mercúrio num frasco de vidro selado, aquecendo-o com a luz do Sol e uma lupa. Mais tarde, descobriu que este novo gás mantinha os ratos vivos por muito mais tempo do que o ar comum, era agradável de respirar e mais estimulante do que o ar comum, além de suportar a combustão de várias substâncias que ele queimou com combustível. Mostrou também que as plantas produzem esse gás sob a luz do Sol — a primeira pista do processo ao qual chamamos fotossíntese. Na altura, no entanto, pensava-se que a combustão envolvia a libertação de um material misterioso no combustível, chamado flogisto. Dado que este novo gás não ardia e, portanto, não podia conter o flogisto, Priestley deu-lhe o nome de “ar desflogistado”.
Priestley isolou diversos outros gases por esta altura, mas depois partiu em viagem pela Europa e só publicou os seus resultados no final do ano seguinte. O químico sueco Carl Scheele tinha preparado o oxigênio dois anos antes de Priestley, mas só publicou os seus resultados em 1777. Entretanto, em Paris, Antoine Lavoisier ouviu falar do trabalho de Scheele, assistiu a uma demonstração dada por Priestley e prontamente produziu o seu próprio oxigênio. As suas experiências com a combustão e a respiração provaram que a combustão é um processo de combinação com o oxigênio, e não uma libertação de flogisto. Na respiração, o oxigénio absorvido do ar reage com a glicose e liberta dióxido de carbono, água e energia. Ele deu o nome de “oxygène” ao novo gás, ou “produtor de ácidos”, quando descobriu que este reage com alguns materiais — como o enxofre, o fósforo e o nitrogênio — para produzir ácidos.
Isto levou muitos cientistas a abandonar o flogisto, mas Priestley, apesar de ser um grande experimentador, manteve-se agarrado à antiga teoria para explicar as suas descobertas e pouco mais contribuiu para a química.
O químico francês Antoine Lavoisier concedeu um novo nível de precisão à ciência dando o nome do oxigênio e quantificando seu papel na combustão. Ao medir a massa nas reações químicas que ocorrem durante a combustão, ele demonstrou a conservação da massa — a massa total de todas as substâncias participantes é igual à massa total de todos os seus produtos.
A sua descoberta derruba a teoria de um elemento de fogo chamado flogisto. Ao longo do século passado, os cientistas acharam que as substâncias inflamáveis continham flogisto e os liberavam quando queimavam. A teoria explicava por que substâncias como madeira perdiam massa ao queimar, mas não explicava por que outras, como magnésio, ganhavam massa na queima. As medições meticulosas de Lavoisier mostraram que o oxigênio era a chave, em um processo durante o qual nada era acrescentado ou perdido, mas tudo transformado.
Na década de 1770, o cientista holandês Jan Ingenhousz dispôs-se a descobrir por que razão as plantas ganham peso, como observado anteriormente por outros cientistas. Tendo ido para Inglaterra, Ingenhousz realizou as suas pesquisas em Bowood House — onde Joseph Priestley descobriu o oxigénio em 1774 — e estava prestes a descobrir a chave da fotossíntese: luz solar e oxigênio.
Ervas borbulhantes
Ingenhousz tinha lido que as plantas produzem bolhas de gás na água, mas a origem e a composição precisa das bolhas eram desconhecidas. Numa série de experiências, reparou que as folhas iluminadas pelo sol emitiam mais bolhas do que as folhas no escuro. Recolheu o gás produzido apenas ao sol e descobriu que este reacendeu uma lasca incandescente — era oxigênio. O gás emitido pelas plantas no escuro apagava a chama — era dióxido de carbono.
Ingenhousz sabia que as plantas ganham peso com poucas alterações no peso da terra onde crescem. Em 1779, raciocinou corretamente que a troca de gases com a atmosfera, sobretudo a absorção do dióxido de carbono, era, pelo menos parcialmente, a fonte do aumento de matéria orgânica da planta — ou seja, a sua massa extra vinha do ar.
Sabemos hoje que as plantas fabricam o seu alimento através da fotossíntese — convertem a energia da luz do Sol em glicose através da reação da água com o dióxido de carbono que absorvem e libertam oxigênio. Assim, as plantas fornecem o oxigênio, vital para a vida, e como alimento para outros a energia. Num processo inverso, chamado respiração, as plantas usam a glicose como alimento e libertam dióxido de carbono, dia e noite.
Em 1781, o cientista alemão William Herschel identificou o primeiro novo planeta a ser visto desde os tempos antigos, embora o próprio Herschel inicialmente achasse que se tratava de um cometa. A sua descoberta levaria também à descoberta de outro planeta, como resultado de previsões baseadas nas leis de Newton.
No final do século XVIII, os instrumentos astronômicos tinham avançado bastante — especialmente devido à construção de telescópios refletores que usavam espelhos, em vez de lentes, para captar a luz, evitando muitos dos problemas associados com as lentes na altura. Esta foi a era das primeiras grandes investigações astronômicas, quando os astrônomos exploravam o céu, identificando uma imensa variedade de objetos “não estelares” — grupos de estrelas e nebulosas, que pareciam nuvens amorfas de gás ou densas bolas de luz.
Auxiliado pela sua irmã Caroline, Herschel inspecionou sistematicamente o céu, registando curiosidades como a quantidade inesperada de estrelas duplas e triplas. Até tentou compilar um mapa da Via Láctea baseado no número de estrelas que contou em diferentes direções.
A 13 de março de 1781, Herschel estava a observar a constelação de Gêmeos quando notou um disco verde desmaiado, que suspeitou ser um cometa. Voltou a observá-lo algumas noites depois e descobriu que se movera, confirmando que não se tratava de uma estrela. Ao olhar para a descoberta de Herschel, Nevil Maskelyne percebeu que o novo objeto se movia com demasiada lentidão para ser um cometa e que poderia, de facto, ser um planeta numa órbita distante. O sueco-russo Anders Johan Lexell e o alemão Johann Elert Bode calcularam separadamente a órbita da descoberta de Herschel, confirmando que era um planeta, situado mais ou menos a duas vezes a distância de Saturno. Bode sugeriu dar-lhe o nome do pai mitológico de Saturno, o antigo deus grego do céu, Urano.
Órbita irregular
Em 1821, o astrônomo francês Alexis Bouvard publicou uma tabela detalhada descrevendo a órbita de Urano, tal como esta deveria ser, segundo as leis de Newton. Contudo, as suas observações do planeta depressa mostraram discrepâncias substanciais em relação às previsões da sua tabela. As irregularidades da sua órbita sugeriam a atração gravitacional de um oitavo planeta, mais distante. Em 1845, dois astrônomos — o francês Urbain Le Verrier e o britânico John Couch Adams — usaram independentemente os dados de Bouvard para calcular em que lugar do céu procurar o oitavo planeta. Os telescópios foram apontados para a área prevista e, a 23 de setembro de 1846, Netuno foi descoberto a apenas um grau de diferença do local onde Le Verrier tinha previsto que estaria. A sua existência confirmou a teoria de Bouvard e forneceu uma prova poderosa da universalidade das leis de Newton.
Numa carta de 1783 a Henry Cavendish, na Royal Society, o polímata britânico John Michell expôs as suas ideias sobre o efeito da gravidade. A carta foi redescoberta na década de 1970 e percebeu-se que continha uma descrição notável dos buracos negros. A lei da gravidade de Newton afirma que a atração gravitacional de um objeto aumenta com a sua massa. Michell considerou o que poderia acontecer à luz se esta for afetada pela gravidade. Escreveu: “Se o semi-diâmetro de uma esfera da mesma densidade que o Sol excedesse o Sol numa proporção de 500 para 1, um corpo em queda de uma altura infinita na sua direção adquiriria, na sua superfície, uma velocidade maior do que a da luz e, consequentemente, supondo-se que a luz é atraída pela mesma força (...) toda a luz emitida por esse corpo seria forçada a regressar ao mesmo.” Em 1796, o matemático francês Pierre-Simon Laplace apresentou uma ideia semelhante, no seu Exposição do Sistema do Mundo.
No entanto, a ideia de um buraco negro permaneceria adormecida até ao trabalho de 1915 de Albert Einstein sobre a relatividade geral, que descrevia a gravidade como um resultado da curvatura do espaço-tempo. Einstein mostrou que a matéria pode envolver o espaço-tempo em volta de si mesmo, criando um buraco negro dentro de uma região designada por raio de Schwarzschild, ou horizonte de eventos. A matéria — e também a luz — pode entrar nele, mas não pode sair. Nesta imagem, a velocidade da luz está inalterada. Em vez disso, é o espaço que a luz percorre que se modifica, mas a intuição de Michell tinha agora um mecanismo pelo qual a velocidade da luz pareceria, pelo menos, diminuir.
Da teoria à realidade
O próprio Einstein duvidava da existência dos buracos negros. Só na década de 1960 é que eles começaram a ganhar aceitação geral, conforme iam aumentando as provas indiretas da sua existência. Hoje em dia, a maioria dos cosmólogos acha que os buracos negros se formam quando estrelas enormes colapsam sob a sua própria gravidade, crescendo à medida que vão assimilando cada vez mais matéria, e que um buraco negro gigante espreita no centro de cada galáxia. Os buracos negros sugam a matéria, mas nada lhes consegue escapar, exceto uma fraca radiação infravermelha, conhecida como radiação de Hawking, em honra de Stephen Hawking, o físico que a propôs. Um astronauta que caísse num buraco negro não sentiria nem notaria nada de estranho enquanto se aproximasse do horizonte de eventos, mas se deixasse cair um relógio na direção do buraco negro, este pareceria desacelerar e aproximar-se-ia do horizonte de eventos sem nunca o chegar a alcançar, acabando por desaparecer gradualmente de vista.
Contudo, ainda existem problemas com a teoria. Em 2012, o físico Joseph Polchinski sugeriu que efeitos na escala quântica criariam uma “barreira” no horizonte de eventos, que queimaria completamente qualquer astronauta que ali caísse. Em 2014, Hawking mudou de ideia e concluiu que os buracos negros afinal não podem existir.
Durante séculos, os filósofos maravilharam-se com o poder aterrorizador dos raios e também com a forma como se podiam retirar faíscas de sólidos, como o âmbar quando esfregado com um pano de seda. A palavra grega para âmbar era “eléctron” e o fenômeno das faíscas tornou-se conhecido como eletricidade estática.
Numa experiência em 1754, Benjamin Franklin soltou um papagaio numa tempestade e mostrou que estes dois fenômenos estavam relacionados. Quando viu faíscas soltarem-se de uma chave de latão atada ao fio do papagaio, provou que as nuvens estavam eletrificadas e que os raios são uma forma de eletricidade. O trabalho de Franklin inspirou Joseph Priestley a publicar o seu trabalho abrangente A História e o Estado Atual da Eletricidade em 1767. Mas foi o italiano Luigi Galvani, um professor de anatomia da Universidade de Bolonha, que, em 1780, deu os primeiros grandes passos na com- preensão da eletricidade, quando notou um espasmo na perna de uma rã.
Galvani estava a investigar a teoria de que os animais eram movidos por “eletricidade animal”, e dissecava rãs em busca de provas. Observou que se existisse por perto uma máquina a produzir eletricidade estática, a perna de uma rã em cima da bancada tinha de repente um espasmo, ainda que o animal já estivesse morto há bastante tempo. O mesmo acontecia quando se pendurava a perna de uma rã num gancho de latão que tocava numa cerca de ferro. Galvani acreditava que esta prova sustentava a sua crença de que a eletricidade vinha da própria rã.
A descoberta de Volta
Alessandro Volta, um colega mais jovem de Galvani e professor de filosofia natural, sentia-se intrigado com as observações de Galvani e inicialmente ficou convencido pela sua teoria.
O próprio Volta tinha uma história notável de experiências com eletricidade. Em 1775 tinha inventado o “eletróforo”, um dispositivo que fornecia uma fonte instantânea de eletricidade a uma experiência (o equivalente moderno do condensador). Era composto por um disco de resina esfregado com pelo de gato para ganhar uma carga de eletricidade estática. Sempre que um disco metálico era colocado por cima da resina, a carga era transferida, eletrificando o disco metálico.
Volta declarou que a eletricidade animal de Galvani estava “entre as verdades demonstradas”, mas depressa começou a ter dúvidas. Chegou à conclusão de que a eletricidade que causava o espasmo na perna da rã pendurada no gancho vinha do contato com os dois metais diferentes (latão e ferro). Publicou as suas ideias em 1792 e 1793 e lançou-se na investigação do fenômeno.
Volta descobriu que uma única junção de dois metais diferentes não produzia muita eletricidade, embora houvesse a suficiente para que ele tivesse uma sensação curiosa na língua. Então, teve a brilhante ideia de multiplicar o efeito fazendo uma série de junções semelhantes ligadas por água salgada. Pegou num disco de cobre, colocou-lhe um disco de zinco em cima e acrescentou um pedaço de cartão encharcado em água salgada, depois outro disco de cobre, de zinco, cartão molhado em água salgada, cobre, zinco, e assim por diante, até formar uma coluna, ou empilhamento. Por outras palavras, criou uma “pilha”. O objetivo do cartão molhado e salgado era transportar a eletricidade sem deixar que os metais entrassem em contato uns com os outros.
O resultado foi literalmente eletrizante. A pilha rudimentar de Volta produziu provavelmente apenas alguns volts (unidade elétrica assim designada em sua honra), mas foi o suficiente para produzir uma pequena faísca, quando as duas pontas foram ligadas por um pedaço de fio, e também para lhe dar um ligeiro choque elétrico.
A notícia espalha-se
Volta fez sua descoberta em 1799 e a notícia espalhou-se rapidamente. Ele demonstrou o efeito a Napoleão em 1801, mas, ainda mais importante, em março de 1800, relatara os resultados numa longa carta a Sir Joseph Banks, presidente da Royal Society, na Grã-Bretanha.
A carta foi intitulada “Sobre a eletricidade estimulada pelo mero contato de substâncias condutoras de tipos diferentes” e nela Volta descreve o seu aparelho: “Sobre uma mesa ou qualquer suporte coloco horizontalmente uma das peças metálicas, por exemplo, uma de prata, e por cima da primeira ajusto uma de zinco; sobre a segunda coloco um dos discos humedecidos, depois outra placa de prata, seguida imediatamente por outra de zinco (...) Continuo até formar (...) uma coluna tão alta quanto possível sem que caia.”
Sem um sinalizador ou um semi-condutor para detectar a voltagem, Volta usou o seu corpo como detector e não se parecia importar de apanhar choques elétricos: “De uma coluna formada por vinte pares de peças (não mais) recebo choques que afetam o meu dedo com uma dor considerável.” Ele descreve então um aparelho mais elaborado, composto por uma série de copos com água salgada organizados numa linha reta ou em círculo. Cada par é ligado por um pedaço de metal que toca no líquido de cada copo. Uma das pontas desse metal é de prata e a outra é de zinco, e esses metais podem ser soldados ou ligados por um fio de qualquer metal, desde que apenas a prata toque no liquido de um copo e apenas o zinco no copo seguinte. Volta explica que este modelo, de certo modo, é mais conveniente do que a pilha sólida, apesar de ser um modelo mais desajeitado.
Volta descreve detalhadamente as várias sensações desagradáveis resultantes de colocar a mão na taça, numa das pontas da corrente, e tocar com um fio ligado à outra ponta na testa, nas pálpebras ou na ponta do nariz: “Por alguns instantes não sinto nada; porém, depois, na parte ligada à ponta do fio, inicia-se uma outra sensação, uma dor aguda (sem choque) limitada precisamente ao ponto de contato, um tremor não apenas contínuo, mas que vai aumentando, a tal ponto que, em pouco tempo, se torna insuportável e só acaba quando o círculo é interrompido.”
Mania das pilhas
O facto de a sua carta ter chegado a Banks é surpreendente, já que decorriam as Guerras Napoleônicas, mas Banks espalhou imediatamente a palavra a todos os que quisessem saber. Em poucas semanas, pessoas por toda a Grã-Bretanha faziam pilhas elétricas e investigavam as propriedades da eletricidade. Antes de 1800, os cientistas eram forçados a trabalhar com a eletricidade estática, algo difícil e pouco compensador. A invenção de Volta permitiu-lhes descobrir como um leque de materiais líquidos, sólidos e gases — reagiam a uma corrente elétrica.
Entre os primeiros a trabalhar com a descoberta de Volta estavam William Nicholson, Anthony Carlisle e William Cruickshank, que, em maio de 1800, fizeram a sua própria “pilha de 36 meias-coroas com os pedaços correspondentes de zinco e cartão” e passaram a corrente através de fios de platina até um tubo cheio de água. As bolhas de gás que surgiram foram identificadas como duas partes de hidrogênio e uma de oxigênio. Henry Cavendish tinha mostrado que a fórmula da água é H2O, mas esta foi a primeira vez que alguém dividiu a água nos seus elementos componentes.
A pilha de Volta foi o antepassado de todas as baterias modernas, usadas em tudo, desde aparelhos de audição a camiões e aviões. Sem baterias, muitos dos nossos dispositivos atuais não funcionariam.
Reclassificar os metais
Além de dar o sinal de partida para o estudo da eletricidade e, desse modo, não só criar um novo ramo da física como fazer avançar rapidamente o desenvolvimento da tecnologia moderna, a pilha de Volta levou a uma nova classificação química dos metais, já que ele experimentara uma variedade de pares de metais na sua pilha e descobriu que alguns funcionavam muito melhor do que outros. Prata e zinco formavam uma combinação excelente, assim como cobre e estanho, mas se ele tentasse prata com prata ou estanho com estanho, não extraía qualquer eletricidade; os metais tinham de ser diferentes. Volta mostrou que os metais podiam ser organizados numa sequência de modo que cada um se tornasse positivo quando em contato com o que estava imediatamente abaixo. Desde então, esta série eletroquímica tem tido um valor inestimável para os químicos.
Quem estava certo?
Um aspeto irônico desta história é que Volta começou a investigar o contato de metais diferentes apenas porque duvidou da hipótese de Galvani. No entanto, Galvani não estava completamente errado — os nossos nervos funcionam, de facto, através do envio de impulsos elétricos pelo corpo e o próprio Volta não desenvolveu a sua teoria de forma inteiramente correta. Ele acreditava que a eletricidade se originava apenas pelo contato de dois metais diferentes, mas Humphry Davy mostrou mais tarde que algo não pode vir do nada. Quando a eletricidade está a ser gerada, alguma outra coisa tem de estar a ser consumida. Davy sugeriu que se estaria a desenrolar uma reação química, e isto conduziu-o a importantes descobertas adicionais sobre a eletricidade.
Durante milênios, as sociedades humanas têm pensado sobre a idade da Terra. Antes do advento da ciência moderna, as estimativas baseavam-se em crenças, em vez de provas. Só no século XVII é que um entendimento crescente da geologia terrestre forneceu os meios para se determinar a idade do nosso planeta.
Estimativas bíblicas
No mundo judaico-cristão, as ideias sobre a idade da Terra baseavam-se nas descrições do Antigo Testamento. No entanto, como estes textos apresentavam apenas um breve resumo da história da Criação, eram sujeitos a bastantes interpretações, principalmente relacionadas com as complexas cronologias genealógicas que se seguiram ao surgimento de Adão e Eva.
O mais conhecido desses cálculos bíblicos é o de James Ussher, o primaz protestante da Irlanda. Em 1654, Ussher indicou como data da criação da Terra a véspera do domingo dia 23 de outubro de 4004 a. C. Esta data tornou-se literalmente sagrada na cultura cristã, quando foi impressa em muitas Bíblias como parte da cronologia do Antigo Testamento.
Uma abordagem científica
Durante o século X d. C., estudiosos da Pérsia começaram a considerar a questão da idade da Terra de modo mais empírico. Al-Biruni, um pioneiro na ciência experimental, argumentou que se os fósseis marinhos eram encontrados em terra seca, então essa terra só podia ter estado submersa pelo mar. Ele concluiu que a Terra deve ter evoluído durante longos períodos de tempo. Outro estudioso persa, Avicena, sugeriu que as camadas rochosas tinham sido depositadas umas sobre as outras.
Em 1687, Isaac Newton sugeriu uma abordagem científica da questão. Afirmou que um corpo volumoso como a Terra demoraria cerca de 50 mil anos a arrefecer se fosse composto por ferro derretido. Newton obteve esse cálculo extrapolando a partir do tempo de arrefecimento de um “globo de ferro incandescente com 2,5 centímetros de diâmetro exposto ao ar”. Newton tinha aberto a porta para o desafio científico aos entendimentos anteriores sobre a formação da Terra.
Seguindo o exemplo de Newton, o naturalista francês Georges-Louis Leclerc, conde de Buffon, experimentou com uma grande bola de ferro incandescente e mostrou que, se a Terra fosse feita de ferro derretido, ela demoraria 74 832 anos a arrefecer. Em privado, Buffon achava que a Terra devia ser muito mais antiga, já que seriam necessários tempos infinitos para que as montanhas de giz se formassem a partir dos restos de fósseis marinhos, mas não quis publicar essa ideia sem provas.
Segredos das rochas
Na Escócia, uma abordagem bem diferente ao problema da idade da Terra estava a ser assumida por James Hutton, um dos filósofos naturais proeminentes do Iluminismo escocês. Hutton foi um pioneiro no trabalho geológico de campo e usou provas concretas para demonstrar os seus argumentos à Royal Society de Edimburgo, em 1785.
Ele sentia-se impressionado pela aparente continuidade dos processos pelos quais a paisagem era desnudada e os seus resíduos depositados no mar. E, no entanto, todos estes processos não conduziam à perda de superfície terrestre, como seria de esperar. Talvez pensando no famoso motor a vapor construído pelo seu amigo James Watt, Hutton via a Terra como “uma máquina de matéria a mover-se com todas as suas peças”, sendo um novo mundo constantemente remodelado e reciclado a partir das ruínas do antigo.
Hutton elaborou a sua teoria da Terra-máquina antes de encontrar provas que a sustentassem, mas, em 1787, descobriu as “inconformidades” que procurava — rupturas na continuidade das rochas sedimentárias. Viu que grande parte da Terra tinha sido, em tempos, um leito marítimo, onde foram depositadas e comprimidas camadas de sedimentos. Em muitos locais, essas camadas tinham sido empurradas para cima, ficando acima do nível do mar e frequentemente distorcidas, e não horizontais. Descobriu repetidamente que os materiais rochosos da faixa superior truncada dos estratos mais antigos ficavam incorporados na base das rochas mais jovens acima.
Tais inconformidades mostravam que tinham existido muitos episódios de repetição na história da Terra da sequência de erosão, transporte e depósito de resíduos rochosos e de deslocamento do estrato rochoso por atividades vulcânicas. Hoje em dia, isto tem o nome de ciclo geológico. A partir destas evidências, Hutton declarou que todos os continentes são formados por materiais derivados de continentes anteriores, através dos mesmos processos, e que esses processos ainda se desenrolam atualmente. Escreveu então que “o resultado desta averiguação é não encontrarmos nenhum vestígio do início, nem perspectiva do fim”.
A popularização das ideias de Hutton sobre o “tempo profundo” deveu-se principalmente a John Playfair, um cientista escocês que publicou as observações de Hutton num livro ilustrado, e ao geólogo britânico Charles Lyell, que transformou as ideias de Hutton num sistema chamado uniformitarianismo. Este sustentava que as leis da natureza foram sempre as mesmas e, portanto, as pistas do passado encontram-se no presente. No entanto, embora as ideias de Hutton sobre a antiguidade do planeta soassem verdadeiras para os geólogos, ainda não havia nenhum método satisfatório para se determinar a idade da Terra.
Uma abordagem experimental
Desde o final do século XVIII que os cientistas reconhecem que a crosta terrestre contém camadas sucessivas de estratos sedimentares. O mapeamento geológico desses estratos revelou que são cumulativamente bastante espessos e que muitos deles contêm restos fósseis de organismos que viveram nos seus respetivos ambientes depositários. Por volta da década de 1850, a coluna geológica de estratos (também conhecida como coluna estratigráfica) tinha sido mais ou menos dividida em cerca de oito sistemas identificados de estratos e fósseis, cada um representando um período geológico.
Os geólogos ficaram impressionados com a espessura geral dos estratos, estimada entre 25 e 112 quilómetros de largura. Tinham observado que os processos de erosão e depósito de materiais rochosos, que compõem esses estratos, eram muito lentos — estimados em alguns centímetros por século. Em 1858, Charles Darwin deu uma contribuição um tanto equivocada para o debate, ao estimar que teriam demorado 300 milhões de anos para que a erosão atravessasse as rochas dos períodos Terciário e Cretáceo do Weald, no Sul de Inglaterra. Em 1860, John Phillips, um geólogo da Universidade de Oxford, estimou que a Terra teria cerca de 96 milhões de anos.
Mas, em 1862, tais cálculos geológicos foram escarnecidos pelo eminente físico escocês William Thomson (Lorde Kelvin) como não sendo científicos. Kelvin era um empírico puro e argumentava que podia usar a física para determinar a idade precisa da Terra, a qual ele achava estar restringida pela idade do Sol. O entendimento das rochas terrestres, os seus pontos de fusão e condutividade, tinha progredido enormemente desde a época de Buffon. Kelvin mediu a temperatura inicial da Terra em 3900º C e aplicou a observação de que a temperatura aumenta à medida que descemos a partir da superfície - em cerca de 0,5° C por cada 15 metros. A partir daqui, Kelvin calculou que demorara 98 milhões de anos para que a Terra arrefecesse até ao seu presente estado, valor que reduziu depois para 40 milhões de anos.
Um “relógio” radioativo
O prestígio de Kelvin era tal que a sua medição foi aceite pela maioria dos cientistas. No entanto, os geólogos sentiam que 40 milhões de anos não era simplesmente tempo suficiente para os graus de processos geológicos, depósitos acumulados e história observados. Mas não tinham qualquer método científico através do qual contradizer Kelvin.
Na década de 1890, a descoberta de elementos radioativos de ocorrência natural em alguns minerais e rochas da Terra forneceu a chave que resolveria o impasse entre Kelvin e os geólogos, já que o ritmo de deterioração dos átomos é um cronômetro fiável. Em 1903, Ernest Rutherford previu as taxas de deterioração radioativa e sugeriu que a radioatividade talvez pudesse ser usada como um “relógio” para datar os minerais e as rochas que os continham.
Em 1905, Rutherford obteve as primeiras datas radiométricas da formação de um mineral em Glastonbury, no Connecticut: 497-500 milhões de anos. Ele alertou que se tratava de datas mínimas. Em 1907, o radioquímico americano Bertram Boltwood aperfeiçoou a técnica de Rutherford para produzir as primeiras datas radiométricas de minerais em rochas com um contexto geológico conheci- do. Estas incluíam uma rocha de 2200 milhões de anos do Sri Lanka, cuja idade aumentou grandemente as estimativas anteriores. Em 1946, o geólogo britânico Arthur Holmes tinha feito algumas medições por isotopos de rochas contendo chumbo da Gronelândia, as quais forneceram uma idade de 3015 milhões de anos. Esta foi uma das primeiras idades mínimas fiáveis para a Terra. Holmes estimou depois a idade do urânio, do qual o chumbo derivava, obtendo uma data de 4460 milhões de anos, mas ele achou que essa devia ser a idade da nuvem gasosa a partir da qual a Terra se teria formado.
Finalmente, em 1953, o geoquímico americano Clair Patterson obteve a primeira idade radiométrica geralmente aceite para a formação da Terra de 4550 milhões de anos. Não há minerais ou rochas conhecidos que datem da origem da Terra, mas muitos meteoritos são considerados como tendo origem no mesmo evento no Sistema Solar. Patterson calculou a data radiométrica dos minerais de chumbo no meteorito de Canyon Diablo em 4510 milhões de anos. Comparando-a com a idade radiométrica média de 4560 milhões de anos das rochas magmáticas de granito e basalto na crosta da Terra, ele concluiu que a semelhança das datas era uma indicação da idade de formação da Terra. Em 1956, fez medições adicionais que aumentaram a sua confiança na precisão da data de 4550 milhões de anos. Este continua a ser o número aceite pelos cientistas atuais.
No século XVII, Isaac Newton tinha sugerido métodos para “pesar a Terra” — ou calcular a sua densidade. Um destes envolvia a medição do ângulo de um prumo de cada lado de uma montanha para descobrir até que ponto a atração gravitacional da montanha o afastaria da vertical. Este desvio poderia ser medido comparando o prumo com uma vertical calculada através de métodos astronômicos. Se a densidade e o volume da montanha pudessem ser apurados, então, por extensão, também a densidade da Terra o poderia ser. No entanto, o próprio Newton descartou a ideia, porque achou que o desvio seria demasiado pequeno para ser medido com os instrumentos da época.
Em 1738, Pierre Bouguer, um astrônomo francês, tentou a experiência nas encostas de Chimborazo, no Equador. Contudo, o clima e a altitude causaram problemas e Bouguer não achou que as suas medições fossem precisas.
Em 1772, Nevil Maskelyne propôs à Royal Society, em Londres, que a experiência fosse conduzida em Inglaterra. A Society concordou e enviou um inspetor para escolher uma montanha adequada. Este escolheu o monte Schiehallion, na Escócia, e Maskelyne passou quase quatro meses a fazer observações de ambos os lados da montanha.
A densidade das rochas
A orientação do prumo, comparada com as estrelas, devia ter sido diferente nas duas estações, mesmo sem quaisquer efeitos gravitacionais, por causa da diferença na latitude. No entanto, mesmo quando isso foi considerado, havia ainda uma diferença de 11,6 segundos de arco (pouco mais de 0,003 graus). Maskelyne usou uma avaliação do formato da montanha e uma medida da densidade das suas rochas para calcular a massa do Schiehallion. Ele assumiu que toda a Terra teria a mesma densidade que o Schiehallion, mas os desvios dos prumos mostraram um valor de menos de metade do que ele esperava. Maskelyne percebeu que a suposição da densidade não estava correta — a densidade da Terra era claramente muito superior à densidade das suas rochas de superfície, provavelmente, pensou ele, porque o planeta tinha um núcleo metálico. O ângulo observado foi usado para calcular que a densidade geral da Terra é, aproximadamente, o dobro da densidade das rochas do Schiehallion.
Este resultado refutou uma teoria da época, defendida pelo astrônomo inglês Edmond Halley, que dizia que a Terra era oca. Também permitiu a extrapolação da massa da Terra a partir do seu volume e da densidade média. O valor de Maskelyne para a densidade geral da Terra era de 4500 kg/m3. Comparado com o valor aceite atualmente, de 5515 kg/m3, ele calculou a densidade da Terra com um erro inferior a 20% e, ao fazê-lo, provou a lei da gravidade de Newton.
Em meados do século XVIII, o botânico sueco Carl Lineu percebeu que certas secções das flores se equiparam aos órgãos reprodutores dos animais. Quarenta anos depois, um botânico alemão chamado Christian Sprengel descobriu como os insetos desempenhavam um papel importante na polinização e, portanto, na fertilização das plantas.
Benefício mútuo
No verão de 1787, Sprengel reparou que os insetos visitavam as flores para se alimentarem do néctar no interior. Começou a pensar se o néctar seria “anunciado” pelas cores e o formato especiais das pétalas e deduziu que os insetos eram incitados a pousar nas flores para que o pólen do estame (parte masculina da planta) de uma flor se colasse ao inseto e fosse transportado até ao pistilo (parte feminina) de outra flor. A recompensa do inseto era beber o néctar rico em energia.
Sprengel descobriu que algumas plantas que dão flor recorrem ao vento para dispersar o seu pólen quando não têm cor e aroma. Observou também que muitas flores contêm tanto elementos masculinos como femininos e, nesse caso, essas secções amadurecem em épocas distintas, evitando a autofertilização.
Publicado em 1793, o trabalho de Sprengel foi bastante subestimado durante a sua vida. No entanto, recebeu finalmente crédito quando Charles Darwin o utilizou como trampolim para os seus próprios estudos sobre a coevolução das plantas e dos insetos específicos que as polinizam, assegurando a fertilização cruzada — para benefício mútuo.
A lei das proporções definidas, publicada pelo químico francês Joseph Proust em 1794, mostra que, independentemente de como os elementos se combinam, as proporções de cada elemento num composto são sempre exatamente as mesmas. Esta teoria foi uma das ideias fundamentais sobre os elementos surgidas neste período para formar a base da química moderna.
Ao fazer a sua descoberta, Proust seguia uma tendência na química francesa, que teve Antoine Lavoisier como pioneiro, o qual defendia a medição cuidadosa de pesos, proporções e percentagens. Proust estudou as percentagens nas quais os metais se combinavam com o oxigênio em óxidos de metal. Concluiu que quando os óxidos de metal se formavam, a proporção de metal e oxigênio era constante. Se o mesmo metal se misturasse com o oxigênio numa proporção diferente, formava um composto diferente, com propriedades distintas.
Nem todos concordaram com Proust, mas, em 1811, Jöns Jakob Berzelius percebeu que a teoria de Proust se encaixava na nova teoria atômica dos elementos de John Dalton, segundo a qual os elementos são compostos pelos seus próprios átomos específicos. Se um composto é sempre feito a partir da mesma combinação de átomos, o argumento de Proust, de que os elementos se combinam em proporções fixas, tem de ser verdade. Isto é aceite como uma das leis fundamentais da química.
Na viragem do século XIX, a opinião científica dividia-se sobre a questão da natureza da luz. Isaac Newton argumentara que um feixe de luz é composto por incontáveis “corpúsculos” (partículas) minúsculos e velozes. Se a luz é composta por estes corpúsculos semelhantes a balas, isso explicaria por que razão viaja em linha reta e lança sombras.
Mas os corpúsculos de Newton não explicavam por que razão a luz se refrata (se curva ao passar por vidro) ou se divide nas cores do arco-íris — também um efeito da refração. Christiaan Huygens argumentara que a luz não contém partículas, mas ondas. Se a luz se desloca em ondas, disse Huygens, estes efeitos são fáceis de explicar. No entanto, o renome de Newton era tal que a maioria dos cientistas apoiou a teoria das partículas.
Então, em 1801, o médico e físico britânico Thomas Young desenvolveu uma experiência simples mas engenhosa, com a qual acreditava resolver a questão. A ideia surgiu enquanto Young olhava para os padrões de luz lançados por uma vela a brilhar através de minúsculas gotas de água. O padrão mostrava anéis coloridos em volta de um centro, e Young perguntou-se se os anéis poderiam ser causados pela interação das ondas de luz.
A experiência das fendas duplas
Young fez duas fendas num pedaço de cartão e iluminou-as. Numa tela de papel colocada atrás das fendas, a luz criou um padrão que convenceu Young de que esta era composta por ondas. Se a luz fosse feita de feixes de partículas, como Newton dissera, haveria simplesmente um risco de luz mesmo por detrás de cada fenda. Em vez disso. Young viu faixas alternadas de claro-escuro, como um código de barras esbatido. Alegou que as ondas de luz interagiam à medida que se espalhavam para lá das fendas. Se duas ondas sobem (crista) ou descem (cava) ao mesmo tempo, formam uma onda duas vezes maior (interferência construtiva) — criando as faixas claras. Se uma onda sobe enquanto a outra desce, elas anulam-se (interferência destrutiva) — criando as faixas escuras. Young também mostrou que cores de luz diferentes criam padrões de interferência diferentes, demonstrando que a cor da luz depende do comprimento da sua onda.
Durante um século, a experiência da dupla fenda de Young convenceu os cientistas de que a luz é uma onda, e não uma partícula. Então, em 1905, Albert Einstein mostrou que a luz também se comporta como se fosse um feixe de partículas — pode agir como onda e como partícula. A experiência de Young era tão simples que, em 1961, o físico alemão Claus Jönsson usou-a para mostrar que as partículas subatômicas, os eletrões, produzem uma interferência semelhante, portanto, também eles têm de ser ondas.
No final do século XVIII, os cientistas tinham começado a perceber que o mundo é composto por um leque de substâncias básicas, ou elementos químicos. Mas ninguém sabia ao certo o que era um elemento. Foi John Dalton, um meteorologista inglês, quem, através do seu estudo do clima, viu que cada elemento é inteiramente composto pelos seus próprios átomos, únicos e idênticos, e esse átomo especial é que distingue e define um elemento. Ao desenvolver a teoria atômica dos elementos, Dalton estabeleceu a base da química. A ideia dos átomos vem da Grécia antiga, mas sempre se presumira que todos os átomos fossem idênticos. A descoberta de Dalton consistiu em perceber que cada elemento é composto por átomos diferentes. Dalton descreveu os átomos que compõem os elementos então conhecidos — incluindo o hidrogênio, o oxigênio e o nitrogênio — como “partículas sólidas, maciças, duras, impenetráveis e móveis”.
As ideias de Dalton tiveram origem no seu estudo de como a pressão atmosférica afetava a quantidade de água que podia ser absorvida pelo ar. Convenceu-se de que o ar é uma mistura de gases diferentes. À medida que fazia experiências, observou que determinada quantidade de oxigênio puro absorve menos vapor de água do que a mesma quantidade de nitrogênio puro, chegando à conclusão notável de que isto acontece porque os átomos do oxigênio são maiores e mais pesados do que os do nitrogênio.
Questões de peso
Num lampejo de intuição, Dalton percebeu que os átomos de elementos diferentes podiam ser distinguidos pelas suas diferenças de peso. Ele notou que os átomos, ou “derradeiras partículas”, de dois ou mais elementos se combinavam para formar compostos em proporções muito simples e, portanto, ele podia calcular o peso de cada átomo a partir do peso de cada elemento envolvido num composto. Rapidamente, calculou o peso atômico de cada elemento então conhecido.
Dalton percebeu que o hidrogênio era o gás mais leve, portanto, atribuiu-lhe o peso atómico de 1. Por causa do peso do oxigênio, que se combinava com o hidrogênio na água, atribuiu ao oxigênio um peso atômico de 7. No entanto, havia uma falha no método de Dalton; ele não percebeu que os átomos do mesmo elemento podem combinar-se. Assumira sempre que um composto de átomos — uma molécula — só tinha um átomo de cada elemento. Mas o trabalho de Dalton colocou os cientistas no caminho certo e, no espaço de uma década, o físico italiano Amedeo Avogadro inventou um sistema de proporções moleculares para calcular corretamente os pesos atômicos. Ainda assim, a ideia-base da teoria de Dalton — que cada elemento tem os seus próprios átomos de tamanho único — provou-se verdadeira.
Em 1800, Alessandro Volta inventou a “pilha voltaica” — a primeira pilha elétrica do mundo e, em breve, muitos outros cientistas começaram a fazer experiências com pilhas.
O químico inglês Humphry Davy percebeu que a eletricidade da pilha é produzida por uma reação química. A carga elétrica flui à medida que os dois metais diferentes da pilha (os elétrodos) reagem através do papel embebido em água salgada no meio deles. Em 1807, Davy descobriu que podia usar a carga elétrica de uma pilha para dividir compostos químicos, descobrindo elementos novos e sendo pioneiro no processo que viria a ser designado por eletrólise.
Metais novos
Davy inseriu dois elétrodos em hidróxido de potássio seco (potassa), que humedeceu expondo-o ao ar húmido do seu laboratório, para que pudesse conduzir eletricidade. Para seu deleite, começaram a formar-se glóbulos metálicos no elétrodo negativo. Os glóbulos eram um elemento novo: o metal potássio. Algumas semanas depois, Davy eletrolisou hidróxido de sódio (soda cáustica) da mesma forma e produziu o metal sódio.
Em 1808, usou a eletrólise para descobrir mais quatro elementos metálicos — cálcio, bário, estrôncio e magnésio — e o metaloide boro. Tal como a eletrólise, a sua utilização comercial provou ser altamente valiosa.
Na segunda metade do século XVIII, a necessidade de se encontrar combustíveis e minério para abastecer a Revolução Industrial da Europa motivou um interesse crescente na produção de mapas geológicos. Os mineralogistas alemães Johann Lehmann e Georg Füchsel produziram imagens aéreas pormenorizadas da topografia e dos estratos rochosos. Muitos mapas geológicos posteriores pouco mais fizeram do que mostrar a distribuição de superfície de diferentes tipos de rochas — até aos trabalhos pioneiros de Georges Cuvier e Alexandre Brongniart em França, que mapearam a geologia da bacia parisiense em 1811, e William Smith na Grã-Bretanha.
Primeiro mapa nacional
Smith era um engenheiro e agrimensor autodidata que, em 1815, produziu o primeiro mapa geológico nacional mostrando a Inglaterra, o País de Gales e parte da Escócia. Ao recolher amostras de minas, pedreiras, penhascos, canais e cortes de estradas e ferrovias, Smith estabeleceu a sucessão dos estratos rochosos, usando os princípios de estratigrafia de Steno e identificando cada estrato através dos seus fósseis característicos. Também desenhou secções verticais da sucessão de estratos e das estruturas geológicas que estes tinham formado devido aos movimentos da Terra.
Nas décadas seguintes foram estabelecidos os primeiros inquéritos geológicos, que mapearam países inteiros. A correlação de estratos de idade semelhante, que atravessavam as fronteiras nacionais, foi alcançada através de um acordo-internacional na segunda metade do século XIX.
No final do século XVIII aceitava-se comumente que os fósseis eram os restos de organismos que tinham vivido em tempos e que acabaram petrificados à medida que os sedimentos à sua volta se solidificaram em rochas. Tanto os fósseis como os organismos vivos tinham sido classificados, pela primeira vez, numa hierarquia de espécies, gêneros e famílias por naturalistas como o taxonomista sueco Carl Lineu. No entanto, os restos fósseis ainda eram vistos isolados do seu contexto ambiental e biológico.
No início do século XIX, a descoberta de grandes ossos fossilizados, diferentes dos de qualquer animal vivo, levantou muitas questões novas. Onde é que se encaixavam nos sistemas de classificação e quando é que se extinguiram? Na cultura judaico-cristã do mundo ocidental pensava-se, em geral, que um Deus benevolente não deixaria que nenhuma das suas criações fosse aniquilada.
Monstros do abismo
Alguns desses primeiros fósseis enormes e distintos foram encontrados pela família Anning, que recolhia fósseis nos arredores de Lyme Regis, na costa sul de Inglaterra. Ali, os estratos calcários e de xisto do período Jurássico afloram nos penhascos, onde sofrem a erosão do mar, revelando abundantes restos de antiquíssimos organismos marinhos.
Em 1811, Joseph Anning encontrou um crânio de 1,2 metros de comprimento com um bico curiosamente alongado com dentes. A sua irmã Mary encontrou o resto do esqueleto, e venderam-no por 23 libras. Exposto em Londres, este foi o primeiro esqueleto inteiro de um “monstro do abismo” extinto e atraiu bastante atenção popular. Foi identificado como um réptil marinho extinto e batizado de “ictiossauro”, que significa “peixe-lagarto”.
A família Anning encontrou mais ictiossauros e o primeiro espécime completo de outro réptil marinho, o plesiossauro, além do primeiro espécime britânico de um réptil voador, novos fósseis de peixes e de crustáceos. Entre os peixes encontrados estavam cefalópodes conhecidos como belemnites, alguns com o saco de tinta preservado. A família, especialmente Mary, tinha talento para encontrar fósseis. Apesar de pobre, Mary era alfabetizada e aprendeu sozinha geologia e anatomia, o que a tornou uma recoletora de fósseis muito mais eficaz. Tal como observou Lady Harriet Sylvester, em 1824, Mary Anning estava “tão familiarizada com a ciência que, no instante em que encontra quaisquer ossos, sabe a que tribo pertencem”. Mary tornou-se uma autoridade em muitos tipos de fósseis, principalmente coprólitos — fezes fossilizadas.
A imagem da vida na antiga Dorset, revelada pelos fósseis de Anning, era a de uma costa tropical, onde uma imensa variedade de animais, hoje extintos, florescera um dia. Em 1854, os fósseis de Anning serviram de modelo para a primeira reconstrução, em tamanho real, de um ictiossauro, feita para o Crystal Palace de Londres pelo escultor Benjamin Waterhouse Hawkins e pelo paleontólogo Richard Owen. Foi Owen quem cunhou a palavra “dinossauro”, mas foi Anning quem possibilitou o primeiro vislumbre da riqueza da vida jurássica.
Em 1809, o naturalista francês Jean-Baptiste Lamarck apresentou a primeira grande teoria de que a vida na Terra evoluiu ao longo do tempo. O que mais motivou a sua teoria foi a descoberta de fósseis de criaturas diferentes de quaisquer outras existentes atualmente. Em 1796, o naturalista francês Georges Cuvier mostrara que os ossos fossilizados semelhantes aos de elefantes eram marcadamente diferentes, em termos anatômicos, dos ossos dos elefantes modernos, devendo pertencer às criaturas extintas que designamos hoje por mamutes e mastodontes.
Cuvier explicou que as criaturas desaparecidas do passado tinham sido vítimas de catástrofes. Lamarck desafiou essa ideia, argumentando que a vida tinha “transmutado”, ou evoluído, de forma gradual e contínua ao longo do tempo, desenvolvendo-se a partir das formas mais simples até às mais complexas. Segundo ele, uma mudança no meio ambiente podia incitar uma mudança nas características de um organismo. Essas mudanças podiam então ser herdadas através da reprodução. As características úteis desenvolver-se--iam; as que não tinham utilidade poderiam desaparecer.
Mais tarde, Darwin mostrou que as mudanças ocorrem porque mutações na concepção sobrevivem para ser transmitidas através da seleção natural, e a ideia de “características adquiridas” foi ridicularizada. Recentemente, os cientistas argumentaram que o ambiente — elementos químicos, luz, temperatura e alimento — pode, de facto, alterar os genes e a sua expressão.
O sueco Jöns Jakob Berzelius, líder de uma geração de químicos inspirados pela criação da pilha por Alessandro Volta, conduziu uma série de experiências que analisavam o efeito da eletricidade nos elementos químicos. Desenvolveu uma teoria chamada dualismo eletroquímico, publicada em 1819, que propunha que os compostos são criados pela junção de elementos com cargas elétricas opostas.
Em 1803, Berzelius juntara-se a um proprietário de minas para fazer uma pilha voltaica e ver como a eletricidade decompõe os sais. Os metais alcalinos e alcalinoterrosos migraram para o polo negativo da pilha, enquanto o oxigênio, os ácidos e as substâncias oxidadas migraram para o polo positivo. Berzelius concluiu que os com- postos de sais combinam um óxido básico, de carga positiva, com um óxido ácido, de carga negativa.
Berzelius desenvolveu a sua teoria dualista para sugerir que os compostos se ligam devido à atração de cargas elétricas opostas entre as suas partes componentes. Embora tenha sido demonstrada como incorreta, a teoria deu origem a pesquisas sobre as ligações químicas. Em 1916 descobriu-se que a ligação elétrica ocorre como ligação “iônica”, na qual os átomos perdem ou ganham eletrões para se tornarem átomos de cargas mutuamente atraentes, ou iões. Mas esta é apenas uma das várias formas pelas quais os átomos de um composto se ligam — uma outra é a ligação “covalente”, na qual os eletrões são partilhados entre os átomos.
A busca pela descoberta de uma unidade subjacente a todas as forças e matérias é tão antiga como a própria ciência, mas a primeira grande revelação surgiu em 1820, quando o filósofo dinamarquês Hans Christian Ørsted encontrou um elo entre o magnetismo e a eletricidade. Essa ligação fora-lhe sugerida pelo químico e físico alemão Johann Wilhelm Ritter, que conhecera em 1801. Influenciado pela ideia do filósofo Immanuel Kant, de que existe uma unidade na natureza, Ørsted investigou então verdadeiramente essa possibilidade.
Descoberta casual
Enquanto dava uma palestra na Universidade de Copenhaga, Ørsted quis mostrar aos seus alunos como a corrente elétrica de uma pilha voltaica (inventada por Alessandro Volta em 1800) podia aquecer um fio e fazê-lo brilhar. Notou então que o ponteiro de uma bússola próxima do fio se movia sempre que a corrente era ligada. Esta foi a primeira prova de um elo entre a eletricidade e o magnetismo. Estudos adicionais convenceram-no de que a corrente produzia um campo magnético circular enquanto fluía pelo fio.
A descoberta de Ørsted incitou rapidamente cientistas de toda a Europa a investigarem o eletromagnetismo. Mais tarde nesse ano, o físico francês André-Marie Ampère formulou uma teoria matemática para o novo fenómeno e, em 1821, Michael Faraday demonstrou que a força eletromagnética podia converter a energia elétrica em mecânica.
A descoberta do cientista britânico Michael Faraday, dos princípios tanto do motor elétrico quando do gerador elétrico, abriu caminho para a revolução elétrica que viria a transformar o mundo moderno, trazendo tudo, desde a lâmpada até as telecomunicações. O próprio Faraday previu o valor de suas descobertas — e o lucro em taxas que poderiam render ao governo.
Em 1821, alguns meses depois de saber que Hans Christian Ørsted descobrira a ligação entre a eletricidade e o magnetismo, Faraday demonstrou como um íman se move em volta de um fio elétrico e um fio elétrico se move em volta de um íman. O fio elétrico produz um campo magnético circular em seu redor, que gera uma força tangencial sobre o íman, produzindo um movimento circular. É este o princípio por trás do motor elétrico. É estabelecido um movimento giratório através da alternância da direção da corrente, o que, por seu lado, alterna a direção do campo magnético no fio.
Gerar eletricidade
Dez anos depois, Faraday fez uma descoberta ainda mais importante — um campo magnético em movimento pode criar ou “induzir” uma corrente de eletricidade. Esta descoberta — que foi também feita independentemente pelo físico americano Joseph Henry, na mesma altura- é a base da geração de toda a eletricidade. A indução eletromagnética converte a força cinética numa turbina giratória em corrente elétrica.
Atualmente, uma das leis mais fundamentais da física é que a energia não é criada nem destruída, apenas muda de forma ou de local. O matemático francês Joseph Fourier foi pioneiro no estudo do calor e de como este se desloca de locais aquecidos para locais frescos.
Fourier interessava-se tanto pelo modo como o calor se difundia através dos sólidos, através da condução, como pela forma como as coisas arrefecem, perdendo calor. O seu compatriota Jean-Baptiste Biot tinha imaginado o alastrar do calor como uma “ação à distância”, na qual este se espalha saltando de locais quentes para arrefecer. Biot representou o fluxo de calor num sólido como uma série de fatias, que permitiram que este fosse estudado através de equações convencionais, que mostravam o calor a saltar de uma fatia para a seguinte.
Gradientes de temperatura
Fourier olhou para o fluxo de calor de uma forma totalmente diferente. Focou-se nos gradientes de temperatura — gradações contínuas entre lugares quentes e frios. Estas não podiam ser quantificadas através de equações convencionais, portanto, Fourier elaborou novas técnicas matemáticas.
Fourier focava-se na ideia de ondas e em encontrar um meio de as representar matematicamente. Viu que qualquer movimento em onda, aquilo que se designa por um gradiente de temperatura, pode ser aproximado matematicamente adicionando-se ondas mais simples, independentemente da forma da onda a ser representada. As ondas mais simples depois somadas são senos e cossenos, derivados da trigonometria, e podem ser escritas matematicamente como uma série. Estas ondas individuais movem-se uniformemente, da crista à cava. Adicionar cada vez mais destas ondas simples produz uma complexidade crescente que se pode aproximar de qualquer outro tipo de onda. Estas séries infinitas são hoje designadas por séries de Fourier.
Fourier publicou a sua ideia em 1807, mas esta foi criticada e o seu trabalho apenas foi finalmente aceite em 1822. Prosseguindo o seu estudo do calor, em 1824, Fourier examinou a diferença entre o calor que a Terra ganha do Sol e o calor que perde para o espaço. Percebeu que o motivo pelo qual a Terra é agradavelmente aquecida, considerando a sua distância do Sol, é porque os gases na sua atmosfera prendem calor e impedem que este seja irradiado de volta para o espaço — o fenômeno hoje conhecido como efeito de estufa.
Atualmente, a análise de Fourier é aplicada não só à transferência de calor, mas também a inúmeros outros problemas na vanguarda da ciência, desde a acústica, a engenharia eletrotécnica e a ótica até à mecânica quântica.
Em 1807, o químico sueco Jöns Jakob Berzelius sugeriu a existência de uma diferença fundamental entre os elementos químicos presentes em coisas vivas e todos os outros químicos. Berzelius argumentou que esses químicos “orgânicos” exclusivos só poderiam ser construídos pelas próprias coisas vivas e, uma vez decompostos, não poderiam ser refeitos artificialmente. A sua ideia concordava com a teoria predominante conhecida como “vitalismo”, que afirmava que a vida era especial e as coisas vivas eram dotadas de uma “força viva”, além da compreensão dos químicos.
Foi, portanto, uma surpresa quando as experiências pioneiras de um químico alemão chamado Friedrich Wöhler mostraram que os químicos orgânicos não têm nada de único, mas que se comportam segundo as mesmas regras básicas de todos os químicos.
Hoje sabemos que os químicos orgânicos contêm uma infinidade de moléculas baseadas no elemento carbono. Estas moléculas à base de carbono são, de facto, componentes essenciais da vida, mas muitas podem ser sintetizadas a partir de químicos inorgânicos — como Wöhler descobriu.
Rivais químicos
A grande descoberta de Wöhler surgiu por causa de uma rivalidade científica. No início da década de 1820, Wöhler e um colega químico, Justus von Liebig, chegaram a análises químicas idênticas para o que pareciam ser duas substâncias muito diferentes — fulminato de prata, que é explosivo, e cianato de prata, que o não é. Ambos presumiram que o outro tinha errado nos resultados, mas, depois de se corresponderem, descobriram que estavam ambos corretos. Este grupo de compostos levou os químicos a perceber que as substâncias não se definem apenas pelo número e tipo de átomos na molécula, mas também pela disposição dos átomos. A mesma fórmula pode ser aplicada a estruturas diferentes com propriedades diferentes — essas estruturas diferentes foram depois denominadas “isômeros” por Berzelius. Wöhler e Liebig formaram uma parceria brilhante, mas foi Wöhler sozinho quem, em 1828, encontrou a verdade sobre as substâncias orgânicas.
A síntese de Wöhler
Wöhler estava a misturar cianato de prata com cloreto de amônio, esperando obter cianato de amônio. Em vez disso, obteve uma substância branca com propriedades diferentes das do cianato de amônio. O mesmo pó surgiu quando misturou cianato de chumbo com hidróxido de amônio. A análise mostrou que o pó branco era ureia — uma substância orgânica, componente-chave da urina, que tem a mesma fórmula química que o cianato de amônio. Segundo a teoria de Berzelius, a substância só poderia ser produzida por coisas vivas — no entanto, Wöhler sintetizara-a a partir de químicos inorgânicos. Wöhler escreveu a Berzelius: “Tenho de lhe dizer que consigo fazer ureia sem usar os rins”, explicando que a ureia era, de facto, um isômero do cianato de amônio.
A importância da descoberta de Wöhler demorou muitos anos a ser assimilada. Mas, ainda assim, apontou o caminho para o desenvolvimento da química orgânica moderna, que não só revela como todas as coisas vivas dependem de processos químicos, como possibilita a síntese artificial de substâncias orgânicas valiosas à escala comercial. Em 1907, um polímero sintético chamado baquelite foi produzido a partir de duas substâncias químicas, abrindo as portas à “Era do Plástico”, que moldou o mundo moderno.
As correntes atmosféricas e marítimas não fluem em linha reta. À medida que se deslocam, são desviadas para a direita, no hemisfério norte, e para a esquerda, no hemisfério sul. Na década de 1830, o cientista francês Gaspard-Gustave de Coriolis descobriu o princípio por trás deste efeito, hoje conhecido como o efeito de Coriolis.
Desviadas pela rotação
Coriolis retirou as suas ideias do seu estudo das noras, mas os meteorologistas perceberam mais tarde que as ideias se aplicam à forma como os ventos e as correntes marítimas se movem.
Coriolis mostrou que, quando um objeto se move sobre uma superfície rotativa, o seu momento cinético parece conduzi-lo numa trajetória curva. Imagine-se a atirar uma bola a partir do centro de um carrossel a girar. A bola parece curvar-se à medida que roda com o carrossel. O mesmo se passa para qualquer pessoa que esteja a ver do lado de fora do carrossel ela esteja a deslocar-se em linha reta.
Os ventos na Terra em rotação são desviados da mesma forma. Sem o efeito de Coriolis, os ventos soprariam simplesmente a direito de áreas de alta pressão para áreas de baixa pressão.
A direção do vento é um equilíbrio entre a tração da baixa pressão e o desvio de Coriolis. É por isso que os ventos circulam ao contrário dos ponteiros do relógio para zonas de baixa pressão no hemisfério norte e no sentido dos ponteiros do relógio no hemisfério sul. Do mesmo modo, as correntes marítimas de superfície circulam em grandes círculos no sentido dos ponteiros de relógio no hemisfério sul. Do mesmo modo as correntes marítimas da superfície circulam no sentido dos ponteiros do relógio no hemisfério norte e ao contrário no sul.
A cor da luz depende da sua frequência, ou seja, o seu número de ondas por segundo. Se algo que se move na nossa direção emite ondas, a segunda onda terá uma distância mais curta que a primeira para percorrer e, portanto, chegará mais depressa do que se a fonte estivesse estacionária. Assim, a frequência de ondas aumenta se a fonte e o receptor estiverem a aproximar-se e diminui se estiverem a afastar-se. Este efeito aplica-se a todos os tipos de ondas, incluindo as ondas sonoras, e é responsável pela mudança do tom de uma sirene quando passa uma ambulância.
A olho nu, a maioria das estrelas parece ser branca, porém, através de um telescópio, é possível ver que muitas são vermelhas, amarelas ou azuis. Em 1842, um físico austríaco chamado Christian Doppler sugeriu que a cor vermelha de algumas estrelas se deve ao facto de se estarem a distanciar da Terra, o que mudaria a sua luz para comprimentos de onda maiores. Como o maior comprimento de onda da luz visível é o vermelho, isto passou a ser conhecido por deslocamento para o vermelho (como ilustrado na p. 241).
Sabe-se que a cor das estrelas se deve sobretudo à sua temperatura (quanto mais quente, mais azuis), mas o movimento de algumas estrelas pode ser detectado através do efeito de Doppler. As estrelas binárias são pares de estrelas que se orbitam. A sua rotação causa uma oscilação entre o deslocamento para o vermelho e o deslocamento para o azul na luz que emitem.
Quando os glaciares varrem uma paisagem, deixam características próprias para trás. Os glaciares podem achatar rochas ou deixá-las lisas e arredondadas, geralmente com estrias (riscos) que mostram a direção da deslocação do gelo. Também deixam para trás blocos erráticos — pedregulhos que foram arrastados ao longo de grandes distâncias pelo gelo. Estes podem ser geralmente identificados, porque a sua composição é diferente da das pedras sobre as quais repousam. Muitos blocos erráticos são demasiado grandes para ter sido deslocados por rios, o modo habitual pelo qual as rochas se deslocam numa paisagem. Uma rocha de tipo diferente das que a rodeiam é, assim, um sinal de que um glaciar passou em tempos por ali. Outra pista é a presença de moreias nos vales. Trata-se de pilhas de rochas que foram empurradas quando o glaciar estava a crescer e deixadas para trás quando este recuou.
O enigma das rochas
Os geólogos do século XIX reconheciam características como estrias, blocos erráticos e moreias como sendo provas de um glaciar. Apenas não conseguiram explicar por que razão essas características eram encontradas em locais da Terra onde não havia glaciares.
Uma teoria afirmava que as rochas eram deslocadas por inundações repetidas. As inundações poderiam explicar os “aluviões rochosos” (areias, argilas e cascalho, incluindo blocos erráticos) que cobrem boa parte do substrato rochoso da Europa. O material poderia ter sido depositado quando a última inundação recuou. Os maiores blocos erráticos podiam ter ficado presos em icebergs, que depositaram as rochas ao derreterem. Mas a teoria não conseguia explicar todas as características.
A era do gelo revelada
Durante a década de 1830, o geólogo suíço Louis Agassiz passou vários períodos de férias nos Alpes, estudando os glaciares e os seus vales. Percebeu que as características glaciares em toda parte, e não apenas nos Alpes, podiam ser explicadas se a Terra tivesse estado coberta por muito mais gelo que o atual. Os glaciares de hoje devem ser os restos dos lençóis de gelo que, a certa altura, cobriram a maior parte do globo. Mas, antes de publicar a sua teoria, Agassiz queria convencer outros estudiosos. Tinha conhecido William Buckland, um proeminente geólogo inglês, enquanto escavava fósseis de peixes nas rochas de Antigo Arenito Vermelho, nos Alpes. Quando Agassiz lhe mostrou as provas da sua teoria de uma idade do gelo, Buckland ficou convencido e, em 1840, os dois percorreram a Escócia em busca de provas de uma glaciação ali. Depois da viagem, Agassiz apresentou as suas ideias perante a Geological Society de Londres. Embora tivesse convencido Buckland e Charles Lyell — dois dos mais respeitados geólogos da época, os outros membros não se deixaram impressionar. Uma glaciação quase global parecia tão improvável como uma inundação global. No entanto, a ideia de idades do gelo foi gradualmente ganhando aceitação e, hoje em dia, existem provas, vindas de várias áreas diferentes da geologia, de que, muitas vezes no passado, o gelo cobriu grande da superfície terrestre, cobriu grande parte da superfície terrestre.
O estudo do inter-relacionamento entre o mundo animado e o inanimado, conhecido como ecologia, só se tornou um tema de investigação científica metódica e rigorosa durante os últimos 150 anos. O termo “ecologia” foi cunhado em 1866 pelo biólogo evolucionista alemão Ernst Haeckel e deriva das palavras gregas "oikos”, que significa “casa” ou “habitação”, e “logos”, que significa “estudo” ou “discurso”. Mas aquele que é considerado o pioneiro do pensamento ecológico moderno é um polímata alemão anterior: Alexander von Humboldt.
Através de extensas expedições e escritos, Humboldt promoveu uma nova abordagem da ciência. Procurou entender a natureza como um todo unificado, inter-relacionando todas as ciências físicas e empregando os equipamentos científicos mais recentes, observações exaustivas e uma análise meticulosa dos dados a uma escala sem precedentes.
Os dentes do crocodilo
Embora a abordagem holística de Humboldt fosse nova, o conceito de ecologia desenvolveu-se a partir das primeiras investigações de história natural de antigos escritores gregos, como Heródoto, no século V a.C. Num dos primeiros relatos de interdependência, tecnicamente conhecida como mutualismo, ele descreve os crocodilos do rio Nilo, no Egito, a abrir a boca para deixar que os pássaros limpem os seus dentes.
Um século depois, observações do filósofo grego Aristóteles e do seu pupilo Teofrasto, sobre a migração, a distribuição e o comportamento das espécies, forneceram uma versão inicial do conceito do nicho ecológico — um lugar específico na natureza, que molda e é moldado pelo modo de vida de uma espécie. Teofrasto estudou e escreveu extensivamente sobre plantas, percebendo a importância do clima e dos solos para o seu crescimento e distribuição. As suas ideias influenciaram a filosofia natural durante os 2000 anos seguintes.
As forças unificadoras da natureza
A abordagem de Humboldt à natureza seguia a tradição romântica do século XVIII, que reagia opondo-se ao racionalismo ao insistir no valor dos sentidos, da observação e da experiência na compreensão do mundo como um todo. Tal como os seus contemporâneos, os poetas Johann Wolfgang von Goethe e Friedrich Schiller, Humboldt promovia a ideia de unidade (Gestalt, em alemão) da natureza — e da filosofia natural e das humanidades. Os seus estudos estendiam-se desde a anatomia e a astronomia até à mineralogia, à botânica, ao comércio e à linguística, proporcionando-lhe a amplitude de conhecimentos necessários para a sua exploração do mundo natural, para além dos limites da Europa.
Como Humboldt explicava, “A visão de plantas exóticas, até de espécimes secos num herbário, despertava a minha imaginação e eu desejava ver, com os meus próprios olhos, a vegetação tropical dos países do Sul.” A sua viagem exploratória à América Latina, durante cinco anos, com o botânico francês Aimé Bonpland, foi a sua expedição mais importante. Partindo em junho de 1799, ele declarou: “Irei recolher plantas e fósseis e fazer observações astronômicas com os melhores instrumentos. Mas esse não é o principal propósito da minha viagem. Vou empenhar-me em descobrir como as forças da natureza atuam, umas sobre as outras, e de que modo o ambiente geográfico influencia os animais e as plantas. Resumindo, preciso de descobrir a harmonia da natureza.” E foi exatamente isso que fez.
Entre muitos outros projetos, Humboldt mediu a temperatura dos mares e sugeriu o uso de “linhas isso”, ou isotérmicas, para unir pontos de igual temperatura como forma de caracterizar e mapear o ambiente global, especialmente o clima, e depois comparar as condições climáticas nos diferentes países.
Humboldt foi também um dos primeiros cientistas a estudar como as condições físicas — por exemplo, o clima, a altitude, a latitude e os solos — afetavam a distribuição da vida. Com a ajuda de Bonpland, mapeou as mudanças na flora e na fauna entre o nível do mar e a elevada altitude dos Andes. Em 1805, no ano posterior ao seu regresso das Américas, publicou um trabalho sobre a geografia da área, aclamado atualmente, sintetizando a interligação da natureza e ilustrando as zonas altitudinais de vegetação. Anos depois, em 1851, mostrou a aplicação global dessas zonas ao comparar as regiões andinas com as dos Alpes, dos Pirenéus, da Lapónia, de Tenerife e dos Himalaias
Definir a ecologia
Quando Haeckel inventou a palavra “ecologia”, estava também a seguir a tradição da visão de uma Gestalt (unidade) do mundo vivo e inanimado. Evolucionista entusiasta, foi inspirado por Charles Darwin, cuja publicação de A Origem das Espécies, em 1859, baniu a ideia da Terra como mundo imutável. Haeckel questionava o papel da seleção natural, mas acreditava que o meio ambiente tinha um papel importante, tanto na evolução como na ecologia.
No final do século XIX, o primeiro curso universitário de ecologia era ministrado pelo botânico dinamarquês Eugenius Warming, que também escreveu o primeiro manual sobre ecologia, Plantesamfund (Ecologia das Plantas), em 1895. A partir do trabalho pioneiro de Humboldt, Warming desenvolveu a subdivisão geográfica global da distribuição das plantas, conhecida por bioma — como o bioma da floresta tropical —, largamente baseada na interação das plantas com o meio ambiente, especialmente o clima.
Indivíduos e comunidade
No início do século XX, a definição moderna de ecologia desenvolveu-se como o estudo científico das interações que determinam a distribuição e a abundância dos organismos. Estas interações incluem o meio ambiente de um organismo, englobando todos os fatores que o influenciam — tanto bióticos (organismos vivos) como abióticos (fatores não vivos, como o solo, a água, o ar, a temperatura e a luz do Sol). O âmbito da ecologia moderna vai desde o organismo individual até às populações de indivíduos da mesma espécie e à comunidade, composta por populações que partilham o mesmo meio ambiente específico.
Muitos termos e conceitos básicos de ecologia surgiram do trabalho de vários ecologistas pioneiros nas primeiras décadas do século XX. O conceito formal de comunidade biológica foi inicialmente desenvolvido pelo botânico americano Frederic Clements, em 1916. Clements acreditava que as plantas de uma determinada área desenvolvem uma sucessão de comunidades ao longo do tempo, a partir de uma comunidade pioneira inicial até uma comunidade ideal de topo, dentro da qual comunidades sucessivas de diferentes espécies se ajustam umas às outras para formar uma unidade estreitamente integrada e interdependente, semelhante aos órgãos de um corpo. A metáfora da comunidade de Clements, enquanto “organismo complexo”, foi inicialmente criticada, mas influenciou o pensamento posterior.
A ideia de integração ecológica adicional a um nível superior à comunidade foi introduzida em 1935 com o conceito de ecossistema, desenvolvido pelo botânico inglês Arthur Tansley. Um ecossistema é composto por elementos vivos e não-vivos. As suas interações formam uma união estável com um fluxo sustentável de energia da parte ambiental para a parte viva (através da cadeia alimentar) e pode operar a todos os níveis, desde uma poça até um oceano ou ao planeta inteiro.
Estudos das comunidades animais feitos pelo zoólogo inglês Charles Elton levaram-no a desenvolver, em 1927, os conceitos de cadeia alimentar e ciclo alimentar, posteriormente conhecidos como “rede alimentar”. Uma cadeia alimentar é formada pela transferência de energia, através de um ecossistema, a partir dos produtores primários (como as plantas verdes em terra) e através de uma série de organismos consumidores.
Elton também reconheceu que grupos específicos de organismos ocupavam certos nichos na cadeia alimentar durante alguns períodos de tempo. Os nichos de Elton incluem não só os habitats, mas também os recursos dos quais os organismos ocupantes dependem para o seu sustento. A dinâmica da transferência de energia através de níveis tróficos (alimentares) foi estudada pelos ecologistas americanos Raymond Lindeman e Robert MacArthur, cujos modelos matemáticos ajudaram a transformar a ecologia de uma ciência principalmente descritiva para uma experimental.
O movimento verde
Nas décadas de 1960 e 1970 houve uma explosão no interesse popular e científico pela ecologia, levando ao desenvolvimento do movimento ambiental com uma ampla gama de preocupações, estimulado por defensores poderosos como a bióloga marinha Rachel Carson. O seu livro de 1962, Primavera Silenciosa, documentava os efeitos nocivos para o meio ambiente de produtos químicos feitos pelo homem, como o pesticida DDT. A primeira imagem da Terra vista do espaço, tirada pelos astronautas da Apollo 8, em 1968, despertou a consciência pública para a fragilidade do planeta. Em 1969, foram fundadas as organizações Friends of the Earth e Greenpeace, com a missão de “garantir a capacidade da Terra para nutrir a vida em toda a sua diversidade”. A proteção ambiental, juntamente com as energias limpas e renováveis, os alimentos orgânicos, a reciclagem e a sustentabilidade, estavam todos na agenda política, tanto da América do Norte com da Europa, sendo as agências de conservação nacional estabelecidas com base na ciência da ecologia. As últimas décadas assistiram a uma preocupação crescente com a mudança climática global e o seu impacto no ambiente e nos ecossistemas atuais, muitos dos quais já se encontram ameaçados pela atividade humana.
No século XVII, os cientistas começaram a investigar a luz e se esta tinha uma velocidade finita e mensurável. Em 1690, Christiaan Huygens publicou a sua teoria de que a luz é uma onda de pressão, movendo-se num fluido misterioso chamado éter. Huygens considerava a luz como uma onda longitudinal e previu que esta se deslocaria mais lentamente através do vidro ou da água do que através do ar. Em 1704, Isaac Newton publicou a sua teoria da luz como sendo um feixe de “corpúsculos”, ou partículas. A explicação de Newton para a refração — a curvatura de um raio de luz ao passar de um material transparente para outro — presumia que a luz se desloca mais depressa depois de passar do ar para a água.
As estimativas da velocidade da luz baseavam-se em fenómenos astronômicos, que mostravam a rapidez com que a luz se desloca pelo espaço.
A primeira medição terrestre foi realizada pelo físico francês Hippolyte Fizeau, em 1849. Apontou um feixe de luz por entre os dentes de uma cremalheira em movimento. Essa luz era depois refletida por um espelho, colocado a oito quilômetros de distância, e passada de volta por entre o espaço seguinte, entre os dentes da roda. Medindo a velocidade exata da rotação que permitia que isto acontecesse, juntamente com o tempo e a distância, Fizeau calculou a velocidade da luz em 313 000 km/s.
Contradizer Newton
Em 1850, Fizeau colaborou com o seu colega físico Léon Foucault, que adaptou o seu dispositivo — tornando-o mais pequeno — para refletir o feixe de luz num espelho giratório, em vez de o passar pela roda dentada. A luz que iluminava o espelho giratório só se refletia no espelho distante quando o espelho giratório estava no ângulo correto. A luz que regressava do espelho fixo era novamente refletida pelo espelho giratório, mas, como este se movera enquanto a luz viajava, a luz não era refletida diretamente de volta à fonte. A velocidade da luz podia agora ser calculada a partir do ângulo entre a luz que partia para o espelho giratório e a que voltava deste e a velocidade de rotação do mesmo.
A velocidade da luz na água podia ser medida pela colocação de um tubo de água no dispositivo entre os espelhos giratório e fixo. Usando este dispositivo, Foucault estabeleceu que a luz se deslocava mais devagar na água do que no ar. Portanto, argumentou ele, a luz não podia ser uma partícula, sendo a experiência encarada, na altura, como uma contestação da teoria dos corpúsculos de Newton. Foucault aperfeiçoou ainda mais o seu dispositivo e, em 1862, mediu a velocidade da luz no ar, obtendo 298 000 km/s — incrivelmente próximo do valor atual de 299 792 km/s.
O princípio da conservação da energia declara que a energia nunca se perde, apenas muda de forma. Mas, na década de 1840, os cientistas tinham apenas uma vaga ideia do que era a energia. Foi James Joule, filho de um cervejeiro inglês, quem mostrou que o calor, o movimento mecânico e a eletricidade são formas permutáveis de energia e que, quando uma se transforma na outra, a energia total permanece a mesma.
Converter energia
Joule começou as suas experiências num laboratório na casa da família. Em 1841 calculou quanto calor uma corrente elétrica gera. Experimentou converter o movimento mecânico em calor e desenvolveu uma experiência na qual um peso em queda faz girar uma roda de pás na água, aquecendo-a. Ao medir a elevação da temperatura da água, Joule calculou a quantidade exata de calor que determinada quantidade de trabalho mecânico criaria. Afirmou depois que nenhuma energia se perdera nesta conversão. As suas ideias foram amplamente ignoradas até 1847, quando o físico alemão Hermann von Helmholtz publicou um texto sintetizando a teoria de conservação da energia, tendo Joule apresentado então o seu trabalho perante a British Association, em Oxford. A unidade padrão de energia, o joule, é assim chamada por sua causa.
Em meados do século XIX, os átomos e as moléculas tinham-se tornado ideias centrais na química e a maioria dos cientistas compreendia que estes eram cruciais para a identidade e o comportamento dos elementos e dos compostos. Poucos achavam que tivessem grande relevância para a física, mas, na década de 1880, o físico austríaco Ludwig Boltzmann desenvolveu a teoria cinética dos gases, colocando os átomos e as moléculas também no centro da física.
No começo do século XVIII, o físico suíço Daniel Bernoulli tinha sugerido que os gases são compostos por uma infinidade de moléculas em movimento. É o seu impacto que gera pressão, e a sua energia cinética (a energia do seu movimento) é o que provoca o calor. Nas décadas de 1840 e 1850, os cientistas tinham começado a perceber que as propriedades dos gases refletem o movimento médio de incontáveis partículas. Em 1859, James Clerk Maxwell calculou a velocidade das moléculas e qual a distância percorrida antes de colidirem, mostrando que a temperatura é uma medida da velocidade média das moléculas.
Centralidade da estatística
Boltzmann revelou quão importantes são as estatísticas. Mostrou que as propriedades da matéria são uma combinação das leis básicas do movimento e das regras estatísticas da probabilidade. Seguindo este princípio, calculou um número (constante de Boltzmann), fornecendo uma fórmula que relaciona a pressão e o volume de um gás com o número e a energia das suas moléculas.
A descoberta dos plásticos sintéticos, no século XIX, abriu caminho para a criação de uma imensa variedade de materiais sólidos diferentes de tudo o que alguma vez existira — leves, não corrosíveis e moldáveis em qualquer formato imaginável. Embora os plásticos possam ocorrer naturalmente, todos os utilizados atualmente são inteiramente sintéticos. Em 1907, o inventor americano nascido na Bélgica, Leo Baekeland, criou um dos primeiros plásticos de sucesso comercial, hoje em dia conhecido por baquelite.
O que dá ao plástico as suas qualidades especiais é o formato das suas moléculas. Com poucas exceções, os plásticos são compostos por moléculas orgânicas longas, conhecidas como polímeros, por sua vez compostas por outras moléculas mais pequenas, ou monômeros. Alguns polímeros ocorrem naturalmente, como a celulose, a principal substância lenhosa das plantas.
Embora as moléculas dos polímeros naturais fossem demasiado complexas para ser decifradas no século XIX, alguns cientistas começaram a explorar formas de as fazerem sinteticamente a partir de reações químicas. Em 1862, o químico britânico Alexander Parkes criou uma forma sintética de celulose, à qual deu o nome de Parkesine. Alguns anos depois, o americano John Hyatt desenvolveu outra, que se tornou conhecida como celuloide.
Imitar a natureza
Depois de desenvolver o primeiro papel fotográfico do mundo, na década de 1890, Baekeland vendeu a ideia à Kodak e usou o dinheiro para comprar uma casa equipada com o seu próprio laboratório. Ali experimentou formas de criar goma-laca sintética. A goma-laca é uma resina excretada pelo inseto Kerria lacca fêmea. É um polímero natural usado para dar aos móveis e a outros objetos uma cobertura brilhante e resistente. Baekeland descobriu que, tratando a resina de fenol, feita a partir de alcatrão de hulha, com formaldeído, conseguia fazer um tipo de goma-laca. Em 1907, acrescentou vários tipos de pós a esta resina e descobriu que conseguia criar um plástico moldável e muito rijo.
Este plástico é designado por polioxibenzimetilenglicolanidrido, Baekeland chamou-lhe “baquelite”. A baquelite era um plástico “termoendurecido” — que mantém o seu formato depois de aquecido. Devido às suas propriedades de isolamento elétrico e resistência ao calor, a baquelite em breve seria usada no fabrico de rádios, telefones e isolantes elétricos. E muitos outros usos logo foram encontrados.
Hoje, existem milhares de plásticos sintéticos, incluindo o Plexiglas, o polieteno, o polietileno de baixa densidade e o celofane, cada um com as suas propriedades e utilidades. A maioria é baseada em hidrocarbonetos (químicos feitos a partir de hidrogênio e carbono) derivados do petróleo ou do gás natural. No entanto, nas últimas décadas, fibras de carbono, nanotubos e outros materiais foram acrescentados para criar materiais plásticos superleves e superfortes, como o Kevlar.
O naturalista britânico Charles Darwin não foi, de forma alguma, o primeiro cientista a sugerir que as plantas, os animais e outros organismos não são fixos e inalteráveis — ou, para usar a palavra popular da altura, “imutáveis”. Tal como outros antes dele, Darwin propôs que as espécies de organismos mudam, ou evoluem, ao longo do tempo. A sua grande contribuição foi mostrar que a evolução ocorria através de um processo que designou por seleção natural. Ele expôs a sua ideia central na obra A Origem das Espécies, publicada em Londres em 1859. Darwin descreveu esse texto como “um longo argumento”.
“Confessar um assassínio”
A Origem das Espécies deparou-se com a oposição acadêmica e popular. O livro não fazia qualquer menção à doutrina religiosa, que insistia em que as espécies eram, de facto, fixas e imutáveis e criadas por Deus. Porém, aos poucos, as ideias do livro mudaram a perspectiva científica sobre o mundo natural. A sua ideia central forma a base de toda a biologia moderna, fornecendo uma explicação simples, mas imensamente poderosa, para as formas de vida, tanto do passado como do presente.
Darwin tinha total consciência do potencial blasfemo no seu trabalho durante as décadas que passou a escrevê-lo. Quinze anos antes da sua publicação, explicou ao botânico Joseph Hooker, seu confidente, que a sua teoria não exigia nenhum Deus ou espécies imutáveis: “Por fim surgiram os raios de luz e estou quase convencido (bem ao contrário da opinião com que comecei) de que as espécies não são (é como se confessasse um assassínio) imutáveis.”
A abordagem de Darwin à evolução, assim como o resto do seu abrangente trabalho sobre história natural, foi cautelosa, cuidadosa e deliberada. Ele prosseguiu, passo a passo, recolhendo grandes quantidades de provas pelo caminho. Durante quase 30 anos, integrou o seu extenso conhecimento sobre fósseis, geologia, plantas, animais e seleção artificial com conceitos de demografia, economia e muitos outros campos. A teoria resultante da evolução por seleção natural é vista como um dos maiores avanços científicos de todos os tempos.
O papel de Deus
No início do século XIX, os fósseis eram amplamente discutidos na sociedade vitoriana. Alguns encaravam-nos como rochas de formação natural, sem qualquer relação com organismos vivos. Outros viam-nos como um trabalho do Criador, colocado na Terra para testar os crentes. Ou achavam que eram restos de organismos ainda vivos em algum lugar do mundo, já que Deus criara os seres vivos perfeitos.
Em 1796, o naturalista francês Georges Cuvier reconheceu que certos fósseis, como os de mamutes ou de preguiças-gigantes, eram os restos de animais extintos. Ele reconciliou isso com a sua crença religiosa, invocando catástrofes como o Grande Dilúvio descrito na Bíblia. Cada desastre varria uma categoria inteira de seres vivos e Deus reabastecia depois a Terra com novas espécies. Entre cada desastre, as espécies permaneciam fixas e imutáveis. Esta teoria era conhecida como “catastrofismo” e tornou-se amplamente conhecida após a publicação do Discurso Preliminar de Cuvier, em 1813.
No entanto, na altura em que Cuvier o escreveu, circulavam já várias ideias baseadas na evolução. Erasmus Darwin, o avô livre-pensador de Charles, propusera uma teoria idiossincrásica anterior. Mais influentes foram as ideias de Jean-Baptiste Lamarck, professor de zoologia no Museu Nacional de História Natural de França. O seu Filosofia Zoológica, de 1809, articulava aquela que foi talvez a primeira teoria sobre a evolução. Lamarck teorizou que os seres vivos evoluíam a partir de inícios simples, através de etapas cada vez mais sofisticadas, devido a uma força complexificadoras. Enfrentavam desafios ambientais nos seus corpos e, a partir daqui, surgiu a ideia do uso e desuso num indivíduo: “A utilização mais frequente e contínua de qualquer órgão fortalece, desenvolve e aumenta gradualmente esse órgão (...) enquanto o desuso permanente de qualquer órgão enfraquece-o e deteriora-o imperceptivelmente (...) até este desaparecer finalmente.” O maior poder do órgão era então passado à prole, um fenômeno que se tornou conhecido como “herança das características adquiridas”.
Embora a sua teoria tenha sido amplamente rejeitada, Lamarck foi mais tarde elogiado por Darwin por ter aberto a possibilidade de a mudança não resultar daquilo que Darwin denominara depreciativamente por “interposição milagrosa”.
As aventuras do Beagle
Darwin teve tempo de sobra para meditar sobre a imutabilidade das espécies durante uma viagem à volta do mundo a bordo do navio de investigação HMS Beagle, entre 1831 e 1836, sob o comando do capitão Robert FitzRoy. Como cientista da expedição, Darwin estava encarregado de recolher todo o tipo de fósseis e espécimes de plantas e animais e enviá-los para Inglaterra a partir de cada porto de paragem.
Esta viagem épica abriu os olhos do jovem Darwin, ainda com pouco mais de 20 anos, à incrível diversidade da vida. Onde o Beagle ancorasse, Darwin observava avidamente todos os aspetos da natureza. Em 1835, descreveu e recolheu um conjunto de pequenos pássaros insignificantes nas Ilhas Galápagos, um arquipélago no oceano Pacífico, 900 km a oeste do equador. Ele achou que se tratava de nove espécies, seis delas tentilhões.
Depois do seu regresso a Inglaterra, Darwin organizou o seu imenso volume de dados e supervisionou um relatório de vários volumes e vários autores intitulado A Zoologia da Viagem do HMS Beagle. No volume sobre pássaros, o reconhecido ornitólogo John Gould declarou que existiam, na realidade, 13 espécies nos espécimes de Darwin, todos eles tentilhões. Contudo, o grupo continha pássaros com bicos de formatos diferentes, adaptados a dietas diferentes.
No seu próprio relato da aventura, A Viagem do Beagle, um best-seller, Darwin escreveu: “Ao ver esta gradação e diversidade de estrutura num pequeno grupo de pássaros intimamente relacionados, podemos de facto imaginar que a partir da escassez original de pássaros neste arquipélago uma espécie tenha sido escolhida e modificada para finalidades diferentes.” Esta foi uma das primeiras declarações públicas claras da direção que as suas ideias sobre a evolução estavam a tomar.
Comparar espécies
Os tentilhões de Darwin, como ficaram conhecidos os espécimes das Galápagos, não foram o único catalisador do seu trabalho sobre a evolução. Na realidade, Darwin tinha vindo a acumular ideias ao longo da viagem no Beagle e principalmente, durante a sua visita às Galápagos. Ficou fascinado pelas tartarugas gigantes e pelo modo como o formato das suas carapaças variava subtilmente de uma ilha para outra. Ficou igualmente impressionado pelas espécies de tordos. Também estes variavam entre as ilhas, ainda que apresentassem semelhanças não só entre si, mas com espécies que viviam no continente, na América do Sul.
Darwin sugeriu que os vários tordos poderiam ter evoluído a partir de um antepassado comum, que tivesse, de algum modo, atravessado o Pacífico desde o continente; depois, cada grupo de pássaros evoluiu, adaptando-se ao ambiente específico de cada ilha e ao alimento disponível.
A observação das tartarugas gigantes, das raposas das Ilhas Malvinas e de outras espécies apoiou estas primeiras conclusões. Mas Darwin era sensível em relação aonde essas ideias blasfemas poderiam conduzir: “Tais factos poderiam minar a estabilidade das espécies.”
Outras peças do puzzle
A caminho da América do Sul, em 1831, Darwin tinha lido o primeiro volume de Princípios de Geologia, de Charles Lyell, o qual argumentava contra a história do catastrofismo de Cuvier e a sua teoria da formação dos fósseis. Em vez disso, adaptava as ideias de renovação geológica, apresentadas por James Hutton, numa teoria conhecida como “uniformitarianismo”. A Terra estava continuamente a ser formada, alterada e reformada, ao longo de extensos períodos de tempo, através de processos como a erosão pelas ondas e erupções vulcânicas semelhantes às que ocorriam atualmente. Não havia necessidade de invocar as desastrosas intervenções de Deus.
As ideias de Lyell transformaram o modo como Darwin interpretava as formações paisagísticas, as rochas e os fósseis que encontrou nas suas explorações e que via agora “através dos olhos de Lyell”. No entanto, estando ainda na América do Sul, chegou-lhe o segundo volume de Princípios de Geologia. Nele, Lyell refutava as ideias de evolução gradual das plantas e dos animais, incluindo as teorias de Lamarck. Em vez disso, invocava o conceito de “centros da Criação” para explicar a diversidade e a distribuição das espécies. Embora Darwin admirasse Lyell como geólogo, teve de rejeitar este conceito mais recente à medida que as provas da evolução aumentavam.
Outra peça do puzzle foi revelada em 1838 quando Darwin leu Ensaio sobre o Princípio da População do demógrafo inglês Thomas Malthus, publicado 40 anos antes. Malthus descrevia como as populações humanas podem aumentar de modo exponencial, duplicando potencialmente ao fim de uma geração de 25 anos e depois duplicando novamente na geração seguinte, e assim por diante. Contudo, os recursos alimentares não se podiam expandir do mesmo modo, sendo o resultado uma luta pela existência. As ideias de Malthus foram uma das principais inspirações para a teoria da evolução de Darwin.
Os anos tranquilos
Mesmo antes do regresso do Beagle a Inglaterra, o interesse gerado pelos espécimes que Darwin enviara tinham-no tornado uma celebridade. Depois do seu regresso, os seus relatos científicos e populares da viagem aumentaram-lhe a fama. No entanto, a sua saúde deteriorou-se e ele foi-se afastando gradualmente da exposição pública.
Em 1842, Darwin mudou-se para a tranquilidade de Down House, em Kent, onde continuou a reunir provas para suportar a sua teoria da evolução. Cientistas de todo o mundo enviavam-lhe espécimes e dados. Ele estudou a domesticação de animais e plantas e o papel da seleção artificial, principalmente nos pombos. Em 1855, começou a criar variedades de Columbia livia, ou pombos-das-rochas, que teriam grande destaque nos dois primeiros capítulos de A Origem das Espécies.
Através de seu trabalho com os pombos, Darwin começou a compreender a extensão e a relevância da variação entre os indivíduos. Ele rejeitava o postulado aceite de que os fatores ambientais eram responsáveis por tais diferenças, insistindo em que a reprodução era a causa, sendo a variação, de alguma forma, herdada dos pais. Acrescentou este facto às ideias de Malthus e aplicou-as ao mundo natural.
Muito mais tarde, na sua autobiografia, Darwin recordou a sua reação ao ler Malthus pela primeira vez, em 1838. “Estando bem preparado para apreciar a luta pela existência (...) ocorreu-me de repente que, nestas circunstâncias, as variações favoráveis tenderiam a ser preservadas e as não favoráveis destruídas. O resultado disso seria a formação de novas espécies (...) Eu tinha finalmente uma teoria sobre a qual trabalhar.”
Sabendo mais sobre o papel da variação, em 1856, Darwin, o criador de pombos, podia imaginar a natureza, e não os seres humanos, a fazer as escolhas. Do termo “seleção artificial”, derivou para “seleção natural”.
Empurrado para a ação
A 18 de junho de 1858, Darwin recebeu um pequeno ensaio de um jovem naturalista britânico, chamado Alfred Russel Wallace, que descrevia uma percepção a partir da qual tinha subitamente compreendido como a evolução ocorria e pedia a opinião de Darwin. Este ficou perplexo ao ler que a visão de Wallace era uma réplica quase idêntica das ideias nas quais ele próprio vinha trabalhando há mais de 20 anos.
Preocupado com a precedência, Darwin consultou Charles Lyell e ambos concordaram com uma apresentação conjunta dos artigos de Darwin e Wallace na Linnean Society, em Londres, no dia 1º de julho de 1858. Nenhum dos autores compareceria pessoalmente. A reação do público foi educada, sem clamores de blasfémia. Encorajado, Darwin terminou então o seu livro. Publicado em 24 de novembro de 1859, A Origem das Espécies esgotou no primeiro dia de vendas.
A teoria de Darwin
Darwin afirma que as espécies não são imutáveis. Elas mudam, ou evoluem, e o principal mecanismo para essa mudança é a seleção natural. O processo baseia-se em dois fatores. Primeiro, nascem mais crias do que o número que consegue sobreviver perante os desafios do clima, dos recursos alimentares, da competição, dos predadores e das doenças; isto conduz a uma luta pela existência. Em segundo, há uma variação, às vezes diminuta, mas ainda assim presente, entre os descendentes de uma espécie. Para a evolução, estas variações precisam de cumprir dois critérios. Um: devem ter algum efeito na luta pela sobrevivência e na procriação, ou seja, precisam de ajudar a conferir um sucesso reprodutivo. Dois: devem ser herdadas ou passadas à prole, onde confeririam a mesma vantagem evolutiva.
Darwin descreve a evolução como um processo lento e gradual. À medida que uma população de organismos se adapta a um novo ambiente, torna-se uma espécie nova, diferente dos seus antepassados. Entretanto, esses antepassados podem permanecer na mesma ou podem evoluir em resposta ao seu próprio ambiente em modificação, ou podem perder a luta pela sobrevivência e extinguirem-se.
Impacto
Diante de uma exposição da evolução pela seleção natural tão minuciosa, pensada e assente em provas, a maioria dos cientistas depressa aceitou o conceito de Darwin de “sobrevivência dos mais fortes”. O livro de Darwin foi cauteloso, evitando mencionar os seres humanos em ligação com a evolução, exceto numa única frase: “A luz será lançada sobre a origem do homem e a sua história.” No entanto, houve protestos da Igreja e a implicação clara de que os seres humanos tinham evoluído de outros animais foi ridicularizada em muitos setores.
Darwin — evitando, como sempre, a notoriedade — continuou embrenhado nos seus estudos na Down House. À medida que a controvérsia aumentava, inúmeros cientistas saíram em sua defesa. O biólogo Thomas Henry Huxley foi veemente a apoiar a teoria — e a argumentar em defesa da descendência humana dos macacos —, apelidando-se a si mesmo de “buldogue de Darwin”.
No entanto, o mecanismo pelo qual a herança ocorria — como e por que razão alguns traços são passados adiante e outros não — permanecia um mistério. Coincidentemente, ao mesmo tempo que Darwin publicava o seu livro, um monge chamado Gregor Mendel fazia experiências com ervilhas em Brno (na atual República Checa). O seu trabalho sobre as características herdadas, relatado em 1865, formou a base da genética, mas foi ignorado pela sociedade científica em geral até ao século XX, quando novas descobertas na genética foram integradas na teoria evolutiva, fornecendo um mecanismo para a hereditariedade. O princípio da seleção natural de Darwin permanece crucial para a compreensão do processo.
Há um século e meio, o conceito de previsão meteorológica era considerado pouco mais do que folclore. O homem que mudou isso e que nos deu as previsões meteorológicas modernas foi o oficial naval e cientista britânico capitão Robert FitzRoy.
FitzRoy é mais conhecido hoje em dia como o capitão do Beagle, o navio que levou Charles Darwin na viagem que o conduziu à sua teoria da evolução por seleção natural. Contudo, FitzRoy foi também um cientista notável por mérito próprio.
FitzRoy tinha apenas 26 anos quando zarpou de Inglaterra com Darwin, em 1831. Mas servia já há mais de uma década no mar, tendo estudado no Royal Naval College, em Greenwich, onde foi o primeiro candidato a passar no exame para tenente com nota máxima. Tinha até comandado o Beagle numa viagem de investigação anterior à América do Sul, onde a importância do estudo do tempo o marcou bastante. O seu navio quase se afundara num violento vendaval na costa da Patagônia, depois de ele ter ignorado os sinais de alerta da queda da pressão atmosférica no barômetro da embarcação.
Pioneiros da meteorologia naval
Não é coincidência que muitos dos primeiros avanços na previsão meteorológica tenham vindo de oficiais navais. Saber qual o tempo que os esperava era crucial na época dos navios à vela. Perder um bom vento podia ter enormes consequências financeiras — e ser apanhado no mar por uma tempestade podia ser desastroso.
Dois oficiais navais, em especial, tinham já dado contribuições significativas. Um era o marinheiro irlandês Francis Beaufort, que criara uma escala-padrão para mostrar a velocidade ou “força” do vento relacionada com condições específicas no mar e, mais tarde, em terra. Isto permitiu registar e comparar metodicamente a gravidade das tempestades. A escala ia de 1, indicando uma “brisa ligeira”, a 12, “furacão”. A escala Beaufort foi usada pela primeira vez por FitzRoy, na viagem do Beagle. A partir daí tornou-se regra em todos os diários de bordo navais.
Outro pioneiro da meteorologia naval foi o norte-americano Matthew Maury, que criou mapas de ventos e correntes para o Atlântico Norte, que resultaram em melhorias drásticas nos tempos e segurança das viagens. Também defendeu a criação de um serviço meteorológico internacional para terra e mar e liderou uma conferência em Bruxelas, em 1853, que começou a coordenar as observações sobre as condições no mar em todo o mundo.
O Departamento de Meteorologia
Em 1854, FitzRoy recebeu a tarefa de preparar a contribuição britânica para o Departamento de Meteorologia, mas foi muito além do que era pedido. Começou a perceber que um sistema de observações meteorológicas simultâneas em todo o mundo poderia não só revelar padrões ocultos até então, como ser também usado para fazer previsões meteorológicas.
Os observadores sabiam já que nos furacões tropicais os ventos sopram num padrão circular ou “ciclônico” em redor de uma área central de baixas pressões atmosféricas, ou “depressão”. Em breve se percebeu que a maioria das grandes tempestades que sopram nas latitudes médias apresenta essa forma de depressão ciclônica. Portanto, a direção do vento dá uma pista sobre se a tempestade está a avançar ou a recuar.
Na década de 1850, melhores registos de eventos meteorológicos e a utilização do novo telégrafo elétrico para comunicar a longas distâncias revelaram que as tempestades ciclônicas, que se formam em terra, deslocam-se para leste. Em contraste, os furacões (tempestades tropicais do Atlântico Norte) formam-se sobre a água e migram para oeste. Desse modo, na América do Norte, quando uma tempestade surgia em terra, podia ser enviado um telegrama para alertar locais mais a leste de que havia uma tempestade a caminho. Os observadores já sabiam que uma queda da pressão atmosférica, no barômetro, alertava para uma tempestade. O telégrafo permitiu que essas interpretações fossem rapidamente transmitidas a grandes distâncias, dando assim o alerta com muito maior ante- cedência.
Meteorologia sinóptica
FitzRoy compreendeu que a chave da previsão meteorológica eram as observações sistemáticas da pressão atmosférica, da temperatura e da velocidade e direção do vento, registadas em momentos programados em locais bastante afastados. Quando estas observações eram enviadas via telégrafo para o seu escritório, em Londres, ele podia montar uma imagem ou “sinopse” das condições meteorológicas numa vasta área.
Essa sinopse fornecia um quadro tão completo das condições meteorológicas que não só revelava os padrões meteorológicos atuais em larga escala, como também permitia que esses padrões fossem monitorizados. FitzRoy percebeu que os padrões meteorológicos se repetiam. A partir daqui, compreendeu que era possível decifrar como os padrões meteorológicos se poderiam desenrolar durante um período de tempo curto no futuro, com base na forma como se tinham desenrolado no passado. Isto estabelece a base para uma previsão meteorológica pormenorizada em qualquer ponto da região coberta.
Os valores de observação já eram suficientes, mas FitzRoy também os utilizou para criar o primeiro gráfico meteorológico moderno, o gráfico “sinóptico”, que revelava as formas em remoinho das tempestades ciclônicas tão claramente como as imagens por satélite o fazem hoje. As ideias de FitzRoy foram compiladas no seu livro intitulado simplesmente O Livro do Tempo (1863), que introduziu o termo “previsão” e estabeleceu os princípios da previsão meteorológica moderna.
Um passo crucial foi dividir as Ilhas Britânicas em áreas meteorológicas, comparar as condições meteorológicas atuais e usar os dados meteorológicos de cada área para ajudar nas previsões. FitzRoy recrutou uma rede de observadores, especialmente no mar e nos portos das Ilhas Britânicas. Ele também obteve dados de França e Espanha, onde a ideia da observação meteorológica ganhava raízes. Em poucos anos, a sua rede operava de forma tão eficaz que ele conseguia obter um instantâneo diário dos padrões meteorológicos da Europa Ocidental. Os padrões meteorológicos eram revelados de forma tão clara que ele conseguia, no mínimo, prever as mudanças prováveis ao longo do dia seguinte.
Previsões meteorológicas diárias
Todas as manhãs, os relatórios meteorológicos chegavam ao escritório de FitzRoy vindos de inúmeras estações meteorológicas espalhadas pela Europa Ocidental e, numa hora, a imagem sinóptica tinha sido elaborada. As previsões eram imediatamente despachadas para o jornal The Times para serem publicadas. A primeira previsão foi publicada pelo jornal no dia 1 de agosto de 1861.
FitzRoy montou um sistema de cones sinalizadores, em locais bem visíveis nos portos, para alertar quando uma tempestade se aproximava e de que direção vinha. O sistema funcionou bem e salvou inúmeras vidas.
Contudo, alguns proprietários de navios ressentiram-se com o sistema quando os seus capitães começaram a adiar as partidas no caso de haver um alerta de tempestade. Também houve problemas na difusão das previsões. Eram necessárias 24 horas para se distribuir o jornal, portanto, FitzRoy tinha de fazer previsões não apenas com um dia, mas dois dias de avanço — caso contrário, o tempo já teria passado quando as pessoas lessem a previsão. Tinha a consciência de que as previsões de maior prazo eram muito menos fiáveis e foi frequentemente ridicularizado, especialmente quando o Times se desassociou dos erros.
O legado de FitzRoy
Em 1865, perante um ataque cerrado de pessoas com interesses no assunto, as previsões foram suspensas e FitzRoy cometeu suicídio. Quando se descobriu que gastara a fortuna nas investigações no Departamento de Meteorologia, o governo compensou a família. Contudo, em poucos anos, a pressão dos marinheiros garantiu que o seu sistema de alerta de tempestades voltasse a ser utilizado. Receber as previsões meteorológicas detalhadas e os alertas de tempestades para áreas de navegação específicas é hoje uma parte essencial do dia de um marinheiro.
À medida que as tecnologias de comunicação melhoravam e acrescentavam cada vez mais pormenores aos dados de observação, o sistema de FitzRoy alcançou o seu merecido reconhecimento no século XX.
Previsões meteorológicas modernas
Hoje, o mundo é pontilhado por uma rede de mais de 11 mil estações meteorológicas, além de inúmeros satélites, aviões e embarcações — todos a enviar continuamente informações para um banco mundial de dados meteorológicos. Supercomputadores potentes emitem as previsões, que são, pelo menos no curto prazo, altamente precisas, existindo uma imensa gama de atividades, desde viagens aéreas até eventos desportivos, a depender delas.
A biologia moderna ensina-nos que os organismos vivos só podem surgir de outros organismos vivos, através de um processo de reprodução. Isto talvez possa parecer evidente hoje, porém, quando os princípios básicos da biologia estavam na infância, muitos cientistas aderiram a um conceito chamado “abiogênese” a ideia de que a vida podia gerar-se espontaneamente. Muito depois de Aristóteles declarar que os organismos vivos podiam emergir da matéria em decomposição, alguns acreditavam até em métodos que alegavam gerar criaturas a partir de objetos inanimados. No século XVII, por exemplo, o físico flamengo Jan Baptista von Helmont escreveu que a roupa interior suada e alguns grãos de trigo deixados num frasco ao ar livre davam origem a ratos adultos. A geração espontânea manteve os seus defensores durante ainda grande parte do século XIX. No entanto, em 1859, um microbiólogo francês chamado Louis Pasteur elaborou uma experiência inteligente que refutou essa tese. Durante as suas investigações, ele provou também que as infeções eram causadas por micróbios vivos — os germes.
Antes de Pasteur, suspeitava-se de uma ligação entre a doença ou a putrefação e os organismos, mas esta nunca havia sido substanciada. Até os microscópios provarem o contrário, a existência de entidades vivas tão minúsculas a ponto de serem invisíveis a olho nu parecia algo de fantasioso.
Em 1546, o médico italiano Girolamo Fracastoro descreveu as “sementes de contágio”, aproximando-se da verdade, mas não chegou a afirmar explicitamente que se tratava de coisas vivas e reproduzíveis, e a sua teoria teve pouco impacto. Em vez disso, as pessoas acreditavam que as doenças contagiosas eram causadas por um “miasma” — ou ar nocivo — proveniente da matéria em putrefação. Sem uma ideia clara da natureza dos germes, enquanto micróbios, ninguém podia avaliar adequadamente que a transmissão da infeção e a propagação da vida eram, de facto, os dois lados de uma mesma moeda.
Primeiras observações científicas
No século XVII, os cientistas tentaram descobrir a origem dos animais maiores estudando a reprodução. Em 1661, o médico inglês William Harvey (conhecido pela sua descoberta da circulação do sangue) dissecou uma corça prenhe com o intuito de descobrir a origem do feto e proclamou: “Omme vivum ex ovo” (Toda a vida vem do ovo). Não conseguiu encontrar o ovo da corça em questão, mas pelo menos era uma pista do que estava para vir.
O médico italiano Francesco Redi foi o primeiro a apresentar provas experimentais da impossibilidade da geração espontânea pelo menos em relação aos seres vivos visíveis a olho nu. Em 1668, ele estudou o processo através do qual a carne fica cheia de larvas. Cobriu um pedaço de carne com papel e deixou outro exposto. Só a carne exposta ficou infetada por larvas, porque atraiu moscas que ali depositaram os seus ovos. Redi repetiu a experiência com gaze — que absorveu o odor da carne e atraiu moscas e mostrou que os ovos das moscas tirados do tecido podiam ser depois usados para “semear” larvas em carne não infetada. Redi argumentou que as larvas só podiam ter origem nas moscas, e não espontaneamente. Contudo, a importância da experiência de Redi não foi valorizada, e até o próprio Redi não rejeitou completamente a abiogênese, acreditando que ocorria em determinadas circunstâncias.
Um dos primeiros fabricantes e utilizadores do microscópio para estudos científicos pormenorizados, o cientista holandês Antonie van Leeuwenhoek, mostrou que alguns seres vivos eram tão pequenos que não podiam ser vistos a olho nu — e também que a reprodução dos seres maiores dependia de entidades vivas microscópicas semelhantes, como o esperma.
Contudo, a ideia da abiogênese estava tão profundamente enraizada na mente dos cientistas que muitos ainda pensavam que estes organismos microscópicos eram demasiado pequenos para conter órgãos reprodutivos e, portanto, deviam surgir espontaneamente. Em 1745, o naturalista inglês John Needham propôs-se prová-lo. Ele sabia que o calor podia matar os micróbios, então ferveu um pouco de caldo de carne num frasco — matando, desse modo, os micróbios — e deixou-o arrefecer a seguir. Depois de observar o caldo durante algum tempo, viu que os micróbios tinham regressado. Concluiu que estes tinham surgido espontaneamente no caldo esterilizado. Duas décadas depois, o fisiologista italiano Lazzaro Spallanzani repetiu a experiência de Needham, mas mostrou que os micróbios não voltavam a nascer se retirasse o ar do frasco. Spallanzani achou que o ar tinha “semeado” o caldo, mas os seus críticos afirmaram que, na realidade, o ar era uma “força vital” para a nova geração de micróbios.
Vistos no contexto da biologia moderna, os resultados das experiências de Needham e Spallanzani podem ser facilmente explicados. Embora o calor mate realmente a maioria dos micróbios, algumas bactérias, por exemplo, conseguem sobreviver tornando-se esporos dormentes e resistentes ao calor. E a maioria dos micróbios, tal como a maior parte dos seres vivos, precisa de oxigênio do ar para retirar energia do seu alimento. No entanto, mais importante ainda, experiências como estas eram sempre vulneráveis à contaminação — micróbios microscópicos levados pelo ar podem facilmente colonizar um meio de crescimento, mesmo após uma breve exposição à atmosfera. Assim, na verdade, nenhuma destas experiências tinha abordado a questão da abiogênese de forma conclusiva.
Prova conclusiva
Um século depois, os microscópios e a microbiologia tinham avançado o suficiente para ser possível decidir a questão. A experiência de Louis Pasteur demonstrou que havia micróbios suspensos no ar, prontos a infetar qualquer superfície exposta. Primeiro filtrou o ar usando algodão. Depois analisou os filtros de algodão contaminados e examinou a poeira retida ao microscópio, descobrindo que esta fervilhava com o tipo de micróbios que tinham sido relacionados com o apodrecimento e a putrefação da comida. Parecia que a infeção era causada quando os micróbios caíam literalmente do ar. Esta era a informação essencial de que Pasteur precisava para ter sucesso no próximo passo, quando aceitou um desafio feito pela Academia Francesa de Ciências — refutar definitivamente a ideia de geração espontânea.
Para a sua experiência, Pasteur ferveu um caldo rico em nutrientes — tal como Needham e Spallanzani tinham feito um século antes —, mas, desta vez, fez uma modificação importante no frasco. Aqueceu o gargalo do frasco para amolecer o vidro e depois entortou-o para dar ao tubo a forma de um pescoço de cisne. Depois de arrefecer, o tubo ficou parcialmente voltado para baixo, de modo que os micróbios não poderiam cair no caldo, embora a temperatura fosse agora propícia ao seu crescimento e houvesse oxigênio de sobra, já que o tubo comunicava com o exterior. A única forma de os micróbios poderem voltar a crescer no balão seria espontaneamente e isso não aconteceu.
Como prova final de que os micróbios precisavam de contaminar o caldo pelo ar, Pasteur repetiu a experiência, mas partiu o tubo em forma de pescoço de cisne. O caldo ficou infetado, ele tinha finalmente refutado a geração espontânea e mostrara que toda a vida vem da vida. Era óbvio que os micróbios não podiam surgir espontaneamente em balões de caldo, tal como os ratos não podiam aparecer em frascos sujos.
O regresso da abiogênese
Em 1870, o biólogo inglês Thomas Henry Huxley defendeu o trabalho de Pasteur numa palestra intitulada “Biogênese e Abiogênese”. Foi um golpe esmagador para os últimos devotos da geração espontânea e marcou o nascimento de uma nova biologia, solidamente assente nas disciplinas da teoria celular, da bioquímica e da genética. Por volta da década de 1880, o médico alemão Robert Koch tinha mostrado que a doença do carbúnculo era transmitida por uma bactéria infeciosa.
Contudo, quase um século depois da apresentação de Huxley, a abiogênese regressaria novamente à mente de uma nova geração de cientistas, quando estes começaram a questionar a origem das primeiras formas de vida na Terra. Em 1953, os químicos americanos Stanley Miller e Harold Urey enviaram faíscas elétricas através de uma mistura de água, amoníaco, metano e hidrogênio, para simular as condições atmosféricas do início da vida na Terra. Em poucas semanas tinham criado aminoácidos — os blocos constituintes das proteínas e os componentes químicos essenciais das células vivas. A experiência de Miller e Urey deu lugar a um ressurgimento de trabalhos destinados a mostrar que os organismos podem emergir de matéria não viva, mas desta vez os cientistas estavam equipados com as ferramentas da bioquímica e uma compreensão dos processos ocorridos milhares de milhões de anos antes.
Os primeiros anos do século XIX trouxeram enormes progressos na química, que mudaram fundamentalmente a visão científica da matéria. Em 1803, John Dalton sugeriu que cada elemento era composto por átomos específicos daquele elemento e usou o conceito de peso atômico para explicar como os elementos se combinam sempre uns com os outros em proporções de números inteiros. Jöns Jakob Berzelius estudou 2000 compostos para investigar estas proporções. Foi ele quem inventou o processo de denominação que usamos atualmente — H para hidrogênio, C para carbono e assim por diante — e compilou uma lista de pesos atômicos para os 40 elementos conhecidos na altura. Também cunhou a expressão “química orgânica” para a química dos organismos vivos o termo passou posteriormente a representar a maior parte da química que envolve o carbono. Em 1809, o químico francês Joseph Louis Gay-Lussac explicou como os gases se combinam em proporções simples pelo volume e, dois anos depois, o italiano Amedeo Avogadro sugeriu que volumes iguais de gás contêm um número igual de moléculas. Ficou claro que existiam regras rígidas que governavam a combinação dos elementos.
Os átomos e as moléculas permaneciam como conceitos essencialmente teóricos, que ninguém tinha visto diretamente, mas com um poder explicativo cada vez maior.
Valência
Em 1852, o primeiro passo em direção ao entendimento de como os átomos se combinam entre si foi dado pelo químico inglês Edward Frankland, que introduziu a ideia de valência — o número de átomos com os quais cada átomo de um elemento pode combinar-se. O hidrogênio tem uma valência um; o oxigénio tem uma valência dois. Então, em 1858, o químico britânico Archibald Couper sugeriu que: ligações eram formadas entre átomos de carbono que se uniam entre si e que as moléculas eram cadeias de átomos ligados. Portanto, a água, que é composta por duas partes de hidrogênio e uma de oxigênio, podia ser representada como H2O, ou H-O-H, onde “-“ significa uma ligação. O carbono tem uma valência de quatro, tornando-o tetravalente, portanto, um átomo de carbono pode formar quatro ligações como no metano (CH4), onde os átomos de hidrogênio estão organizados num tetraedro em volta do carbono. (Hoje os químicos veem uma ligação como representando um par de eletrões partilhados por dois átomos e os símbolo H, O e C como representações da par te central do átomo aplicável.)
Na altura, Couper estava a trabalhar num laboratório em Paris. Entretanto, em Heidelberga, na Alemanha August Kekulé tinha tido a mesma ideia, anunciando, em 1857, que o carbono tem uma valência de quatro e, no início de 1858, que os átomos de carbono podem ligar-se uns aos outros. A publicação do estudo de Couper tinha sido adiada, permitindo que Kekulé publicasse um mês antes dele e alegasse prioridade sobre a ideia dos átomos de carbono que se ligam entre si. Kekulé chamou às ligações entre os átomos “afinidades” e explicou as suas ideias em pormenor no seu famoso Manual de Química Orgânica, publicado pela primeira vez em 1859.
Compostos de carbono
Trabalhando em modelos teóricos baseados em provas de reações químicas, Kekulé declarou que os átomos tetravalentes do carbono podiam ligar-se para formar o que ele designou por “esqueleto de carbono”, ao qual outros átomos com outras valências (como o hidrogênio, o oxigênio e o cloro) se podiam ligar. De repente, a química orgânica começava a fazer sentido e os químicos atribuíam fórmulas estruturais a todo o tipo de moléculas.
Hidrocarbonetos simples, como o metano (CH4), o etano (C2H6) e o propano (C3H8), eram agora vistos como cadeias de átomos de carbono, nas quais as valências livres eram ocupadas por átomos de hidrogênio. Fazendo reagir um composto deste tipo com, digamos, o cloro (Cl2), produzia compostos nos quais um ou mais átomos de hidrogênio eram substituídos por átomos de cloro, formando compostos como o clorometano ou o cloroetano. Uma característica desta substituição era que o cloropropano aparecia em duas formas distintas, como 1-cloro-propano ou 2-cloropropano, dependendo se o cloro se ligava ao átomo de carbono central ou a um dos átomos de carbono das pontas (ver o diagrama acima). Alguns compostos precisam de ligações duplas para satisfazer as valências dos átomos: a molécula de oxigénio (O2), por exemplo, e a molécula de etileno (C2H4). O etileno reage com o cloro, e o resultado não é substituição, mas adição. O cloro adiciona-se à ligação dupla para compor o 1,2-dicloroetano (C2H4Cl2). Alguns compostos têm até ligações triplas, incluindo a molécula de nitrogénio (N2) e o acetileno (C2H2), que é altamente reativo e utilizado nos maçaricos de soldadura de exiacetileno.
No entanto, o benzeno permanecia uma incógnita. Ganhou a fórmula de C6H6, mas é muito menos reativo do que o acetileno, embora ambos os compostos tenham números iguais de átomos de carbono e hidrogênio. Elaborar uma estrutura linear que não fosse altamente reativa era um verdadeiro enigma. Tinham claramente de existir ligações duplas, mas a sua organização era um mistério.
Além disso, o benzeno reage com o cloro, embora não por adição (como o etileno), mas por substituição: um átomo de cloro substitui um átomo de hidrogénio. Quando um dos átomos de hidrogénio do benzeno é substituí- do por um átomo de cloro, o resultado é apenas um composto único C6H5Cl, o clorobenzeno. Isto parecia mostrar que todos os átomos de carbono eram equivalentes, já que o átomo de cloro pode ligar-se a qualquer um deles.
Anéis de benzeno
A solução para o dilema da estrutura do benzeno surgiu a Kekulé em 1865, num sonho. A resposta era um anel de átomos de carbono sendo todos os seis átomos iguais, com um átomo de hidrogênio ligado a cada um deles. Isto significava que o cloro no cloro-benzeno podia ligar-se em qualquer lugar do anel.
Um apoio adicional a esta teoria veio da substituição do hidrogénio, duas vezes, para formar o diclorobenzeno (C6H4CL2). Se o benzeno é um anel de seis membros, com todos os átomos de carbono iguais, devem existir três formas distintas, ou “isômeros”, deste composto — os dois átomos de cloro podiam estar em átomos de carbono adjacentes, em átomos de carbono separados por outro átomo de carbono ou em lados opostos do anel. Era esse o caso e os três isómeros foram designados por orto-, meta- e para-diclorobenzeno, respetivamente.
Estabelecer simetria
Permanecia um mistério ainda relativamente à simetria observada do anel de benzeno. Para satisfazer a sua tetravalência, cada átomo de carbono deveria ter quatro ligações com outros átomos. Isto significava que todos tinham uma ligação “livre”. A princípio, Kekulé desenhou ligações alternadas simples e duplas em volta do anel, mas quando ficou claro que o anel tinha de ser simétrico, sugeriu que a molécula oscilava entre as duas estruturas.
O eletrão só foi descoberto em 1896. A ideia de que as ligações se formam através da partilha de eletrões foi proposta, pela primeira vez, pelo químico americano G. N. Wilson, em 1916. Na década de 1930, Linus Pauling utilizou então a mecânica quântica para explicar que os seis eletrões livres no anel de benzeno não estão localizados nas ligações duplas, mas deslocados em redor do anel e são partilhados igualmente pelos átomos de carbono, de modo que as ligações carbono-carbono não são nem simples nem duplas, mas de 1,5 (veja pp. 254-59). Seriam precisas estas novas ideias da física para que se decifrasse finalmente o enigma da estrutura da molécula de benzeno.
Sonho inspirador
O relato de Kekulé do seu sonho é uma das narrativas pessoais sobre um lampejo de inspiração mais citadas da ciência. Parece que ele estava num estado hipnagógico — prestes a adormecer; aquele estado onde a realidade e a imaginação se fundem. Descreveu-o como “Halbschlaf”, ou meio a dormir. Na realidade, descreve dois sonhos desse tipo: o primeiro, provavelmente em 1855, num autocarro no sul de Londres em direção a Clapham Road. “Os átomos flutuavam diante dos meus olhos. Eu vira sempre essas minúsculas partículas em movimento, mas nunca tinha conseguido perceber como se moviam. Hoje, vi a frequência com que dois mais pequenos se fundiam num par; como os maiores engoliam dois mais pequenos e outros ainda maiores se ligavam a três e até a quatro dos mais pequenos.”
A segunda ocasião foi no seu escritório em Ghent, na Bélgica, possivelmente inspirado pelo antigo símbolo do Ouroboros: uma serpente a morder a própria cauda. “A mesma coisa aconteceu com a teoria do anel de benzeno (...) Virei a cadeira para a lareira e caí num estado lânguido (...) os átomos flutuavam diante dos meus olhos (...) Fileiras compridas, ligando-se frequentemente de modo mais denso; tudo em movimento, revolvendo-se e rodando como serpentes. E, de repente, o que era aquilo? Uma das cobras mordia a própria cauda e a imagem rodopiava, zombeteira, diante dos meus olhos.”
Na história da compreensão científica, um dos maiores mistérios naturais era o mecanismo da hereditariedade. O fator hereditariedade era conhecido desde que as pessoas notaram as semelhanças entre os membros de uma família. As implicações práticas estavam por todo o lado — desde a criação agrícola e do gado até ao conhecimento de que certas doenças, como a hemofilia, podiam ser transmitidas aos filhos. Mas ninguém sabia como isso sucedia.
Os filósofos gregos achavam que havia algum tipo de essência, ou “princípio” material, que era passado de pais para filhos. Os pais transmitiam o princípio à geração seguinte durante a relação sexual; pensava-se que tinha origem no sangue e que os princípios paternos e maternos se misturavam para fazer uma nova pessoa. Esta ideia persistiu durante séculos — principalmente porque ninguém se lembrou de nada melhor, porém, quando chegou a Charles Darwin, as suas fragilidades básicas tornaram-se demasiado óbvias. A teoria da evolução por seleção natural de Darwin propunha que as espécies mudavam ao longo de muitas gerações — e, ao fazê-lo, davam origem à diversidade biológica. Mas se a hereditariedade assentava na mistura de princípios químicos, certamente a diversidade biológica diluir-se-ia até deixar de existir? Seria como misturar tintas de cores diferentes e acabar com cinzento. As adaptações e novidades sobre as quais a teoria de Darwin se baseava não persistiriam.
A descoberta de Mendel
A grande descoberta no entendimento da hereditariedade chegou quase um século antes de a estrutura química do ADN ser estabelecida menos de uma década depois de Darwin ter publicado A Origem das Espécies. Gregor Mendel, um monge agostiniano de Brno, foi um professor, cientista e matemático que obteve êxito onde muitos naturalistas mais conhecidos falharam. Foram talvez as competências de Mendel na matemática e na teoria das probabilidades que fizeram a diferença.
Mendel realizou experiências com a ervilha comum, Pisum sativum. Esta planta apresenta diversas variações identificáveis, como a altura, a cor da flor e a cor e o formato da semente. Mendel começou por analisar a hereditariedade de uma característica de cada vez e aplicou a sua mente matemática aos resultados. Ao cruzar plantas de ervilhas, facilmente cultiváveis nos terrenos do mosteiro, ele podia desenvolver uma série de experiências para obter dados significativos.
Mendel tomou precauções cruciais no seu trabalho. Reconhecendo que as características podem saltar e ocultar-se durante gerações, teve o cuidado de começar com plantas de ervilha “puras” — como as plantas de flores brancas que só produzem descendência de flores brancas. Cruzou plantas de flores brancas puras com plantas de flores roxas puras, plantas altas puras com plantas baixas puras, e assim por diante. Em todos os casos, controlou também a fertilização com precisão: usando pinças, transferia o pólen de botões ainda fechados para impedir que estes se espalhassem indiscriminadamente. Realizou essas experiências de reprodução muitas vezes e documentou os números e as características das plantas na geração seguinte e na depois dessa. Descobriu que as variedades alternadas (como as flores roxas e as flores brancas) eram herdadas em proporções fixas. Na primeira geração apenas nascia uma variedade, como a flor roxa; na segunda geração, essa variedade representava três quartos dos descendentes. Mendel designou essa variedade por dominante e deu à outra o nome de variedade recessiva. Neste caso, as flores brancas eram recessivas e representavam um quarto da segunda geração de plantas. Para cada característica — alta/baixa, cor da semente; cor da flor; formato da semente — era possível identificar as variedades dominantes e recessivas de acordo com estas proporções.
A conclusão-chave
Mendel foi mais longe e testou a hereditariedade de duas características simultaneamente como a cor da flor e da semente. Descobriu que os descendentes acabavam com combinações diferentes dos traços e, mais uma vez, estas combinações ocorriam em proporções fixas. Na primeira geração, todas as plantas tinham ambas as características dominantes (flor roxa, semente amarela), mas na segunda geração havia uma mistura de combinações. Por exemplo, 1/16 das plantas tinha a combinação com ambos os traços recessivos (flor branca, semente verde). Mendel concluiu que as duas características eram herdadas independentemente uma da outra. Ou seja, a herança da cor da flor não tinha efeito na herança da cor da semente, e vice-versa. O facto de a hereditariedade ser exatamente proporcional desta forma, levou Mendel a concluir que não se devia à mistura de princípios químicos vagos, mas que ocorria por causa de “partículas” individuais. Havia partículas que controlavam a cor da flor, partículas para a cor da semente, e assim por diante. Estas partículas eram transferidas intactas das plantas originais para as filhas, o que explicava por que razão os traços recessivos podiam ocultar os seus efeitos e saltar uma geração: um traço recessivo só se mostrava se a planta herdasse duas doses idênticas da partícula envolvida. Hoje, reconhecemos essas partículas como os genes.
Gênio reconhecido
Mendel publicou os resultados das suas descobertas num jornal de história natural em 1866, mas o seu trabalho não teve impacto no mundo científico. A natureza esotérica do seu título — Experiências na Hibridização de Plantas — talvez tenha restringido o público leitor, mas, de qualquer modo, demorou mais de 30 anos para Mendel ser devidamente reconhecido pelo que fizera. Em 1900, o botânico holandês Hugo de Vries publicou os resultados de experiências de cruzamento de plantas semelhantes aos de Mendel — incluindo a corroboração da proporção de 3 para 1. De Vries declarou depois que Mendel fora pioneiro nessa descoberta.
Alguns meses depois, o botânico alemão Carl Correns descreveu explicitamente o mecanismo da hereditariedade de Mendel. Entretanto, em Inglaterra incentivado pela leitura dos estudos de De Vries e Correns — um biólogo de Cambridge, William Bateson, leu pela primeira vez o estudo original de Mendel e reconheceu imediatamente a sua importância. Bateson viria a tornar-se um defensor das ideias mendelianas, acabando por cunhar o termo “genética” para este novo campo da biologia. Postumamente, o monge agostiniano era finalmente reconhecido.
Por essa altura, trabalhos de outros tipos nos campos da biologia celular e bioquímica estavam a conduzir os biólogos por novos caminhos de investigação. Os microscópios substituíam as experiências de cruzamento de plantas, à medida que os cientistas procuravam pistas olhando para dentro das células. Os biólogos do século XIX tinham um palpite de que a chave para a hereditariedade residia no núcleo da célula. Desconhecendo o trabalho de Mendel, o alemão Walther Flemming identificou, em 1878, as estruturas filiformes do núcleo da célula que se moviam durante a divisão celular. Deu-lhes o nome de cromossomas, que significava “corpo colorido”. Alguns anos depois da redescoberta do trabalho de Mendel, os biólogos tinham demonstrado que as “partículas da hereditariedade” de Mendel eram reais e transmitidas pelos cromossomas
O aperfeiçoamento das leis da hereditariedade
Mendel tinha estabelecido duas leis da hereditariedade. Primeiro, as proporções fixas das características nos descendentes levaram-no a concluir que as partículas da hereditariedade vinham em pares. Havia um par de partículas para a cor da flor, um par para a cor da semente, e assim por diante. Os pares eram formados na fertilização, vindo uma partícula de cada um dos progenitores — e separavam-se novamente quando a nova geração se reproduzia, para formar as suas próprias células sexuais. Se as partículas que se juntavam eram de variedades diferentes (como as das flores roxas e brancas), apenas a partícula dominante seria expressa.
Na terminologia moderna, as diferentes variedades dos genes têm o nome de alelos. A primeira lei de Mendel ficou conhecida como a lei da segregação, porque os alelos segregam-se para formar as células sexuais. A segunda lei de Mendel surgiu quando ele considerou duas características. A lei da distribuição independente sugere que os genes relevantes de cada traço são herdados independentemente.
A escolha das plantas feita por Mendel acabou por ser fortuita. Sabemos agora que as características da Pisum sativum seguem os padrões mais simples da hereditariedade. Cada característica — como a cor da flor está sob o controlo de um único tipo de gene que apresenta variedades diferentes (alelos). No entanto, muitas características biológicas — como a altura dos seres humanos — são o resultado da interação de muitos genes distintos.
Além disso, os genes que Mendel estudou eram herdados independentemente. Trabalhos posteriores mostrariam que os genes podem ficar lado a lado dentro do mesmo cromossoma. Cada cromossoma contém centenas ou milhares de genes numa cadeia de ADN. Os pares de cromossomas separam-se para criar as células sexuais e o cromossoma é então transmitido inteiro. Isto significa que a herança de traços, controlados por genes diferentes no mesmo cromossoma, não é independente. Cada característica da ervilha estudada por Mendel decorre de um gene num cromossoma separado. Se estivessem no mesmo cromossoma, os seus resultados teriam sido mais complexos e difíceis de interpretar.
No século XX, a investigação viria revelar exceções às leis de Mendel. À medida que os cientistas iam mais fundo no comportamento de genes e cromossomas, confirmavam que a hereditariedade pode ocorrer de formas mais complicadas do que as descobertas por Mendel. Contudo, essas descobertas acrescentavam, em vez de contradizerem, as descobertas de Mendel, as quais estabeleceram a base da genética moderna.
Em 1859, Charles Darwin descreveu a sua teoria da evolução por seleção natural. Nos debates acalorados que se seguiram, Thomas Henry Huxley foi o mais formidável defensor das ideias de Darwin, ganhando a alcunha de “buldogue de Darwin”. Ainda mais importante, o biólogo britânico fez um trabalho pioneiro sobre um princípio central nas provas que sustentavam as teorias de Darwin — a ideia de que os pássaros e os dinossauros são parentes próximos.
Se a teoria de Darwin de que as espécies se transformam gradualmente noutras era verdadeira, então os registos fósseis deviam mostrar como espécies muito diferentes tinham divergido de antepassados muito semelhantes. Em 1860, um fóssil extraordinário foi encontrado no calcário de uma pedreira na Alemanha. Datava do Período Jurássico e foi batizado com o nome de Archaeopteryx lithographica. Com asas e penas como as de um pássaro, mas da época dos dinossauros, parecia ser um exemplo do elo perdido entre as espécies que a teoria de Darwin previa.
No entanto, uma amostra não era suficiente para provar a ligação entre os pássaros e os dinossauros, e o Archaeopteryx podia simplesmente ser um dos primeiros pássaros, em vez de um dinossauro com penas. Mas Huxley começou a estudar atentamente a anatomia tanto dos pássaros como dos dinossauros e, para ele, as provas eram conclusivas.
Um fóssil transicional
Huxley comparou o Archaeopteryx com outros dinossauros e descobriu que este era muito parecido com os pequenos Hypsilophodon e Compsognathus. A descoberta, em 1875, de um fóssil mais completo do Archaeopteryx, desta vez com dentes de dinossauro, pareceu confirmar a ligação.
Huxley passou a acreditar que havia um elo evolutivo entre os pássaros e os dinossauros, mas não achava que pudesse ser encontrado um antepassado comum. O que lhe importava eram as semelhanças bastante claras. Como os répteis, os pássaros possuem escamas — as penas são simplesmente evoluções das escamas — e põem ovos. Também possuem inúmeras semelhanças na estrutura óssea.
Mas a ligação entre dinossauros e pássaros permaneceu em disputa durante mais um século. Então, na década de 1960, estudos do ágil e elegante predador Deinonychus (um parente do Velociraptor) começaram finalmente a convencer muitos paleontólogos do elo entre os pássaros e estes microrraptores (pequenos dinossauros predadores). Nos últimos anos, uma série de descobertas de fósseis de pássaros antigos e dinossauros semelhantes a pássaros, na China, reforçou a ligação — incluindo a descoberta, em 2005, de um pequeno dinossauro com patas forradas de penas, o Pedopenna. Também nesse ano, um estudo revelador sobre o ADN extraído de tecidos fossilizados de um Tyrannosaurus rex mostrou que os dinossauros são geneticamente mais parecidos com os pássaros do que com outros répteis.
Em 1661, o físico anglo-irlandês Robert Boyle definiu os elementos como “certos corpos primitivos e simples ou perfeitamente não misturados; que, não sendo feitos de quaisquer outros corpos, nem uns dos outros, são os ingredientes pelos quais todos aqueles corpos considerados perfeitamente misturados são imediatamente compostos e dentro dos quais são em última análise resolvidos”. Por outras palavras, um elemento não pode ser decomposto quimicamente em substâncias mais simples. Em 1803, o químico britânico John Dalton introduziu a ideia de pesos atômicos (hoje designados por massas atômicas relativas) para esses elementos. O hidrogênio é o elemento mais leve e ele atribuiu-lhe o valor 1, que ainda utilizamos hoje.
Lei de oito
Na primeira metade do século XIX, os químicos isolaram gradualmente mais elementos e tornou-se claro que certos grupos de elementos possuíam propriedades semelhantes. Por exemplo, o sódio e o potássio são sólidos prateados (metais alcalinos), que reagem violentamente com a água, libertando o gás hidrogénio. De facto, são tão parecidos que o químico britânico Humphry Davy não os distinguiu quando os descobriu. Do mesmo modo, os elementos de halogêneo cloro e bromo são ambos agentes oxidantes venenosos de cheiro acre, embora o cloro seja um gás e o bromo um líquido. O químico britânico John Newlands notou que quando os elementos conhecidos eram listados por ordem crescente do seu peso atômico, os elementos semelhantes ocorriam a cada oito lugares. Newlands publicou as suas descobertas em 1864.
No jornal Chemical News, Newlands escreveu: “Elementos pertencentes ao mesmo grupo surgem na mesma linha horizontal. Do mesmo modo, os números de elementos semelhantes diferem em sete ou múltiplos de sete (...) Proponho chamar a esta relação peculiar Lei das Oitavas.” Os padrões na sua tabela faziam sentido até ao cálcio, mas depois tornavam-se desordenados. A 1º de março de 1865, Newlands foi ridicularizado pela Chemical Society, que disse que mais valia listar os elementos por ordem alfabética e recusou-se a publicar o seu trabalho. A importância do feito de Newlands só seria reconhecida mais de 20 anos depois. Entretanto, o mineralogista francês Alexandre-Émile Béguyer de Chancourtois também vira os padrões, publicando as suas ideias em 1862, mas poucas pessoas notaram.
Charada de cartas
Por volta da mesma altura, Dmitri Mendeleev debatia-se com o mesmo problema, enquanto escrevia o seu livro Princípios de Química, em São Petersburgo. Em 1863, existiam 56 elementos conhecidos e eram descobertos elementos novos à razão de um por ano. Mendeleev estava convencido de que tinha de existir um padrão. Num esforço para solucionar o enigma, fez um baralho de 56 cartas, cada uma com o nome e as principais propriedades de um elemento.
Diz-se que Mendeleev fez a sua descoberta quando estava prestes a embarcar numa viagem de inverno, em 1868. Antes de partir, colocou as cartas na mesa e começou a pensar no mistério, como se estivesse a jogar um jogo de paciência. Quando o seu cocheiro se aproximou da porta para levar a bagagem, Mendeleev dispensou-o, dizendo que estava ocupado. Foi mudando as cartas de um lugar para o outro, até conseguir organizar finalmente os 56 elementos como queria, com os grupos semelhantes dispostos verticalmente. No ano seguinte, Mendeleev leu um estudo perante a Sociedade Química Russa, declarando que: “Se organizados segundo o seu peso atômico, os elementos exibem uma periodicidade aparente de propriedades.” Explicou então que os elementos com propriedades químicas semelhantes têm pesos atômicos quase do mesmo valor (como o potássio, o irídio e o ósmio) ou que aumentam com regularidade (como o potássio, o rubídio e o césio). Explicou ainda que a organização dos elementos em grupos por ordem dos seus pesos atômicos corresponde à sua valência — o número de ligações que os átomos podem formar com outros átomos.
Prever novos elementos
No seu estudo, Mendeleev fez uma previsão ousada: “Devemos esperar a descoberta de muitos elementos ainda desconhecidos — por exemplo, dois elementos análogos ao alumínio e ao silício, cujos pesos atômicos estarão entre 65 e 75”.
A organização de Mendeleev incluía avanços cruciais sobre as Oitavas de Newlands. Por baixo do boro e do alumínio, Newlands colocara o crômio, o que fazia pouco sentido. Mendeleev pensou que tinha de existir um elemento ainda não descoberto e previu que iria ser encontrado um com um peso atômico de cerca de 68. Formaria um óxido (um composto formado por um elemento com o oxigênio) com a fórmula química de M2O3 onde “M” é o símbolo do novo elemento. Esta fórmula significava que dois átomos do novo elemento se combinariam com três átomos de oxigénio para formar o óxido. Previu mais dois elementos para preencher outros espaços: um com um peso atômico de cerca de 45, formando o óxido M2O3 e o outro com um peso atómico de 72, formando o óxido MO2.
Os críticos estavam céticos, mas Mendeleev fizera afirmações muito específicas e uma maneira eficaz de sustentar uma teoria científica é fazer previsões que sejam provadas verdadeiras. Neste caso, o elemento gálio (peso atómico de 70, formando o óxido Ga2O3) foi descoberto em 1875; o escândio (peso atómico de 45, Sc2O3), em 1879; e o germânio (peso atómico de 73, GeO2), em 1886. Estas descobertas estabeleceram a reputação de Mendeleev.
Erros na tabela
Mas Mendeleev cometeu alguns erros. No seu estudo de 1869, afirmou que o peso atômico do telúrio tinha de estar incorreto: deveria situar-se entre 123 e 126, porque o peso atômico do iodo é 127, e o iodo devia, segundo as suas propriedades, seguir claramente o telúrio na tabela. Estava errado o peso atômico relativo do telúrio é, na verdade, de 127,6; superior ao do iodo. Uma anomalia semelhante ocorre entre o potássio (peso atómico de 39) e o árgon (p.a. 40), onde o árgon precede claramente o potássio na tabela-, mas Mendeleev não tinha noção desses problemas em 1869, porque o árgon só foi descoberto em 1894. O árgon é um dos gases nobres, que são incolores, inodoros e quase não reagem com outros elementos. Difíceis de detectar, nenhum dos gases nobres era conhecido na altura, portanto, não havia espaço para eles na tabela de Mendeleev. No entanto, quando o árgon surgiu, passou a haver vários outros espaços para preencher e, por volta de 1898, o químico escocês William Ramsay tinha isolado o hélio, o néon, o crípton e o xénon. Em 1902, Mendeleev incorporou os gases nobres na sua tabela, como o Grupo 18, e essa versão da tabela forma a base da tabela periódica que usamos atualmente.
A anomalia dos pesos atómicos “errados” foi resolvida em 1913 pelo físico britânico Henry Moseley, que usou raios X para determinar o número de protões no núcleo de cada átomo de um dado elemento. Isto passou a ser designado por “número atômico do elemento” e é este número que determina a posição do elemento na tabela periódica. O facto de os pesos atômicos terem resultado numa aproximação precisa deu-se porque, para os elementos mais leves, o peso atômico é quase (mas não exatamente) o dobro do número atômico.
Usar a tabela
A tabela periódica dos elementos pode parecer apenas um sistema de catalogação uma forma simples de ordenar os elementos, mas tem uma importância muito maior, tanto na química como na física. Permite aos químicos prever as propriedades de um elemento e tentar variações nos processos; por exemplo, se uma reação específica não funciona com o crômio, talvez funcione com o molibdénio, o elemento que está logo abaixo do crómio na tabela.
A tabela foi também crucial na procura pela estrutura do átomo. Por que razão as propriedades dos elementos se repetiam nestes padrões? Por que razão eram os elementos do Grupo 18 tão pouco reativos, enquanto os elementos nos grupos de ambos os lados eram os mais reativos de todos? Tais questões conduziram diretamente à imagem da estrutura do átomo, aceite desde então.
Mendeleev teve, até certo ponto, sorte em ter recebido o crédito pela sua tabela. Não só publicou as suas ideias depois de Béguyer e Newlands, como também o químico alemão Lothar Meyer, que comparou o peso atômico com o volume atômico para mostrar a relação periódica entre os elementos, se antecipou a ele, publicando o seu trabalho em 1870. Tal como acontece frequentemente na ciência, a época estava pronta para uma determinada descoberta e várias pessoas chegaram independentemente à mesma conclusão, ignorando o trabalho uns dos outros.
As séries de equações diferenciais que descrevem o comportamento dos campos eletromagnéticos, desenvolvidas pelo físico escocês James Clerk Maxwell ao longo das décadas de 1860 e 1870, são merecidamente consideradas um dos maiores feitos da história da física. Uma descoberta verdadeiramente transformadora; não só revolucionaram a forma como os cientistas viam a eletricidade, o magnetismo e a luz, como também estabeleceram as regras básicas para um estilo inteiramente novo de física matemática. Isto teve consequências importantíssimas no século XX, oferecendo hoje esperança para uma unificação da nossa compreensão do Universo numa “Teoria de Tudo” abrangente.
O efeito de Faraday
A descoberta do físico dinamarquês Hans Christian Ørsted, em 1820, de uma ligação entre a eletricidade e o magnetismo abriu caminho para um século de tentativas para se descobrir as ligações e interconexões entre fenômenos aparentemente não relacionados. Também inspirou uma descoberta importante de Michael Faraday. Hoje em dia, Faraday é talvez conhecido sobretudo pela invenção do motor elétrico e pela descoberta da indução eletromagnética, mas foi uma descoberta menos celebrada que forneceu o ponto de partida a Maxwell.
Durante duas décadas, Faraday tentara, entre outras coisas, encontrar uma ligação entre a luz e o eletromagnetismo. Então, em 1845, elaborou uma experiência engenhosa, que resolveu a questão de uma vez por todas. A experiência envolvia passar um feixe de luz polarizada (na qual as ondas oscilam numa única direção, algo facilmente criado quando se reflete um raio de luz numa superfície refletora lisa) através de um campo magnético potente e testar o ângulo de polarização no outro lado com uma lente ocular especial. Faraday descobriu que, girando a orientação do campo magnético, conseguia afetar o ângulo de polarização da luz. Baseado nessa descoberta, Faraday argumentou, pela primeira vez, que as ondas de luz eram algum tipo de ondulação nas linhas de força segundo as quais ele interpretava o fenômeno eletromagnético.
Teorias de eletromagnetismo
Contudo, embora Faraday fosse um experimentalista brilhante, foi necessário o gênio de Maxwell para dar a esta ideia intuitiva uma base teórica sólida. Maxwell abordou o problema pela direção oposta, descobrindo o elo entre a eletricidade, o magnetismo e a luz, quase por acidente.
A principal preocupação de Maxwell era explicar como é que funcionavam as forças eletromagnéticas envolvidas em fenômenos como a indução de Faraday — onde um íman em movimento induz uma corrente elétrica. Faraday tinha inventado a ideia engenhosa de “linhas de força”, que se espalhavam em anéis concêntricos em volta de correntes elétricas em movimento ou que emergiam e regressavam aos polos de imanes. Quando os condutores elétricos se moviam em relação a estas linhas, as correntes fluíam dentro deles. Tanto a densidade das linhas de força como a velocidade do movimento relativo influenciavam a força da corrente.
Porém, embora as linhas de força fossem úteis para a compreensão do fenômeno, não tinham uma existência física os campos elétricos e magnéticos fazem sentir a sua presença em todos os pontos do espaço dentro do seu intervalo de influência, e não apenas quando são traçadas determinadas linhas. Os cientistas que tentaram descrever a física do eletromagnetismo tendiam a pertencer a uma destas duas escolas: os que viam o eletromagnetismo como um tipo de “ação à distância”, semelhante ao modelo da gravidade de Newton, e os que acreditavam que o eletromagnetismo se propagava em ondas pelo espaço. Em geral, os apoiantes da “ação à distância” vinham da Europa continental e seguiam as teorias do pioneiro do estudo da eletricidade André-Marie Ampère (p. 120), enquanto os que acreditavam nas ondas eram tendencialmente britânicos. Uma forma clara de distinguir as duas teorias básicas era que a ação à distância ocorreria instantaneamente, enquanto as ondas levariam inevitavelmente algum tempo para se propagarem no espaço.
Os modelos de Maxwell
Maxwell começou a desenvolver a sua teoria do eletromagnetismo em dois estudos publicados em 1855 e 1856, os quais foram tentativas de modelar geometricamente as linhas de força de Faraday, em termos do fluxo num (hipotético) fluido incompressível. Obteve um sucesso relativo e, em estudos subsequentes, tentou uma abordagem alternativa, modelando o campo como uma série de partículas e vórtices giratórios. Por analogia, Maxwell conseguiu demonstrar a lei do circuito de Ampère, que relaciona a corrente elétrica que atravessa um circuito condutor com o campo magnético em seu redor. Maxwell também mostrou que, neste modelo, as mudanças no campo eletromagnético se propagariam a uma velocidade finita (se elevada).
Maxwell derivou um valor aproximado para a velocidade de propagação de cerca de 310 700 km/s. Este valor era tão próximo da velocidade da luz, conforme medido em numerosas experiências, que ele percebeu imediatamente que a intuição de Faraday sobre a natureza da luz devia estar correta. No último estudo da série, Maxwell descreveu como o magnetismo podia afetar a orientação de uma onda eletromagnética, conforme visto no efeito de Faraday.
Desenvolver equações
Satisfeito por os fundamentos da sua teoria estarem corretos, Maxwell começou, em 1864, a estabelecer uma base matemática sólida. Em Teoria Dinâmica do Campo Eletromagnético, Maxwell descreveu a luz como um par de ondas transversais, uma elétrica e outra magnética, orientadas perpendicularmente entre si e sincronizadas em fase de modo tal que as mudanças no campo elétrico reforçam o campo magnético e vice-versa (a orientação da onda elétrica é aquela que normalmente determina a polarização global da onda). Na última parte do seu artigo apresentou uma série de 20 equações, que davam uma descrição matemática completa do fenómeno eletromagnético em termos de potenciais elétricos e magnéticos por outras palavras, a quantidade de energia potencial elétrica ou magnética que um ponto de carga experimentaria num ponto específico do campo eletromagnético.
Maxwell mostrou depois como as ondas eletromagnéticas, que se deslocavam à velocidade da luz, surgiam naturalmente das equações, resolvendo aparentemente o debate sobre a natureza do eletromagnetismo de uma vez por todas.
Resumiu o seu trabalho sobre o assunto em Tratado sobre Eletricidade e Magnetismo, em 1873, mas, por mais convincente que a teoria fosse, esta permanecia por provar quando Maxwell morreu, já que o comprimento de onda curto e a elevada frequência das ondas de luz, tornavam as suas propriedades impossíveis de medir. No entanto, oito anos depois, em 1887, o físico alemão Heinrich Hertz forneceu a última peça do puzzle (e fez uma descoberta tecnológica enorme) ao conseguir produzir uma forma de onda eletromagnética muito diferente com baixas frequências e de comprimentos de onda longos, mas com a mesma velocidade global de propagação — a forma de eletromagnetismo conhecida hoje como ondas de rádio.
Heaviside dá sua contribuição
Por altura da descoberta de Hertz tinha havido um outro desenvolvimento importante que produziu finalmente as equações de Maxwell tal como as conhecemos hoje.
Em 1884, um engenheiro elétrico, matemático e físico britânico, chamado Oliver Heaviside — um gênio autodidata que já tinha patenteado o cabo coaxial para a transmissão eficiente de sinais elétricos —, elaborou uma forma de transformar os potenciais das equações de Maxwell em vetores. Estes eram valores que descreviam tanto o valor como a direção da força experimentada por uma carga num dado ponto de um campo eletromagnético. Ao descrever a direção das cargas em todo o campo, em vez de apenas a sua força em pontos individuais, Heaviside reduziu uma dúzia das equações originais a apenas quatro, tornando-as muito mais úteis para aplicações práticas. A contribuição de Heaviside está, em geral, esquecida hoje, mas é ao seu conjunto de quatro equações elegantes que damos o nome de Maxwell.
Embora o trabalho de Maxwell tenha esclarecido muitas questões relativamente à natureza da eletricidade, do magnetismo e da luz, também serviu para realçar alguns mistérios notáveis. Talvez o mais significativo de todos seja a natureza do meio através do qual as ondas eletromagnéticas se deslocavam — por que, certamente, as ondas de luz, como todas as outras, exigiam esse meio? A busca para medir este denominado “éter luminoso” viria a dominar a física no final do século XIX, levando ao desenvolvimento de algumas experiências engenhosas. O fracasso continuado da sua detecção criou uma crise na física, que viria a preparar o caminho para as revoluções paralelas do século XX: a teoria quântica e a relatividade.
Como muitas descobertas científicas, os raios X foram observados primeiro por cientistas que estudavam outra coisa — neste caso, a eletricidade. Um arco elétrico produzido artificialmente (uma descarga reluzente a saltar entre dois elétrodos) foi observado pela primeira vez em 1838, por Michael Faraday. Este passou uma corrente elétrica através de um tubo de vidro, que tinha sido parcialmente esvaziado de ar. O arco estendeu-se a partir do elétrodo negativo (o cátodo) até ao elétrodo positivo (ânodo).
Raios catódicos
Esta organização de elétrodos dentro de um recipiente selado tem o nome de tubo de descarga. Até à década de 1860, o físico britânico William Crookes tinha desenvolvido tubos de descarga quase isentos de ar. O físico alemão Johann Hittorf usou estes tubos para medir a capacidade de transporte de eletricidade de átomos e moléculas carregados. Não havia arcos reluzentes entre os elétrodos nos tubos de Hittorf, mas os próprios tubos de vidro reluziam. Hittorf concluiu que os “raios” deviam ter vindo do cátodo, ou elétrodo negativo. Estes foram denominados raios catódicos pelo colega de Hittorf, Eugen Goldstein, mas, em 1897, o físico britânico J. J. Thomson mostrou que se tratava de feixes de eletrões.
Descobrir os raios X
Durante as suas experiências, Hittorf notou que as placas fotográficas na sala estavam a ficar embaciadas, mas não investigou esse efeito. Outros observaram efeitos semelhantes, mas Wilhelm Röntgen foi o primeiro a investigar a causa descobrindo que se tratava de um raio que conseguia atravessar várias substâncias opacas. A seu pedido, as suas notas de laboratório foram queimadas depois da sua morte, portanto, não podemos ter a certeza de como ele descobriu esses “raios X”, mas pode tê-los primeiro observado quando notou que um ecrã brilhava perto do seu tubo de descarga, embora o tubo estivesse coberto por um cartão preto. Röntgen abandonou a sua experiência original e passou os dois meses seguintes a investigar as propriedades desses raios invisíveis, ainda designados por raios Röntgen em muitos países. Hoje sabemos que os raios X são uma forma de radiação eletromagnética de ondas curtas. Têm um comprimento de onda que varia entre 0,01-10 nanômetros (um milionésimo de milímetro). Em contraste, a luz visível está no intervalo de 400-700 nanômetros.
Usar os raios X atualmente
Hoje em dia, os raios X são produzidos disparando um feixe de eletrões contra um alvo metálico. Atravessam alguns materiais melhor do que outros e podem ser usados para formar imagens do interior do corpo ou detectar metais em recipientes fechados. Em imagens por TC (tomografia computadorizada), um computador compila uma série de imagens de raios X para formar uma imagem em 3D do interior do corpo.
Os raios X podem também ser usados para formar imagens de objetos muito pequenos, tendo os microscópios por raios X sido desenvolvidos na década de 1940. A resolução de imagem possível quando se utilizam microscópios de luz é limitada pelo comprimento de onda da luz visível. Com as suas ondas muito mais curtas, os raios X podem ser usados para formar imagens de objetos bastante mais pequenos. A difração dos raios X pode ser usada para calcular como os átomos se organizam num cristal — técnica que se provou crucial na elucidação da estrutura do ADN.
Os tremores causados pelos sismos espalham-se sob a forma de ondas sísmicas, que podemos detectar usando sismógrafos. Enquanto trabalhava no Geological Survey of India, entre 1879 e 1903, Richard Dixon Oldham registou o levantamento de um terramoto que atingiu Assam em 1897. Foi nesse trabalho que ele deu a sua maior contribuição para a teoria das placas tectônicas. Oldham notou que o sismo tinha três fases de movimento, as quais ele assumiu representarem três tipos de ondas. Duas delas eram ondas de “propagação” que se deslocavam através da Terra. O terceiro tipo era uma onda que percorria a superfície da Terra.
Efeitos em ondas
As ondas de propagação que Oldham identificou são hoje conhecidas por ondas P e ondas S (primárias e secundárias conforme a ordem em que chegam ao sismógrafo). As ondas P são longitudinais; à medida que passam, as rochas são deslocadas para trás e para a frente, na mesma direção do movimento das ondas. As ondas S são transversais (como as ondas na superfície da água); as rochas são deslocadas para o lado, em relação à direção da onda. As ondas P deslocam-se mais depressa do que as ondas S e podem viajar através de sólidos, líquidos ou gases. As ondas S só se podem deslocar através de materiais sólidos.
Zonas de sombras
Mais tarde, Oldham estudou os registos sísmicos de muitos terramotos por todo o mundo e notou que havia uma “zona de sombra” da onda P, que se estendia parcialmente em volta da Terra a partir da localização do terramoto. Praticamente nenhuma onda P do sismo era detectada nessa zona. Oldham sabia que a velocidade a que as ondas sísmicas se deslocam dentro da Terra depende da densidade das rochas. Concluiu que as propriedades das rochas mudam com a profundidade e as mudanças resultantes na velocidade causam refração (as ondas seguiam caminhos curvos). A zona de sombra é, portanto, causada por uma súbita mudança nas propriedades das rochas, no interior da Terra.
Hoje sabemos que existe uma zona de sombra bastante maior para as ondas S, que se estende ao longo da maior parte do hemisfério oposto ao foco do terramoto. Isto indica que o interior da Terra tem propriedades muito diferentes das do seu manto. Em 1926, o geofísico americano Harold Jeffreys usou esta prova das ondas S para sugerir que o núcleo da Terra é líquido, já que as ondas S não conseguem atravessar líquidos. A zona de sombra da onda P não é completamente “sombreada” já que são detectadas algumas ondas P ali. Em 1936, a sismóloga dinamarquesa Inge Lehmann interpretou essas ondas P como reflexos de um núcleo interior sólido. Este é o modelo da Terra que usamos hoje: um núcleo interior sólido rodeado por líquido e depois o manto com as rochas da crosta por cima.
Tal como muitas grandes descobertas científicas, a radiação foi descoberta por acaso. Em 1896, o físico francês Henri Becquerel estava a investigar a fosforescência, que ocorre quando a luz atinge uma substância que depois emite uma luz de cor diferente. Becquerel queria saber se os minerais fosforescentes também emitiam raios X, os quais tinham sido descobertos por Wilhelm Röntgen um ano antes. Para o descobrir, colocou um desses minerais sobre uma placa fotográfica embrulhada em papel preto grosso e expôs ambos à luz do Sol. A experiência funcionou a placa escureceu; o mineral parecia ter emitido raios X. Becquerel também mostrou que os metais bloqueavam os “raios” que causavam o escurecimento da placa. O dia seguinte esteve nublado, portanto, não foi possível repetir a experiência. Ele deixou o mineral sobre uma placa fotográfica numa gaveta, mas a placa escureceu, mesmo sem a luz do Sol. Percebeu que o mineral devia ter uma fonte interna de energia, sendo esta o resultado da desintegração dos átomos de urânio no mineral que ele estava a usar. Becquerel tinha detectado a radioatividade.
Raios produzidos por átomos
No seguimento da descoberta de Becquerel, a sua aluna de doutoramento polaca, Marie Curie, decidiu investigar estes novos “raios”. Usando um eletrômetro — um dispositivo de medição das correntes elétricas, ela descobriu que o ar em volta de uma amostra de um mineral contendo urânio estava a transportar eletricidade. O nível de atividade elétrica dependia apenas da quantidade de urânio presente, e não da massa total do mineral (que incluía outros elementos, além do urânio). Isso levou-a a acreditar que a radioatividade vinha dos próprios átomos de urânio, e não de quaisquer reações entre o urânio e outros elementos.
Curie depressa descobriu que alguns minerais que continham urânio eram mais radioativos do que o próprio urânio e perguntou-se se esses minerais conteriam outra substância — mais ativa do que o urânio. Em 1898, tinha identificado o tório como outro elemento radioativo. Apressou-se a apresentar as suas descobertas num artigo à Académie des Sciences, mas a descoberta das propriedades radioativas do tório já tinha sido publicada.
A dupla científica
Curie e seu marido Pierre trabalharam juntos para descobrir os elementos radioativos adicionais responsáveis pela elevada atividade dos minerais ricos em urânio, pecheblenda e calcolite. No final de 1898, tinham anunciado a descoberta de dois novos elementos, que designaram por polônio (em honra do país natal dela, a Polônia) e rádio. Tentaram provar as suas descobertas obtendo amostras puras dos dois elementos, mas só em 1902 conseguiram obter 0,1 gramas de cloreto de rádio a partir de uma tonelada de pecheblenda.
Durante este período, os Curie publicaram dezenas de artigos, incluindo um que descrevia a sua descoberta de que o rádio podia ajudar a destruir tumores. Eles não patentearam estas descobertas, mas, em 1902, foram galardoados com o Nobel da Física, juntamente com Becquerel. Marie continuou o seu trabalho científico após a morte do marido, em 1906, e conseguiu isolar uma amostra de rádio puro, em 1910. Em 1911, recebeu o Prêmio Nobel da Química, tornando-se a primeira pessoa a ganhar ou partilhar dois prêmios.
O novo modelo do átomo
A descoberta da radiação pelos Curie abriu caminho para que os dois físicos neozelandeses Ernest Rutherford e Ernest Marsden formulassem o seu novo modelo do átomo, em 1911, mas só em 1932 é que o físico inglês James Chadwick descobriu os neutrões e o processo da radiação pôde ser completamente explicado. Os neutrões e os protões, que têm carga positiva, são partículas subatômicas que compõem o núcleo de um átomo, o qual também possui eletrões de carga negativa à sua volta. Os protões e os neutrões contribuem com praticamente toda a massa do átomo. Os átomos de um elemento específico têm sempre o mesmo número de protões, mas podem ter um número diferente de neutrões. Átomos com um número de neutrões diferente são designados por isótopos do elemento. Por exemplo, um átomo de urânio tem sempre 92 protões no seu núcleo, mas pode ter entre 140 e 146 neutrões. Estes isótopos são denominados segundo o número total de protões e neutrões, portanto, o isótopo de urânio mais comum, com 146 neutrões, é escrito como urânio-238 (i.e. 92 +146).
Muitos elementos pesados, como o urânio, têm núcleos instáveis, o que leva à desintegração radioativa espontânea. Rutherford designou as emissões de elementos radioativos por raios alfa, beta e gama. O núcleo torna-se mais estável ao emitir uma partícula alfa, uma partícula beta ou radiação gama. Uma partícula alfa é composta por dois protões e dois neutrões. As partículas beta podem ser eletrões ou os seus opostos, positrões, emitidos pelo núcleo quando um protão se transforma num neutrão ou vice-versa. As desintegrações alfa e beta alteram ambas o número de protões no núcleo do átomo em desintegração, de modo que este se torna um átomo de um elemento diferente. Os raios gama são uma forma de radiação eletromagnética de ondas curtas de elevada potência e não mudam a natureza do elemento.
A desintegração radioativa é diferente do processo de fissão, que ocorre no interior de reatores nucleares, e do processo de fusão que dá a energia ao Sol. Na fissão, um núcleo instável como o do uranio-235 é bombardeado por neutrões e fragmenta-se para formar átomos mais pequenos, libertando energia no processo. Na fusão, dois núcleos pequenos combinam-se para formar um maior. A fusão também liberta energia, mas as elevadas temperaturas e as pressões exigidas para iniciar o processo explicam por que razão os cientistas só alcançaram a fusão sob a forma de armas nucleares. Até agora, as tentativas de se usar fusão nuclear para gerar eletricidade consomem mais energia do que a que geram.
Semivida
À medida que um material radioativo se desintegra, os átomos do elemento radioativo alteram-se para outros elementos e, portanto, o número de átomos instáveis diminui com o tempo. Quanto menos átomos instáveis existirem, menos radioatividade será gerada. A redução na atividade de um isótopo radioativo é medida pela sua semivida. Esse é o tempo que demora para que a atividade diminua em metade, ou seja, o tempo que o número de átomos instáveis numa amostra demoram a reduzir-se a metade. Por exemplo, o isótopo tecnécio-99m é amplamente usado em medicina e tem uma semivida de seis horas. Isto significa que, seis horas depois de uma dose ser injetada num paciente, a atividade estará em metade do seu nível original; 12 horas depois da injeção, a atividade estará num quarto do nível original, e assim por diante. Em contraste, o urânio-235 tem uma semivida de mais de 700 milhões de anos.
Datação pela radioatividade
Esta ideia da semivida pode ser usada para datar minerais e outros materiais. Muitos elementos radioativos diferentes, com semividas conhecidas, podem ser usados para o fazer, mas um dos mais conhecidos é o carbono. O isótopo mais comum de carbono é o carbono-12, com 6 protões e 6 neutrões em cada átomo. O carbono-12 representa 99 por cento do carbono encontrado na Terra e tem um núcleo estável. Uma minúscula porção do carbono é o carbono-14, com dois neutrões extra. Este isótopo instável tem uma semivida de 5730 anos. O carbono-14 está constantemente a ser produzido na atmosfera superior, à medida que os átomos de nitrogénio são bombardeados por raios cósmicos. Isto significa que há uma proporção relativamente constante de carbono-12 para o carbono-14 na atmosfera. Como as plantas absorvem o dióxido de carbono da atmosfera pela fotossíntese e a nossa alimentação é composta por plantas (ou animais que comeram plantas), também existe uma proporção relativamente constante nas plantas e nos animais enquanto estes estão vivos, embora o carbono-14 esteja constantemente em desintegração. Quando um organismo morre, já não é absorvido mais carbono-14 pelo corpo, mas o carbono-14 lá existente continua a desintegrar-se. Ao medirem a proporção entre o carbono-12 e o carbono-14 no corpo, os cientistas podem calcular há quanto tempo o organismo morreu.
Este método radiométrico é usado para datar madeira, carvão, ossos e conchas. Existem variações naturais nas proporções de isótopos de carbono, mas as datas podem ser comparadas com outros métodos de datação, como os anéis nos troncos das árvores, e as correções aplicadas a objetos de idade semelhante.
Um tratamento milagroso
Curie percebeu que a radioatividade tinha utilização medicinal. Durante a Primeira Guerra Mundial, usou uma pequena quantidade de rádio, que tinha extraído, para produzir gás rádon (um gás radioativo produzido quando o rádio se desintegra). Este era selado em tubos de vidro e inserido no corpo dos pacientes para matar o tecido doente. Era encarado como uma cura milagrosa e até anunciado em tratamentos de beleza para ajudar a refirmar a pele envelhecida. Só mais tarde foi reconhecida a importância da utilização de materiais com uma semivida curta.
Os isótopos radioativos são também generalizadamente usados em imagiologia médica para diagnosticar doenças e no tratamento do cancro. Os raios gama são usados para esterilizar instrumentos cirúrgicos e até alimentos, aumentando o seu prazo de validade. Os emissores de raios gama podem ser usados na inspeção interna de objetos metálicos, para detecção de fendas, ou na inspeção de contentores de carga para identificar contrabando.
Hoje em dia, a palavra “vírus” é um termo médico bastante familiar e muitas pessoas compreendem a ideia de que os vírus são os mais pequenos dos agentes, ou germes, prejudiciais que causam infeções nos seres humanos, outros animais, plantas e fungos.
No entanto, no final do século XIX, o termo vírus estava a iniciar o seu caminho na ciência e na medicina. Foi sugerido, em 1898, pelo microbióogo holandês Martinus Beijerinck para uma nova categoria de agentes causadores de doenças contagiosas. Beijerinck tinha um interesse especial por plantas e um talento para a microscopia. Fez experiências com plantas de tabaco afetadas pela doença do mosaico, um efeito de manchas descoloradas nas folhas dispendioso para a indústria do tabaco. Os seus resultados levaram-no a aplicar o termo “vírus” — já utilizado ocasionalmente para substâncias tóxicas ou venenosas — aos agentes contagiosos causadores da doença.
Na altura, a maioria dos contemporâneos de Beijerinck, na ciência e na medicina, ainda se debatia com a compreensão das bactérias. Louis Pasteur e o físico alemão Robert Koch tinham sido os primeiros a isolá-las e identificá-las como causadoras de doenças na década de 1870 e muitas outras estavam a ser constantemente descobertas.
Um método comum, na época, de testar a existência de bactérias era passar um líquido contendo o contágio suspeito através de vários conjuntos de filtros. Um dos mais conhecidos era o filtro Chamberland, inventado em 1884 por Charles Chamberland, um colega de Pasteur. Este usava os poros minúsculos na porcelana não vidrada para captar partículas pequenas como as bactérias.
Demasiado pequeno para ser filtrado
Vários investigadores tinham suspeitado da existência de uma categoria de agentes infeciosos, ainda mais pequenos do que as bactérias, capazes de transmitir doenças. Em 1892, o botânico russo Dmitri Ivanovsky realizou testes no mosaico do tabaco, mostrando que o seu agente infecioso passava através dos filtros. Ele verificou que, neste caso, o agente infecioso não podia ser uma bactéria, mas não prosseguiu a investigação para descobrir o que poderia ser.
Beijerinck repetiu a experiência de Ivanovsky. Também ele constatou que o mosaico do tabaco continuava presente, mesmo depois de o sumo espremido das folhas ter sido filtrado. De facto, a princípio achou que a causa fosse o próprio fluido, o qual designou por contagium vivum fluidium (fluido vivo contagioso). Demonstrou ainda que o contágio presente no fluido não podia ser cultivado em géis ou caldos de laboratório, nem em nenhum organismo hospedeiro. Tinha de infetar o seu próprio hospedeiro vivo, para se multiplicar e propagar a doença.
Embora os vírus não pudessem ser vistos através dos microscópios óticos da época, nem cultivados através dos métodos habituais de laboratório ou detectados por nenhuma das técnicas microbiológicas habituais, Beijerinck percebeu que eles existiam realmente. Insistiu em que eram causadores de doenças, impulsionando a microbiologia e a ciência médica para uma nova era. Foi só em 1939, com a ajuda dos microscópios eletrônicos, que o vírus do mosaico do tabaco se tornou o primeiro a ser fotografado.
Em dezembro de 1900, o físico teórico alemão Max Planck apresentou um artigo demonstrando o seu método de resolução de um conflito teórico antigo. Ao fazê-lo, deu um dos maiores saltos conceptuais da história da física. O trabalho de Planck marcou o ponto de viragem entre a mecânica clássica de Newton e a mecânica quântica. A certeza e a precisão da mecânica newtoniana viriam a dar lugar a uma descrição incerta e probabilística do Universo.
A teoria quântica tem as suas raízes no estudo da radiação térmica, um fenômeno que explica por que razão sentimos o calor do fogo, mesmo quando o ar que nos separa dele é frio. Todos os objetos absorvem e emitem radiação eletromagnética. Se a sua temperatura sobe, o comprimento de onda da radiação que emite diminui, enquanto a sua frequência aumenta. Por exemplo, um pedaço de carvão à temperatura ambiente emite energia abaixo da frequência da luz visível, no espectro do infravermelho. Não conseguimos ver a emissão, portanto, o carvão parece preto. No entanto, quando acendemos o carvão, ele emite uma radiação de frequência mais elevada, reluzindo em vermelho-escuro à medida que as emissões entram no espectro visível, depois num branco quente e finalmente um azul brilhante. Objetos extremamente quentes, como as estrelas, irradiam uma luz ultravioleta de comprimento de onda mais curto e raios X, os quais, novamente, não conseguimos ver. Mas, além de produzir radiação, um corpo também a reflete, e é essa luz refletida que dá a cor aos objetos, mesmo quando estes não brilham.
Em 1860, o físico alemão Gustav Kirchhoff pensou num conceito idealizado, a que chamou “corpo negro perfeito”. Esta é uma superfície teórica, que, quando em equilíbrio térmico (sem aquecer ou arrefecer), absorve cada frequência de radiação eletromagnética que recai sobre ela, não refletindo nenhuma radiação. O espectro de radiação térmica emitida por esse corpo é “puro”, já que não é misturado com nenhuma reflexão — será apenas o resultado da própria temperatura do corpo. Kirchhoff acreditava que tal “radiação de corpo negro” é fundamental na natureza — o Sol, por exemplo, aproxima-se de ser um objeto de corpo negro, cujo espectro emitido é quase inteiramente o resultado da sua própria temperatura. O estudo da distribuição da luz de um corpo negro mostraria que a emissão de radiação dependia apenas da temperatura de um corpo, e não da sua forma física ou da composição química. A hipótese de Kirchhoff deu o mote para um novo programa experimental destinado a encontrar uma estrutura teórica que descrevesse a radiação dos corpos negros.
Entropia e corpos negros
Planck chegou a esta nova teoria quântica através do insucesso da física clássica em explicar os resultados experimentais da distribuição da radiação dos corpos negros. Boa parte do trabalho de Planck focou-se na segunda lei da termodinâmica, que tinha identificado como um “absoluto”. Esta lei afirma que os sistemas isolados se deslocam com o tempo em direção a um estado de equilíbrio termodinâmico (todas as partes do sistema têm a mesma temperatura).
Planck tentou explicar o padrão de radiação térmica de um corpo negro desvendando a entropia do sistema. A entropia é uma medida de desordem, embora seja mais rigorosamente definida como uma contagem de número de modos pelos quais um sistema se pode organizar. Quanto mais alta for a entropia de um sistema, mais formas o sistema terá de se organizar e produzir o mesmo padrão geral. Por exemplo, imagine uma sala onde todas as moléculas de ar começam aglomeradas num canto do teto. Há mais modos de as moléculas se organizarem para que exista mais ou menos a mesma quantidade delas em cada centímetro cúbico da sala do que aqueles para que todas fiquem no canto do teto. Com o passar do tempo, elas distribuem-se igualmente pela sala, à medida que a entropia do sistema aumenta. Uma pedra angular da segunda lei da termodinâmica é que a entropia só funciona numa direção. A caminho do equilíbrio térmico, a entropia de um sistema aumenta sempre ou permanece constante. Planck argumentou que este princípio deveria ser evidente em qualquer modelo teórico de corpo negro.
A lei de Wien-Planck
Na década de 1890, experiências em Berlim aproximaram-se do corpo negro perfeito de Kirchhoff usando a chamada “radiação de cavidade”. Um buraco pequeno numa caixa mantida a uma temperatura constante é uma boa aproximação de um corpo negro, já que qualquer radiação que entre na caixa fica presa lá dentro e as emissões do corpo são puramente um resultado da sua temperatura.
Os resultados experimentais incomodaram Wilhelm Wien, um colega de Planck, já que as emissões de baixa frequência registadas não se encaixavam de modo nenhum com as suas equações para a radiação. Algo estava errado. Em 1899, Planck chegou a uma equação revista — a lei de Wien-Planck — que procurava uma melhor descrição do espectro da radiação térmica de um corpo negro.
Catástrofe ultravioleta
Um ano depois, surgiu outro desafio, quando os físicos britânicos Lorde Rayleigh e Sir James Jeans mostraram como a física clássica previa uma distribuição absurda da energia na emissão de corpos negros. A lei de Rayleigh-Jeans previa que, à medida que a frequência da radiação aumentava, a energia que ela emitia cresceria exponencialmente. Esta “catástrofe ultravioleta” era tão radicalmente incongruente com as descobertas experimentais que a teoria clássica deve ter ficado seriamente abalada. Se estivesse correta, seria emitida uma dose mortal de radiação ultravioleta sempre que se acendesse uma lâmpada.
Planck não se incomodou muito com a lei de Rayleigh-Jeans. Estava mais preocupado com a lei de Wien-Planck, a qual, mesmo na sua forma revista, não encaixava com os dados: descrevia com precisão o espectro de ondas curtas (elevada frequência) da emissão térmica dos objetos, mas não as emissões de ondas longas (baixa frequência). Foi neste ponto que Planck rompeu com o seu conservadorismo e recorreu à abordagem probabilística de Ludwig Boltzmann para chegar a uma nova expressão da sua lei de radiação. Boltzmann tinha formulado uma nova forma de encarar a entropia ao considerar um sistema como uma grande coleção de átomos e moléculas independentes.
Embora a segunda lei da termodinâmica continuasse válida, a interpretação de Boltzmann dava-lhe uma verdade probabilística em vez de absoluta. Consequentemente, observamos a entropia apenas porque ela é esmagadoramente mais provável do que a alternativa. Um prato parte-se, mas não se refaz, ainda que não haja nenhuma lei absoluta impedindo que o prato se refaça — é apenas extremamente improvável que isso aconteça.
Quantum de ação
Planck usou a interpretação estatística de Boltzmann da entropia para chegar a uma nova expressão da lei da radiação. Se imaginasse a radiação térmica como sendo produzida por “osciladores” individuais, ele precisava de contar as formas pelas quais uma dada energia poderia ser distribuída entre eles.
Para o fazer, Planck dividiu a energia total por uma quantidade definida de pedaços finitos de energia — um processo designado por “quantização”. Planck era um violoncelista e pianista talentoso e talvez tenha imaginado esses quanta da mesma forma que a corda vibrante de um instrumento tem à sua disposição um número fixo de harmonias. A equação resultante era simples e encaixava-se nos dados experimentais. A introduzir os quanta de energia, reduzia o número de estados de energia disponíveis no sistema e, ao fazê-lo (embora esse não fosse o seu objetivo), Planck resolveu a catástrofe ultravioleta. Ele encarava os seus quanta como uma necessidade matemática — um “truque” — em vez de algo real. Mas quando Albert Einstein usou o conceito para explicar o efeito fotoelétrico, em 1905, insistiu em que os quanta eram uma propriedade real da luz.
Planck passou o resto da vida a debater-se com a aceitação das consequências do seu próprio trabalho. Embora nunca tivesse tido dúvidas relativamente ao impacto revolucionário do que fizera, foi — segundo o historiador James Franck — “um revolucionário contra a sua própria vontade”. Não gostava das consequências das suas equações, já que frequentemente estas apresentavam descrições da realidade física que colidiam com a nossa experiência diária do mundo. Mas, para o melhor e o pior, depois de Max Planck, o mundo da física nunca mais foi o mesmo.
A descoberta, na viragem para o século XX, de que o componente base da matéria — o átomo podia ser fragmentado em partículas mais pequenas foi um momento decisivo para a física. Essa descoberta surpreendente revolucionou as ideias sobre a constituição da matéria e as forças que a sustentam e ao Universo. Revelou um mundo inteiramente novo, ao nível subatiómico — um mundo que exigia uma física nova para descrever as suas interações —, e uma série de pequenas partículas que preenchiam esse domínio infinitesimamente pequeno.
As teorias atômicas têm uma longa história. O filósofo grego Demócrito desenvolveu a ideia dos primeiros pensadores de que tudo é composto por átomos. A palavra grega “átomos”, atribuída a Demócrito, significa “indivisível” e refere-se às unidades básicas da matéria. Demócrito achava que os materiais deviam refletir os átomos dos quais são feitos — portanto, os átomos de ferro são sólidos e fortes, enquanto os da água são suaves e escorregadios.
Na viragem para o século XIX, O filósofo naturalista inglês John Dalton propôs uma nova teoria atómica baseada na sua “lei das proporções múltiplas”, que explicava como os elementos (substâncias simples e não combinadas) se combinam sempre em proporções simples e de números inteiros. Dalton viu que isto significava que uma reação química entre duas substâncias não é mais do que a fusão de pequenos componentes individuais, repetida inúmeras vezes. Esta foi a primeira teoria atômica moderna.
Uma ciência estável
Era detectável um clima de autocongratulação na física no final do século XIX. Certos físicos eminentes fizeram declarações pomposas, dando a entender que o assunto estava praticamente terminado que as descobertas principais tinham sido feitas e que o programa do futuro seria aperfeiçoar a precisão das quantidades conhecidas “até à sexta casa decimal”. No entanto, muitos físicos de investigação da altura sabiam que não era bem assim. Era já óbvio que estavam a enfrentar um conjunto completamente novo e estranho de fenômenos que desafiavam as explicações.
Em 1896, Henri Becquerel, seguindo a descoberta de Wilhelm Röntgen dos misteriosos raios X no ano anterior, encontrou uma radiação inexplicável. O que eram essas novas radiações e de onde vinham? Becquerel supôs corretamente que esta radiação emanava do interior dos sais de urânio. Quando Pierre e Marie Curie estudaram a desintegração do rádio, descobriram uma fonte constante e aparentemente inesgotável de energia dentro dos elementos radioativos. Se fosse esse o caso, derrubaria várias leis fundamentais da física. O que quer que essas radiações fossem, era claro que existiam grandes lacunas nos modelos existentes.
A descoberta do eletrão
No ano seguinte, o físico britânico Joseph John (J. J.) Thomson causou sensação quando demonstrou que podia arrancar pedaços dos átomos. Enquanto investigava os “raios” que emanavam de cátodos de alta voltagem (elétrodos de carga negativa), descobriu que este tipo específico de radiação era composto por “corpúsculos” individuais, já que criava pontos de centelha de luz momentâneos quando atingia um ecrã fosforescente; tinha carga negativa, já que um feixe podia ser desviado por um campo elétrico; e era extremamente leve, pesando menos de um milésimo do átomo mais leve, o hidrogênio. Além disso, o peso do corpúsculo era o mesmo, independentemente do elemento usado como fonte. Thomson tinha descoberto o eletrão. Estes resultados eram totalmente inesperados, em teoria. Se um átomo contém partículas carregadas, por que razão não podiam as partículas opostas ter uma massa igual? As teorias atômicas anteriores afirmavam que os átomos eram blocos sólidos. Condizente com o seu estatuto de componentes mais básicos da matéria, eram integrais, inteiros e perfeitos. Mas, quando vistos à luz da descoberta de Thomson, eram claramente divisíveis. Todas juntas, estas novas radiações levantavam a suspeita de que a ciência não conseguira compreender os componentes vitais da matéria e da energia.
O modelo do “pudim de ameixas”>
A descoberta do eletrão por Thomson rendeu-lhe o Prémio Nobel da Física, em 1906. Mas Thomson era de tal forma teórico que considerou necessário um novo modelo radical do átomo para incorporar de forma adequada a sua descoberta. A sua resposta, produzida em 1904, foi o modelo do “pudim de ameixas”. Os átomos não possuem uma carga elétrica global e, como a massa deste novo eletrão era pequena, Thomson pressupôs que uma esfera maior com carga positiva continha a maior parte da massa do átomo e que os eletrões estavam incrustados nela como as ameixas na massa de um pudim de Natal. Sem provas que sugerissem o contrário, fazia sentido admitir que os pontos de carga, como as ameixas num pudim, eram arbitrariamente distribuí- dos pelo átomo.
A revolução Rutherford
Contudo, as partes de carga positiva do átomo recusavam-se terminantemente a revelar-se e a caça à localização do membro perdido do par atômico iniciou-se. Essa busca resultou numa descoberta que viria a produzir uma visualização muito diferente da estrutura interna da unidade básica de todos os elementos.
Nos Laboratórios de Física da Universidade de Manchester, Ernest Rutherford elaborou e dirigiu uma experiência para testar o modelo do “pudim de ameixas” de Thomson. Este neozelandês carismático era um experimentalista talentoso, com um sentido apurado para os pormenores que deviam ser procurados. Rutherford tinha recebido o Nobel da Física, em 1908, pela sua teoria da desintegração atômica.
A teoria propunha que as radiações emanadas dos elementos radioativos eram o resultado da ruptura dos seus átomos. Com o químico Frederick Soddy, Rutherford tinha demonstrado que a radioatividade envolvia um elemento que se transformava espontaneamente noutro. O seu trabalho era sugerir novos meios de sondar o interior do átomo e ver o que havia lá dentro.
Radioatividade
Embora a radioatividade tivesse sido inicialmente encontrada por Becquerel e pelos Curie, foi Rutherford quem identificou e batizou os três tipos diferentes daquilo a que hoje chamamos radiação nuclear. Estes são as partículas “alfa” positivas, pesadas e de movimento lento; as partículas “beta” negativas e velozes; e a radiação “gama” sem carga, mas altamente energética (p. 194). Rutherford classificou estas formas diferentes de radiação segundo o seu poder de penetração, partindo das partículas alfa menos penetrantes, que são bloqueadas por papel fino, aos raios gama, que exigem uma espessura de chumbo para serem detidos. Foi o primeiro a usar partículas alfa para explorar o reino atômico. Foi também o primeiro a descrever o conceito de semivida radioativa e a descobrir que as “partículas alfa” eram núcleos de hélio — átomos destituídos de eletrões
A experiência da folha de ouro
Em 1909, Rutherford decidiu sondar a estrutura da matéria usando particulas alfa. No ano anterior, juntamente com o alemão Hans Geiger, tinha desenvolvido “telas de cintilação” de sulfureto de zinco, que possibilitavam a contagem das colisões individuais de partículas alfa como breves lampejos reluzentes ou cintilações. Com a ajuda do estudante universitário Ernest Marsden, Geiger usaria estas telas para determinar se a matéria era infinitamente divisível ou se os átomos continham os blocos constituintes fundamentais.
Dispararam um feixe de partículas alfa a partir de uma fonte de rádio contra uma folha de ouro extremamente fina, com cerca de apenas mil átomos de espessura. Se, como estipulava o modelo do pudim de ameixas, os átomos de ouro fossem compostos por uma nuvem difusa de carga positiva com pontos de carga negativa, então as partículas alfa maciças e de carga positiva atravessariam diretamente a folha. A maioria das partículas seria apenas ligeiramente desviada pela interação com os átomos do ouro, espalhando-se em ângulos rasos.
Geiger e Marsden passaram longas horas sentados no laboratório escurecido, espreitando pelos microscópios e contando os minúsculos lampejos de luz nas telas de cintilação. Então, agindo por instinto, Rutherford instruiu-os a posicionar telas que pudessem captar qualquer desvio em ângulos agudos, assim como as cintilações já esperadas de ângulos rasos. Com as novas telas no lugar, eles descobriram que algumas das partículas alfa estavam a ser desviadas em mais de 90° e outras estavam a ricochetear na folha, voltando para trás. Rutherford descreveu o resultado como se disparasse um projétil de 40 cm contra um lenço de papel e ele ricocheteasse.
O átomo nuclear
Travar partículas alfa pesadas ou desviá-las em ângulos agudos só seria possível se a carga positiva e a massa do átomo estivessem concentradas num pequeno volume. Diante desses resultados, Rutherford publicou em 1911 a sua concepção da estrutura do átomo. O “modelo de Rutherford” é um sistema solar em miniatura, com eletrões a orbitar um núcleo pequeno, denso e de carga positiva. A principal inovação do modelo era o núcleo infinitesimamente pequeno, que forçava a desconfortável conclusão de que o átomo não é nada sólido. A matéria, a uma escala atômica, é principalmente composta por um espaço governado por energia e força. Essa foi uma ruptura definitiva em relação às teorias atómicas do século anterior.
Embora o átomo “pudim de ameixas” de Thomson tivesse sido um sucesso instantâneo, o modelo de Rutherford foi amplamente ignorado pela comunidade científica. As suas falhas eram demasiado óbvias. Era bem sabido que cargas elétricas aceleradas emitem energia sob a forma de radiação eletromagnética. Dessa forma, conforme os eletrões giram em volta do núcleo — experimentando uma aceleração circular que os mantém nas suas órbitas —, eles deveriam emitir continuamente radiação eletromagnética. Perdendo energia permanentemente enquanto orbitam, os eletrões entrariam numa espiral inexorável em direção ao núcleo. Segundo o modelo de Rutherford, os átomos deviam ser instáveis, mas claramente não o são.
Um átomo quântico
O físico dinamarquês Niels Bohr salvou o modelo do átomo de Rutherford de definhar na obscuridade ao aplicar ideias novas sobre a quantização à matéria. A revolução quântica tinha começado em 1900, quando Max Planck propôs a quantização da radiação, mas o campo estava ainda a dar os primeiros passos em 1913 — seria preciso esperar até à década de 1920 para se ter um enquadramento matemático formalizado da mecânica quântica. Na altura em que Bohr trabalhava neste problema, a teoria quântica consistia essencialmente em nada mais do que o conceito de Einstein de que a luz surge em minúsculos quanta (pacotes discretos de energia), aos quais hoje chamamos fotões. Bohr procurou explicar o padrão preciso de absorção e emissão de luz dos átomos. Sugeriu que cada eletrão está confinado a órbitas fixas em “camadas” atômicas e que os níveis de energia das órbitas são “quantizados” — ou seja, só podem assumir determinados valores específicos.
Neste modelo orbital, a energia de qualquer eletrão individual está intimamente relacionada com a sua proximidade ao núcleo do átomo. Quanto mais próximo um eletrão está do núcleo, menos energia tem, mas pode ser excitado a níveis maiores de energia absorvendo radiação eletromagnética de um determinado comprimento de onda. Ao absorver a luz, um eletrão salta para uma órbita mais “elevada” ou exterior. Ao atingir esse estado mais elevado, o eletrão cai prontamente de volta à órbita de energia mais baixa, libertando um quantum de energia que é exatamente igual à diferença de energia entre as duas órbitas.
Bohr não deu nenhuma explicação relativamente ao que isso significava ou qual seria o seu aspeto — afirmou simplesmente que cair da órbita para dentro do núcleo era impossível para os eletrões. O modelo do átomo de Bohr era puramente teórico. No entanto, concordava com a experiência e resolvia muitos problemas relacionados de um modo elegante. A forma como os eletrões tinham de preencher órbitas vazias segundo uma ordem rigorosa, afastando-se cada vez mais do núcleo, encaixava com a sequência de propriedades dos elementos vista na tabela periódica à medida que o número atômico aumenta. Ainda mais convincente era o modo como os níveis teóricos de energia das órbitas se encaixavam perfeitamente nas “séries espectrais” — as frequências de luz absorvida e emitida por diferentes átomos. Tinha sido encontrado um meio, há muito procurado, de casar o eletromagnetismo com a matéria.
Entrando no núcleo
Assim que este desenho do átomo nuclear foi aceite, o passo seguinte era perguntar o que havia dentro do núcleo. Em experiências relatadas em 1919, Rutherford descobriu que os seus feixes de partículas alfa podiam gerar núcleos de hidrogênio a partir de muitos elementos distintos. O hidrogênio era há muito reconhecido como o mais simples de todos os elementos e encarado como o bloco base de todos os outros elementos, portanto, Rutherford propôs que o núcleo do hidrogênio era, de facto, a sua própria partícula fundamental, o protão.
O avanço seguinte na estrutura atómica foi a descoberta do neutrão por James Chadwick, em 1932, na qual, mais uma vez, houve a participação de Rutherford. Este tinha postulado a existência do neutrão em 1920, como forma de compensar o efeito repulsivo dos muitos pontos de carga positiva espremidos num núcleo minúsculo. Tal como as cargas se repelem umas às outras, assim ele teorizou que devia haver outra partícula que, de algum modo, dissipasse a carga ou unisse firmemente os protões agitados. Havia também massa extra em elementos mais pesados do que o hidrogênio, que poderia ser explicada por uma terceira partícula neutra, mas igualmente maciça e subatômica.
No entanto, o neutrão provou ser difícil de detectar e foi preciso quase uma década de buscas para o encontrar. Chadwick trabalhava nos Laboratórios Cavendish, sob a supervisão de Rutherford e, orientado pelo seu mentor, estudou um novo tipo de radiação que tinha sido descoberta pelos físicos alemães Walther Bothe e Herbert Becker quando bombardearam o berílio com partículas alfa.
Chadwick duplicou os resultados dos alemães e percebeu que essa radiação penetrante era o neutrão que Rutherford procurava. Uma partícula neutra, como o neutrão, é muito mais penetrante do que uma partícula carregada, como o protão, já que não sente nenhuma repulsão ao passar pela matéria. Contudo, com uma massa ligeiramente maior do que a de um protão, pode facilmente empurrar os protões para fora do núcleo, algo que, de outro modo, só pode ser feito por uma radiação eletromagnética extremamente energética.
Nuvens de eletrões
A descoberta do neutrão completou a imagem do átomo como um núcleo maciço, com os eletrões em órbita em seu redor. Novas descobertas na física quântica viriam a aperfeiçoar a nossa visão dos eletrões em órbita em volta de um núcleo. Os modelos modernos do átomo apresentam “nuvens” de eletrões, representando apenas aquelas áreas nas quais é mais provável encontrarmos um eletrão de acordo com a sua função de onda quântica (p. 256).
A imagem ficou ainda mais complicada pela descoberta de que os neutrões e os protões não são partículas fundamentais, sendo compostos por combinações de partículas menores chamadas quarks. As questões relativas à verdadeira estrutura do átomo ainda estão a ser ativamente investigadas.
No ano de 1905, o jornal científico alemão Annalen der Physik publicou quatro artigos de um único autor — um físico de 26 anos, pouco conhecido, chamado Albert Einstein, que, na altura, trabalhava no Escritório Suíço de Patentes. Juntos, esses artigos viriam a estabelecer a base da física moderna.
Einstein resolveu alguns dos problemas fundamentais que tinham surgido na compreensão científica do mundo físico, por volta do final do século XIX. Um dos artigos de 1905 transformou a compreensão da natureza da luz e da energia. Um segundo era uma prova elegante de que um efeito físico há muito observado, chamado movimento browniano, poderia demonstrar a existência dos átomos. Um terceiro mostrava a presença de um derradeiro limite de velocidade para o Universo e considerava os estranhos efeitos daí relacionados, conhecidos como relatividade especial, enquanto o quarto mudou para sempre a nossa compreensão da natureza da matéria, mostrando que era intercambiável com a energia. Uma década mais tarde, Einstein deu continuidade às implicações destes últimos artigos com uma teoria da relatividade geral, que apresentava um novo e mais profundo entendimento da gravidade, do espaço e do tempo.
Quantizar a luz
O primeiro dos artigos de 1905 de Einstein abordava um problema de longa data com o efeito fotoelétrico. Este fenômeno tinha sido descoberto pelo físico alemão Heinrich Hertz, em 1887. Envolve elétrodos metálicos, que produzem um fluxo de eletricidade (ou seja, emitem eletrões) quando iluminado por determinados comprimentos de ondas de radiação — tipicamente, luz ultravioleta. O princípio por trás da emissão é relativamente fácil de descrever em termos modernos (a energia fornecida pela radiação é absorvida pelos eletrões mais afastados nos átomos da superfície do metal, permitindo-lhes libertarem-se). O enigma era que os mesmos materiais recusavam-se teimosamente a emitir eletrões quando iluminados por comprimentos de onda mais longos, independentemente da intensidade da fonte de luz.
Esse era um problema para o entendimento clássico da luz, que assumia, acima de tudo, que a intensidade governava a quantidade de energia libertada por um feixe luminoso. No entanto, o artigo de Einstein aproveitava a ideia de “luz quantizada”, desenvolvida recentemente por Max Planck. Einstein mostrou que se o feixe de luz for dividido em “quanta de luz” individuais (aquilo a que hoje chamamos fotões), então a energia transportada por cada quantum só depende do seu comprimento de onda — quanto mais curto o comprimento da onda, mais elevada a energia. Se o efeito fotoelétrico depende da interação entre um eletrão e um único fotão, então não importa quantos fotões bombardeiam a superfície (ou seja, quão intensa é a fonte de luz) — se nenhum deles transportar energia suficiente, os eletrões não se vão libertar.
A ideia de Einstein foi rejeitada pelas principais figuras da época, incluindo Planck, mas a sua teoria demonstrou ser correta em experiências realizadas pelo físico americano Robert Millikan, em 1919.
Relatividade especial
O maior legado de Einstein nasceu do terceiro e quarto artigos de 1905, que também envolviam uma importante reconceptualização da verdadeira natureza da luz. Desde o final do século XIX, os físicos enfrentavam uma crise nas suas tentativas para entender a velocidade da luz. O seu valor aproximado vinha sendo conhecido e calculado com cada vez maior precisão desde o século XVII, ao mesmo tempo que as equações de James Clerk Maxwell tinham demonstrado que a luz visível era apenas uma manifestação de um espectro mais alargado de ondas eletromagnéticas, onde todas tinham de se deslocar através do Universo a uma única velocidade.
Dado que a luz era entendida como uma onda transversal, assumia-se que esta se propagava através de um meio, tal como as ondas de água se propagam na superfície de um lago. As propriedades dessa substância hipotética, conhecida como “éter luminoso”, dariam origem às propriedades observadas das ondas eletromagnéticas e, como não se podiam alterar de um lugar para outro, proporcionariam um padrão absoluto de repouso.
Uma consequência esperada do éter fixo era que a velocidade da luz de objetos distantes devia variar, de- pendendo do movimento relativo da fonte e do observador. Por exemplo a velocidade da luz de uma estrela distante deveria variar significativamente, dependendo de ser observada de um lado da órbita da Terra, à medida que o nosso planeta se distanciava dela a 30 km/s, ou do lado oposto, quando o observador se estivesse a aproximar dela a uma velocidade semelhante.
Medir o movimento da Terra através do éter tornou-se uma obsessão para os físicos do final do século XIX. Tal medida era a única forma de se confirmar a existência dessa substância misteriosa, mas a prova permanecia evasiva. Por mais preciso que fosse o equipamento de medição, a luz parecia sempre mover-se à mesma velocidade. Em 1887, os físicos americanos Albert Michelson e Edward Morley elaboraram uma experiência engenhosa para medir com elevada precisão o denominado “vento éter”, mas, mais uma vez, não encontraram provas da sua existência. O resultado negativo da experiência de Michelson-Morley abalou a crença na existência do éter, e resultados semelhantes nas tentativas de a repetir nas décadas seguintes só intensificaram a sensação de crise.
O terceiro artigo de 1905 de Einstein, Sobre a Eletrodinâmica de Corpos em Movimento, confrontou o problema. A sua teoria da relatividade especial foi desenvolvida a partir de uma aceitação de dois postulados simples — que a luz se desloca através de um vácuo a uma velocidade fixa independente do movimento da fonte e que as leis da física devem parecer as mesmas para os observadores em todos os sistemas de referência “inerciais” —, ou seja, aqueles não sujeitos a forças externas como a aceleração. Einstein foi ajudado na sua aceitação do primeiro postulado arrojado pela aceitação prévia da natureza quântica da luz — conceptualmente, os quanta de luz são frequentemente imaginados como minúsculos pacotes restritos de energia eletromagnética, capazes de se deslocar através do vácuo do espaço com propriedades semelhantes a partículas ao mesmo tempo que mantêm as suas características de onda.
Ao aceitar esses dois postulados, Einstein considerou as consequências para o resto da física e da mecânica, em particular. Para que as leis da física se comportassem da mesma forma em todos os sistemas inerciais de referência, elas teriam de parecer diferentes quando observadas de um sistema para o outro. Só o movimento relativo interessava, e quando o movimento relativo entre dois sistemas de referência distintos se aproximava da velocidade da luz (as velocidades “relativistas”), coisas estranhas começavam a acontecer.
O fator de Lorentz
Embora o artigo de Einstein não fizesse nenhuma referência formal a outras publicações científicas, mencionava o trabalho de um punhado de outros cientistas contemporâneos, já que Einstein não era certamente a única pessoa a trabalhar tendo em vista uma solução não convencional para a crise do éter. Talvez o mais importante entre estes tenha sido o físico holandês Hendrik Lorentz, cujo “fator de Lorentz” se encontrava no centro da descrição de Einstein sobre a física perto da velocidade da luz. É definida matematicamente do seguinte modo:
Lorentz desenvolveu esta equação para descrever as alterações nas medições de tempo e comprimento para ajustar as equações do eletromagnetismo de Maxwell ao princípio da relatividade. Foi crucial para Einstein, já que lhe forneceu um termo para transformar os resultados vistos por um observador, mostrando como pareceriam a outro observador em movimento relativamente ao primeiro observador. No termo citado acima, o vê a velocidade de um observador comparada com o outro e c é a velocidade da luz. Na maioria das situações, v será bastante pequeno comparado com c. portanto v/c será próximo de zero e o fator de Lorentz próximo de 1, significando que não faz qualquer diferença nos cálculos.
O trabalho de Lorentz fora recebido friamente, em grande parte porque não podia ser incorporado nas teorias-padrão do éter. Einstein abordou o problema por outra direção, mostrando que o fator de Lorentz surgia como consequência inevitável do princípio da relatividade especial e revendo o verdadeiro significado dos intervalos de tempo e distância medidos. Um resultado importante desta conjetura foi a percepção de que os eventos que pareciam simultâneos para um observador num sistema de referência não o eram para alguém num sistema de referência diferente (um fenômeno conhecido como a relatividade da simultaneidade). Einstein também mostrou como, a partir do ponto de vista de um observador distante, o comprimento dos objetos em movimento na sua direção de deslocamento se comprimia à medida que estes se aproximavam da velocidade da luz, de acordo com uma equação simples governada pelo fator de Lorentz. Ainda mais estranho, o próprio tempo parece passar mais devagar quando medido a partir do sistema de referência do observador.
Ilustrar a relatividade
Einstein ilustrou a relatividade especial pedindo-nos que considerássemos dois sistemas de referência em movimento relativo de um para o outro: um comboio em movimento e um talude ao seu lado. Dois raios que lampejam nos pontos A e B parecem ocorrer simultaneamente para um observador de pé no talude, num ponto intermédio M entre eles. Um observador no comboio está na posição M1, num sistema de referência diferente. Quando os raios ocorrem, M1 pode estar a passar mesmo por M. Mas na altura em que luz alcança o observador no comboio, este já se deslocou em direção ao ponto B. distanciando-se do ponto A. Como Einstein disse, o observador está a viajar à frente do feixe de luz que vem de A”. O observador no comboio conclui que o raio que atingiu o ponto B ocorreu antes do que caiu no ponto A. Einstein insiste então: “A menos que nos digam a que corpo de referência a afirmação de tempo se refere, a afirmação do momento de um acontecimento não tem significado.” Tanto o tempo como a posição são conceitos relativos.
Equivalência de massa-energia
Nas três breves páginas do último dos artigos de 1905 de Einstein, A Inércia de Um Corpo Depende do Seu Conteúdo em Energia?, ampliava-se uma ideia mencionada no artigo anterior que — a massa de um corpo é a medida da sua energia. Aqui, Einstein demonstrou que se um corpo irradia uma determinada quantidade de energia (E) sob a forma de radiação eletromagnética, a sua massa vai diminuir numa quantidade equivalente a E/c2. Esta equação é facilmente rescrita para mostrar que a energia de uma partícula estacionária dentro de um sistema de referência específico é dada pela equação E=mc2 Este princípio de “equivalência massa-energia” viria a tornar-se a pedra angular da ciência do século XX, com aplicações que vão da cosmologia à física nuclear.
Campos de gravitação
Embora os artigos de Einstein, naquele annus mirabilis, tenham parecido demasiado obscuros para causar grande impacto fora do mundo rarefeito da física, eles impulsionaram-no para a fama dentro daquela comunidade. Ao longo dos anos seguintes, muitos cientistas chegaram à conclusão de que a relatividade especial oferecia uma melhor descrição do Universo do que a desacreditada teoria do éter e elaboraram experiências que demonstraram os efeitos relativistas em ação. Entretanto, Einstein já estava a avançar em direção a um novo desafio, alargando os princípios que tinha agora estabelecido de modo a considerar situações “não inerciais” — as que envolvem aceleração e desaceleração.
No início de 1907, Einstein depara-se com a ideia de que uma situação de “queda livre”, sob a influência da gravidade, é igual a uma situação inercial — o princípio da equivalência. Em 1911, percebeu que um sistema de referência estacionário influenciado por um campo gravitacional é equivalente a um submetido a uma aceleração constante. Einstein ilustrou esta ideia imaginando uma pessoa de pé num elevador selado no espaço vazio. O elevador está a ser acelerado numa direção por um foguete. A pessoa sente uma força a empurrar para cima, a partir do chão, e empurra de volta, contra o chão, com uma força igual e oposta, segundo a terceira lei de Newton. Einstein percebeu que a pessoa no elevador se sentiria como se estivesse em pé, imóvel, num campo gravitacional.
Num elevador submetido a uma aceleração constante, um feixe de luz disparado num ângulo perpendicular à aceleração seria desviado num trajeto curvo, e Einstein considerou que o mesmo ocorreria num campo gravitacional. Seria este efeito da gravidade na luz —conhecido como efeito de lente gravitacional — que viria a demonstrar, pela primeira vez, a relatividade geral.
Einstein considerou o que isto dizia sobre a natureza da gravidade. Em particular, previu que efeitos relativistas, como a dilatação do tempo, devem ocorrer em campos gravitacionais fortes. Quanto mais perto um relógio estiver de uma fonte de gravitação, mais lentamente irá andar. Este efeito, puramente teórico durante muitos anos, foi já confirmado pela utilização de relógios atômicos.
Distribuição espaço-tempo
Enquanto isso, também em 1907, o antigo tutor de Einstein, Hermann Minkowski, deparara-se com outra parte importante do puzzle. Considerando as compensações eficazes entre as dimensões do espaço e tempo envolvidas na relatividade especial, ele desenvolveu a ideia de combinar as três dimensões do espaço com uma do tempo numa distribuição espaço-tempo. Na interpretação de Minkowski, os efeitos relativistas podiam ser descritos em termos geométricos considerando as distorções no modo como os observadores em movimento relativo observam a distribuição num sistema de referência diferente.
Em 1915, Einstein publicou a sua teoria completa da relatividade geral. Era, na forma final, uma nova descrição da natureza do espaço, do tempo, da matéria e da gravidade. Adotando as ideias de Minkowski, Einstein viu “o composto do Universo” como uma distribuição de espaço-tempo, que podia ser distorcida graças ao movimento relativista, mas que também podia ser perturbada pela presença de massas grandes, como as estrelas e os planetas, de um modo que era experimentado como gravidade. As equações que descreviam as ligações entre massa, distorção e gravidade eram de uma complexidade diabólica, mas Einstein usou uma aproximação para resolver um mistério de longa data — o modo como na aproximação mais estreita de Mercúrio ao Sol (afélio), este efetua uma precessão, ou gira, em volta do Sol muito mais depressa do que a física newtoniana previa. A relatividade geral resolveu o enigma.
Lente gravitacional
Einstein publicou numa altura em que boa parte do mundo era varrida pela Primeira Guerra Mundial e os cientistas de língua inglesa tinham outras coisas em que pensar. A relatividade geral era uma teoria complexa e talvez tivesse caído na obscuridade, não fosse pelo interesse de Arthur Eddington, um consciente opositor à guerra e, por acaso, secretário da Royal Astronomical Society.
Eddington acedeu ao trabalho de Einstein graças às cartas do físico holandês Willem de Sitter e depressa se tornou o seu maior defensor na Grã-Bretanha. Em 1919, alguns meses depois do fim da guerra, Eddington liderou uma expedição à ilha do Príncipe para testar a teoria da relatividade geral e a sua previsão da lente gravitacional em circunstâncias bastante espetaculares. Einstein tinha previsto, ainda em 1911, que um eclipse solar total permitiria que os efeitos da lente gravitacional fossem vistos, sob a forma de estrelas aparentemente fora do lugar em volta do disco do eclipse (um resultado do desvio da sua luz ao passar pelo espaço-tempo distorcido em redor do Sol). A expedição de Eddington apresentou imagens impressionantes do eclipse solar e provas convincentes da teoria de Einstein. Publicadas no ano seguinte, causaram sensação em todo o mundo, impulsionando Einstein para a fama global e mudando para sempre as nossas ideias sobre a natureza do Universo.
Em 1912, o meteorologista alemão Alfred Wegener combinou várias linhas de provas para apresentar uma teoria de deriva continental, que sugeria que os continentes da Terra estiveram unidos, mas foram-se afastando ao longo de milhões de anos. Os cientistas só aceitaram a sua teoria depois de descoberta a causa do deslocamento de tão grandes massas de terra.
Olhando para os primeiros mapas do Novo Mundo e de África, Francis Bacon notou, em 1620, que a costa leste das Américas é geralmente semelhante ao litoral oeste da Europa e de África. Isto levou os cientistas a especular que essas massas de terra teriam estado unidas, desafiando o conceito de um planeta sólido e imutável.
Em 1858, um geógrafo baseado em Paris, Antonio Snider-Pellegrini, mostrou que tinham sido encontrados, em ambos os lados do Atlântico, fósseis de plantas semelhantes do período Carbonífero, 359-299 milhões de anos antes. Fez mapas que mostravam como os continentes americano e africano podem, um dia, ter encaixado e atribuiu a sua separação ao Dilúvio bíblico. Quando fósseis de fetos Glossopteris foram encontrados na América do Sul, na Índia e em África, Eduard Suess argumentou que estes devem ter evoluído numa única grande massa terrestre. Sugeriu que os continentes meridionais teriam estado ligados por pontes de terra sobre o mar, formando um supercontinente ao qual chamou Gondwana.
Wegener encontrou mais exemplos de organismos semelhantes separados por oceanos e também cadeias montanhosas e depósitos glaciares parecidos. Em vez das ideias iniciais de que partes de um supercontinente se teriam afundado nas ondas, achou que este se poderia ter dividido. Entre 1912 e 1929, expandiu essa teoria. O supercontinente Pangeia unia a Gondwana de Suess com os continentes setentrionais da América do Norte e da Eurásia. Wegener datou a fragmentação desta massa terrestre no final da Era Mesozoica, há 150 milhões de anos, e apontou o Grande Vale do Rift, em África, como prova de uma cisão continental em curso.
Em busca de um mecanismo
A teoria de Wegener foi criticada por geofísicos por não explicar como os continentes se deslocam. No entanto, na década de 1950, novas técnicas geofísicas revelaram um tesouro de dados novos. Estudos sobre o campo magnético passado da Terra indicaram que os continentes antigos apresentavam um posicionamento diferente em relação aos polos. O mapeamento por sonar do leito marinho revelou sinais de formações do solo marinho mais recentes. Descobriu-se que isso ocorria nos sulcos meso-oceânicos, à medida que a rocha derretida irrompe pelas fendas da crosta da Terra e se vai espalhando para longe dos sulcos, conforme irrompem novas rochas.
Em 1960, Harry Hess percebeu que o afastamento do solo marinho fornecia o mecanismo para a deriva continental e apresentou a sua teoria das placas tectônicas. A crosta terrestre é composta por placas gigantes que se deslocam continuamente, conforme as correntes de convecção do manto, por baixo, trazem novas rochas à superfície, sendo a formação e a destruição da crosta oceânica que conduzem ao deslocamento dos continentes. Esta teoria não só vingou Wegener como é agora o pilar da geologia moderna.
Durante o século XIX, os biólogos que observavam a divisão das células ao microscópio notaram o aparecimento de pares de filamentos minúsculos no núcleo de cada célula. Esses filamentos podiam ser tingidos por corantes para observação e passaram a ser chamados cromossomas (“corpos coloridos”). Os biólogos depressa começaram a pensar se estes teriam algo a ver com a hereditariedade.
Em 1910, experiências realizadas pelo geneticista americano Thomas Hunt Morgan viriam a confirmar o papel dos genes e dos cromossomas na hereditariedade, explicando a evolução ao nível molecular.
Partículas de hereditariedade
No início do século XX, os cientistas traçaram os movimentos exatos dos cromossomas na divisão celular e notaram que o número de cromossomas variava entre as espécies, mas o número nas células de uma mesma espécie era o mesmo. Em 1902, o biólogo alemão Theodor Boveri, tendo estudado a fertilização de um ouriço-do-mar, concluiu que os cromossomas de um organismo tinham de estar presentes, num conjunto completo, para que o embrião se desenvolvesse. Mais tarde, nesse mesmo ano, Walter Sutton concluiu, trabalhando com gafanhotos, que os cromossomas talvez espelhassem as “partículas da hereditariedade” teóricas propostas por Gregor Mendel, em 1866.
Mendel fizera experiências no cruzamento de ervilhas e, em 1866, sugeriu que as suas características herdadas eram determinadas por partículas finitas. Quatro décadas depois, para testar a ligação entre os cromossomas e a teoria de Mendel, Morgan iniciou uma investigação que combinaria experiências de reprodução com microscopia moderna, na que ficou conhecido como “A Sala das Moscas”, na Universidade de Columbia.
De ervilhas à mosca-da-fruta
A mosca-da-fruta (Drosophila) é um inseto do tamanho de um mosquito, que pode ser cruzado em pequenos frascos de vidro e produzir a geração seguinte com uma grande prole — em apenas dez dias. Isto tornava a mosca-da-fruta ideal para o estudo da hereditariedade. A equipa de Morgan isolou e cruzou moscas com características específicas e depois analisou as proporções das variações nas proles — exatamente como Mendel fizera com as suas ervilhas.
Morgan corroborou finalmente os resultados de Mendel, depois de ver um macho de olhos brancos, em vez dos habituais olhos vermelhos. O cruzamento de um macho de olhos brancos com uma fêmea de olhos vermelhos produzia apenas proles de olhos vermelhos, o que sugeria que o vermelho era um traço dominante e o branco recessivo. Quando essas proles eram cruzadas, um em cada quatro tinha olhos brancos e era sempre macho. O “gene branco” tinha de estar ligado ao sexo. Quando surgiram outros traços ligados ao sexo, Morgan concluiu que todos esses traços tinham de ser herdados em conjunto e que os genes responsáveis por eles tinham de ser passados através do cromossoma que determina o sexo. As fêmeas tinham um par de cromossomas X, enquanto os machos tinham um X e um Y. Durante a reprodução, a prole herda o X da mãe e um X ou um Y do pai. O “gene branco” é transportado pelo X. O cromossoma Y não tem um gene correspondente.
Um estudo adicional levou Morgan à ideia de que os genes específicos não estavam apenas localizados em cromossomas específicos, mas que ocupavam posições específicas neles. Isto originou a ideia de que os cientistas poderiam “mapear” os genes de um organismo.
Erwin Schrödinger foi uma figura-chave no avanço da física quântica — a ciência que explica os níveis mais diminutos de matéria subatômica. A sua grande contribuição foi uma famosa equação, mostrando como as partículas se moviam em ondas. Essa equação constitui a base da mecânica quântica atual e revolucionou o modo como vemos o mundo. Mas esta revolução não foi repentina. O processo de descoberta foi longo, com o contributo de muitos pioneiros pelo caminho.
A teoria quântica limitava-se originalmente à compreensão da luz. Em 1900, como parte de uma tentativa para resolver um problema complicado na física teórica, conhecido por “catástrofe ultravioleta”, o físico alemão Max Planck propôs que se tratasse a luz como se esta surgisse em pacotes discretos, ou quanta, de energia. Albert Einstein deu então o passo seguinte, argumentando que os quanta de luz eram, de facto, um fenômeno físico real.
O físico dinamarquês Niels Bohr sabia que a ideia de Einstein expressava algo de fundamental sobre a natureza da luz e dos átomos e, em 1913, usou-a para resolver um problema antigo — os comprimentos de onda exatos da luz emitida quando se aqueciam determinados elementos. Ao modelar a estrutura do átomo com os eletrões a orbitar em “camadas” finitas, cujas distâncias ao núcleo determinavam a sua energia, Bohr conseguiu explicar os espectros de emissão (distribuição dos comprimentos de onda da luz) dos átomos em termos de fotões de energia emitida à medida que os eletrões saltavam entre as órbitas. No entanto, o modelo de Bohr carecia de uma explicação teórica e só conseguia prever as emissões do hidrogênio, o átomo mais simples.
Átomos tipo onda?
A ideia de Einstein tinha dado um novo sopro de vida à antiga teoria da luz como um feixe de partículas, embora também tivesse sido provado, através da experiência da dupla fenda de Thomas Young, que a luz se comporta como uma onda. O enigma de como a luz podia ser ao mesmo tempo uma partícula e uma onda teve uma nova reviravolta em 1924, vinda de um aluno de doutoramento francês, Louis de Broglie, cuja sugestão levou a revolução quântica para uma nova e dramática fase. De Broglie não só demonstrou, através de uma equação simples, como as partículas podiam ser igualmente ondas no mundo subatômico, como mostrou também que qualquer objeto, de qualquer massa, podia comportar-se como uma onda até determinado ponto. Ou seja, se as ondas de luz tinham propriedades semelhantes a partículas, então as partículas de matéria — como os eletrões — têm de possuir propriedades do tipo onda.
Planck tinha calculado a energia de um fotão de luz com a simples equação E = hv, onde E é a energia dos quanta eletromagnéticos, v é o comprimento de onda da radiação envolvida e h é uma constante, hoje conhecida como a constante de Planck. De Broglie mostrou que um fotão de luz também tem momento cinético, algo geralmente associado apenas a partículas com massa e que resulta da multiplicação da massa da partícula pela sua velocidade. De Broglie mostrou que um fotão de luz tinha um momento de h dividido pelo seu comprimento de onda. No entanto, dado que estava a lidar com partículas, cuja energia e a massa podiam ser afetadas pelo movimento em velocidades próximas à da luz, De Broglie incorporou o fator de Lorentz (p. 218) na sua equação. Isto produziu uma versão mais sofisticada, que considerava os efeitos da relatividade.
A ideia de De Broglie era radical e ousada, mas depressa ganhou apoiantes influentes, incluindo Einstein. A hipótese era também relativamente fácil de testar. Por volta de 1927, cientistas em dois laboratórios diferentes tinham conduzido experiências para mostrar que os eletrões difratavam e interferiam uns com outros, exatamente como os fotões de luz. A hipótese de De Broglie fora provada.
Importância crescente
Entretanto, vários físicos teóricos estavam suficientemente intrigados pela hipótese de De Broglie para a investigar mais a fundo. Em particular, queriam saber como é que as propriedades de tais ondas de matéria podiam dar origem ao padrão de níveis de energia específicos entre as orbitais dos eletrões do átomo de hidrogênio proposto pelo modelo do átomo de Bohr. O próprio De Broglie tinha sugerido que o padrão surgia porque a circunferência de cada orbital tinha de acomodar um número inteiro de comprimentos de onda da onda de matéria. Como o nível de energia do eletrão depende da sua distância para o núcleo de carga positiva do átomo, isto significava que apenas determinadas distâncias e determinados níveis de energia seriam estáveis. No entanto, a solução de De Broglie assentava no tratamento da onda de matéria como uma onda unidimensional presa numa órbita em redor do núcleo uma descrição completa teria de descrever a onda em três dimensões.
A equação de onda
Em 1925, três físicos alemães, Werner Heisenberg, Max Born e Pascual Jordan, tentaram explicar os saltos quânticos que ocorriam no modelo do átomo de Bohr através de um método chamado mecânica matricial, no qual as propriedades de um átomo eram tratadas como um sistema matemático que podia mudar ao longo do tempo. Contudo, o método não conseguia explicar o que acontecia de facto dentro do átomo e a sua linguagem matemática obscura não o tornou muito popular.
Um ano depois, um físico austríaco que trabalhava em Zurique, Erwin Schrödinger, encontrou uma abordagem melhor. Levou a dualidade onda-partícula de De Broglie mais além, começando a pensar se existiria uma equação matemática do movimento da onda que pudesse descrever o movimento de uma partícula subatômica. Para formular a sua equação de onda, ele começou com as leis que governam a energia e o momento na mecânica comum e depois modificou-as para incluir a constante de Planck e a lei de De Broglie, que ligava o momento de uma partícula ao seu comprimento de onda.
Quando aplicou a equação resultante ao átomo de hidrogênio, esta previu exatamente os níveis de energia específicos do átomo que tinham sido observados em experiências. A equação foi um sucesso. Mas uma questão estranha permanecia ainda, já que ninguém, nem mesmo Schrödinger, sabia exatamente o que a equação de onda descrevia de facto. Schrödinger tentou interpretar isto como a densidade da carga elétrica, mas não foi inteiramente bem-sucedido. Foi Max Born quem acabou por sugerir aquilo que realmente era uma amplitude de probabilidade. Ou seja, exprimia a probabilidade de uma medição encontrar o eletrão naquele lugar específico. Ao contrário da mecânica matricial, a equação de onda de Schrödinger, ou “função de onda”, foi acolhida pelos físicos, embora tivesse exposta uma série de questões mais abrangentes sobre a sua correta interpretação.
O princípio da exclusão de Pauli
Outra peça importante do puzzle foi encaixada em 1925 por outro austríaco, Wolfgang Pauli. Para descrever por que razão os eletrões no interior de um átomo não caíam automaticamente todos no estado mais baixo de energia possível, Pauli desenvolveu o princípio da exclusão. Raciocinando que o estado quântico geral de uma partícula poderia ser definido por um determinado número de propriedades, cada uma com um número fixo de valores finitos possíveis, o seu princípio afirmava que era impossível duas partículas dentro do mesmo sistema terem simultaneamente o mesmo estado quântico.
Para explicar o padrão aparente das orbitais dos eletrões na tabela periódica. Pauli calculou que os eletrões deviam ser descritos por quatro números quânticos distintos. Três deles — os números quânticos principal, de momento angular e magnético — definem o local preciso do eletrão dentro das camadas e subcamadas orbitais disponíveis, com os valores do último par limitados pelo valor do número principal. O quarto número, com dois valores possíveis, era necessário para explicar por que razão podem existir dois eletrões em cada suborbital com níveis de energia ligeiramente diferentes. Juntos, os números explicavam perfeitamente a existência de orbitais atómicas que aceitam 2, 6, 10 e 14 eletrões, respetivamente.
Hoje, o quarto número quântico é conhecido como spin; é o momento cinético intrínseco de uma partícula (criado pela sua rotação à medida que orbita) e tem valores positivos ou negativos que são números inteiros ou semi-inteiros. Alguns anos depois, Pauli demonstraria que os valores do spin dividem todas as partículas em dois grupos principais — fermiões, como os eletrões (com spins semi-inteiros), que obedecem a um conjunto de regras conhecidas por estatísticas de Fermi-Dirac (pp. 246- -47), e bosões, como os fotões (com um spin zero ou inteiro), que obedecem a regras diferentes, conhecidas por estatísticas de Bose-Einstein. Só os fermiões obedecem ao princípio de exclusão, o que tem implicações importantes para a compreensão de tudo, desde o colapso de estrelas até às partículas elementares que com- põem o Universo.
O sucesso de Schrödinger
Combinada com o princípio de exclusão de Pauli, a equação de onda de Schrödinger permitia um entendimento novo e mais profundo das orbitais, as camadas e subcamadas dentro de um átomo. Em vez de as imaginar como órbitas clássicas — caminhos bem definidos nos quais os eletrões circundam os núcleos —, a equação de onda mostra que, na realidade, elas são nuvens de probabilidade — regiões em formato de donut e lóbulo, nas quais um eletrão específico com determinados números quânticos será provavelmente encontrado (p. 256).
Outro grande sucesso da abordagem de Schrödinger foi o facto de oferecer uma explicação para a desintegração alfa radioativa — na qual uma partícula alfa inteiramente formada (composta por dois protões e dois neutrões) escapa de um núcleo atômico. Segundo a física clássica, para permanecer intacto, o núcleo tinha de estar rodeado por um poço de potencial íngreme o suficiente para impedir que as partículas escapassem dele (um poço de potencial é uma região no espaço onde a energia potencial é inferior à dos seus arredores, o que significa que agarra as partículas). Se o poço não fosse suficientemente íngreme, o núcleo desintegrar-se-ia completamente. Então, como é que as emissões intermitentes vistas na desintegração alfa poderiam ocorrer permitindo ao mesmo tempo que o núcleo restante sobrevivesse intacto? As equações de onda ultrapassaram o problema, porque permitiam que a energia da partícula alfa dentro do núcleo variasse. Na maior parte do tempo, a sua energia seria baixa o suficiente para a manter presa, mas, ocasionalmente, subiria o bastante para ultrapassar a barreira e fugir (efeito conhecido hoje por efeito de túnel). As previsões de probabilidade da equação de onda combinavam com a natureza imprevisível da desintegração radioativa.
O princípio da incerteza
O grande debate que moldou o desenvolvimento da física quântica, em meados do século XX (e que continua por resolver ainda hoje), girava em torno do verdadeiro significado da função de onda na realidade. Ecoando o debate Planck/Einstein, duas décadas antes, De Broglie via as suas equações e as de Schrödinger como meras ferramentas matemáticas para descrever o movimento: para De Broglie, o eletrão ainda era essencialmente uma partícula — só que tinha uma propriedade de onda a governar o seu movimento e a localização. No entanto, para Schrödinger, a equação de onda era muito mais fundamental — descrevia como as propriedades do eletrão estavam fisicamente “espalhadas” pelo espaço. A oposição à abordagem de Schrödinger inspirou Werner Heisenberg a desenvolver outra das grandes ideias do século — o princípio da incerteza (pp. 234-35). Tratava-se de perceber que a função de onda significava que uma partícula não pode nunca ser “localizada” num ponto no espaço e, ao mesmo tempo, ter um comprimento de onda definido. Por exemplo, quanto mais precisamente fosse determinada a posição de uma partícula, mais difícil de medir era o seu momento. Assim, as partículas definidas por uma função de onda quântica existiam num estado geral de incerteza.
O caminho para Copenhaga
A medição das propriedades de um sistema quântico revelava sempre que a partícula estava num local, em vez da sua distribuição em onda. Na escala da física clássica e da vida quotidiana, a maior parte das situações envolve medidas e resultados definidos, em vez de uma multiplicidade de possibilidades sobrepostas. O desafio de conciliar a incerteza quântica com a realidade tem o nome de problema da medição, tendo já sido apresentadas diversas abordagens ao mesmo, conhecidas como interpretações.
A mais famosa é a interpretação de Copenhaga, elaborada por Niels Bohr e Werner Heisenberg, em 1927. Afirma simplesmente que é a própria interação entre o sistema quântico e um observador ou instrumento externo em grande escala (sujeito às leis da física clássica) que causa o “colapso” da função de onda e o surgimento de um resultado definido. Esta é talvez a interpretação mais geralmente aceite (embora não universalmente) e parece ter surgido de experiências como a difração do eletrão e a experiência da dupla fenda das ondas de luz. É possível elaborar uma experiência que revele os aspetos de onda da luz ou dos eletrões, mas é impossível registar as propriedades das partículas individuais com o mesmo instrumento.
Embora a interpretação de Copenhaga pareça razoável ao lidar com sistemas de pequena escala, como as partículas, a sua implicação de que nada está determinado até ser medido incomodava muitos físicos. Einstein fez o famoso comentário dizendo que “Deus não joga aos dados” enquanto Schrödinger elaborou uma experiência idealizada para ilustrar o que encarava como sendo uma situação ridícula.
O gato de Schrödinger
Levada até à sua conclusão lógica, a interpretação de Copenhaga resultava num paradoxo aparentemente absurdo. Schrödinger imaginou um gato fechado numa caixa que continha um frasco de veneno ligado a uma fonte radioativa. Se a fonte se desintegrar e emitir uma partícula de radiação, um mecanismo irá liberar um martelo que quebra o frasco de veneno. De acordo com a interpretação de Copenhaga, a fonte radioativa permanece na sua forma de função de onda (como uma “sobreposição” de dois desfechos possíveis) até ser observada. Mas, se esse é o caso, o mesmo tem de ser dito do gato.
Novas interpretações
A insatisfação com aparentes paradoxos, como o gato de Schrödinger, incitou os cientistas a desenvolver diversas interpretações alternativas da mecânica quântica. Uma das mais conhecidas é a “Interpretação de Muitos Mundos”, apresentada em 1956 pelo físico americano Hugh Everett III. Este resolveu o paradoxo sugerindo que, durante qualquer evento quântico, o Universo divide-se em histórias alternativas, mutuamente inobserváveis para cada um dos desfechos possíveis. Por outras palavras, o gato de Schrödinger estaria ao mesmo tempo vivo e morto.
A abordagem das “Histórias Consistentes” aborda o problema de uma forma bem menos radical, usando fórmulas matemáticas complexas para generalizar a interpretação de Copenhaga. Isto evita as questões em torno do colapso da função de onda e, em vez disso, permite que sejam atribuídas probabilidades aos vários cenários ou “histórias”, tanto a uma escala quântica como clássica. A abordagem aceita que só uma destas histórias vai acabar por corresponder à realidade, mas não permite a previsão de qual será esse desfecho — pelo contrário, descreve simplesmente como a física quântica pode dar origem ao Universo que vemos sem o colapso da função de onda.
A abordagem de conjunto, ou estatística, é uma interpretação matemática minimalista e era a preferida de Einstein. A teoria de De Broglie-Bohm, desenvolvida a partir da reação inicial de De Broglie à equação de onda, é uma tentativa de explicação estritamente causal, em vez de probabilística, e postula a existência de uma ordem oculta “implicada” do Universo. A abordagem transacional envolve ondas que se deslocam no tempo, tanto para a frente como para trás.
Talvez a mais intrigante possibilidade de todas, contudo, é uma que se aproxima do teológico. Trabalhando na década de 1930, o matemático húngaro John von Neumann concluiu que o problema da medição inferia que todo o Universo está sujeito a uma equação de onda englobante, conhecida como a função de onda universal, a qual está constantemente a entrar em colapso conforme medimos os seus diferentes aspetos. Eugene Wigner, um colega e conterrâneo de Von Neumann, pegou na teoria e expandiu-a para sugerir que não era simplesmente a interação com sistemas em larga escala (como na interpretação de Copenhaga) que causava o colapso da função de onda — era a presença da própria consciência inteligente.
Na sequência da sugestão de Louis de Broglie, em 1924, de que nas mais pequenas escalas da matéria as partículas subatômicas podiam apresentar propriedades do tipo onda (pp. 226-33), vários físicos voltaram a sua atenção para a questão de se compreender como é que as propriedades complexas de um átomo poderiam surgir da interação de “ondas de matéria” associadas às suas partículas constituintes. Em 1925, os cientistas alemães Werner Heisenberg, Max Born e Pascual Jordan usaram a “mecânica matricial” para modelar o desenvolvimento do átomo de hidrogênio ao longo do tempo. Essa abordagem foi posteriormente suplantada pela função de onda de Erwin Schrödinger.
Trabalhando com o físico dinamarquês Niels Bohr, Heisenberg aperfeiçoou o trabalho de Schrödinger para desenvolver a “interpretação de Copenhaga” sobre o modo como os sistemas quânticos, governados pelas leis da probabilidade, interagem com o mundo em grande escala. Um elemento-chave disto é o “princípio da incerteza”, que limita a precisão com que podemos determinar propriedades nos sistemas quânticos.
O princípio da incerteza surgiu como uma consequência matemática da mecânica matricial. Heisenberg percebeu que o seu método matemático não permitiria que certos pares de propriedades fossem determinados simultaneamente com absoluta precisão. Por exemplo, quanto maior a precisão com que se medir a posição de uma partícula, menor será a precisão com que se poderá determinar o seu momento e vice-versa. Heisenberg descobriu que para estas duas propriedades, em particular, a relação podia ser escrita como:
onde o é a incerteza da posição, é a incerteza do momento e o h é uma versão modificada da constante de Planck (p. 202).
Um Universo incerto
O princípio da incerteza é descrito como uma consequência das medições de escala quântica — por exemplo, diz-se que determinar a posição de uma partícula subatômica envolve a aplicação de uma força que signifique uma pior definição da sua energia cinética e momento. Esta explicação, inicialmente apresentada pelo próprio Heisenberg, levou vários cientistas, incluindo Einstein, a dedicar tempo a idealizar experiências que pudessem obter uma medição simultânea e precisa da posição e do momento através de algum tipo de “truque”. Contudo, a verdade é bem mais estranha — a incerteza é, afinal, um traço inerente aos sistemas quânticos.
Um modo útil de pensar na questão é considerar as ondas de matéria associadas às partículas: neste caso, o momento da partícula afeta a sua energia geral e, consequentemente, o seu comprimento de onda — mas, quanto maior a precisão com que definimos a posição da partícula, menos informação teremos sobre a sua função de onda e, portanto, sobre o seu comprimento de onda. Por outro lado, medir o comprimento de onda com precisão exige que consideremos uma região de espaço mais ampla, o que sacrifica a informação sobre a localização exata da partícula. Tais ideias podem parecer estranhamente contrárias às que vivenciamos no mundo em grande escala, mas elas têm, ainda assim, sido provadas por várias experiências, formando uma das bases importantes da física moderna. O princípio da incerteza explica fenômenos estranhos da vida real como o túnel quântico, no qual uma partícula pode “abrir um túnel” através de uma barreira, mesmo que a sua energia sugira que não deveria ser capaz de o fazer.
No início do século XX, as ideias sobre a escala do Universo dividiam os astrônomos em duas escolas de pensamento — os que acreditavam que a Via Láctea compunha, em termos gerais, toda a sua extensão e os que achavam que a Via Láctea era apenas uma galáxia entre inúmeras outras. Edwin Hubble viria solucionar o enigma e mostrar que o Universo é muito maior do que se podia imaginar.
A chave para o debate era a natureza das “nebulosas espirais”. Hoje, “nebulosa” é um termo usado para uma nuvem interestelar de pó e gás, mas, na altura deste debate, esse nome era usado para qualquer nuvem de luz amorfa, incluindo objetos que se descobriu mais tarde serem galáxias para lá da Via Láctea.
Com o avanço dramático dos telescópios ao longo do século XIX, alguns dos objetos catalogados como nebulosas começaram a revelar características espirais distintivas. Ao mesmo tempo, o desenvolvimento da espectroscopia (estudo da interação entre a matéria e a energia irradiada) sugeria que estas espirais eram, na verdade, compostas por incontáveis estrelas individuais fundindo-se entre si.
A distribuição destas nebulosas também era interessante — ao contrário de outros objetos que se aglomeravam no plano da Via Láctea, estas eram mais comuns nos céus escuros longe desse plano. Como resultado, alguns astrônomos adotaram uma ideia do filósofo alemão Immanuel Kant, que, em 1755, sugerira que as nebulosas eram “universos-ilhas” — sistemas semelhantes à Via Láctea, mas muito mais distantes e visíveis apenas onde a distribuição do material na nossa galáxia permite visões claras daquilo que hoje designamos por espaço intergaláctico. Os que continuavam a acreditar que o Universo era mais limitado em extensão argumentaram que as espirais podiam ser sóis ou sistemas solares em processo de formação, orbitando em redor da Via Láctea.
Estrelas com pulsação
As respostas a este antigo enigma surgiram em várias etapas, mas talvez a mais importante tenha sido o estabelecimento de um meio preciso para se medir a distância das estrelas. O grande avanço surgiu com o trabalho de Henrietta Swan Leavitt, uma das astrônomas da equipa feminina da Universidade de Harvard que estava a analisar as propriedades da luz estelar. Leavitt ficou intrigada com o comportamento das estrelas variáveis. Tratava-se de estrelas cujo brilho parecia flutuar, ou pulsar, já que se expandiam e contraíam periodicamente à medida que se aproximavam do fim das suas vidas. Ela começou a estudar placas fotográficas das Nuvens de Magalhães, duas pequenas faixas de luz visíveis nos céus meridionais que pareciam “agrupamentos” isolados da Via Láctea e descobriu que cada uma das nuvens continha uma quantidade imensa de estrelas variáveis. Comparando-as, em diversas placas, ela não só viu que a sua luz variava num ciclo regular, como também conseguiu calcular o período do ciclo.
Ao concentrar-se nessas nuvens de estrelas pequenas, pálidas e isoladas, Leavitt pôde presumir com segurança que as estrelas dentro delas estavam todas mais ou menos à mesma distância da Terra. Embora não pudesse saber a distância em si mesma, isto era ainda assim suficiente para assumir que as diferenças na “magnitude aparente” (luminosidade observada) das estrelas eram uma indicação de diferenças na sua “magnitude absoluta” (luminosidade real). Ao publicar os seus primeiros resultados em 1908, Leavitt notou, de passagem, que algumas estrelas pareciam apresentar uma relação entre o seu período de variabilidade e a sua magnitude absoluta, mas foram necessários mais quatro anos para que ela descobrisse que relação era essa. Acabou por descobrir que, para um determinado tipo de estrela variável, conhecida como variável Cefeida, as estrelas com maior luminosidade possuem períodos de variabilidade mais longos.
A lei do “período de luminosidade” de Leavitt provaria ser a chave que revelaria a escala do Universo — se conseguíssemos calcular a magnitude absoluta da estrela a partir do seu período de variabilidade, então a distância entre a estrela e a Terra podia ser calculada a partir da sua magnitude aparente. O primeiro passo para o fazer era calibrar a escala, o que foi feito em 1913 pelo astrônomo sueco Ejnar Hertzprung. Ele calculou as distâncias para 13 Cefeidas relativamente próximas, usando o método de paralaxe (p. 39). As Cefeidas eram bastante brilhantes — milhares de vezes mais luminosas do que o nosso Sol (na terminologia moderna, são “super-gigantes amarelas”). Teoricamente, eram uma “vela-padrão” — estrelas cuja luminosidade podia ser usada para medir enormes distâncias cósmicas ideal. Mas, apesar dos melhores esforços dos astrônomos, as Cefeidas no interior das nebulosas espiral teimavam em permanecer evasivas.
O Grande Debate
Em 1920, o Museu Smithsonian, em Washington D. C, foi palco de um debate entre duas escolas cosmológicas rivais, na esperança de resolver, de uma vez por todas, a questão da escala do Universo. Harlow Shapley, um respeitado astrônomo de Princeton, falou pelo lado do “Universo pequeno”. Ele fora o primeiro a usar o trabalho de Leavitt sobre as Cefeidas para medir a distância para os aglomerados globulares (densos aglomerados de estrelas em órbita em volta da Via Láctea), descobrindo que estes se encontravam tipicamente a vários milhares de anos-luz de distância. Em 1918, usara as estrelas RR Lyrae (estrelas mais pálidas que se comportam como Cefeidas) para estimar o tamanho da Via Láctea e mostrar que o Sol não estava de modo nenhum perto do seu centro. Os seus argumentos apelavam ao ceticismo público em relação ao conceito de um Universo enorme com muitas galáxias, mas também citou provas específicas (mais tarde, provadas incorretas), como os relatos de que alguns astrônomos tinham observado de facto, ao longo de muitos anos, as nebulosas espirais em rotação. Para que isto fosse verdade sem que partes da nebulosa excedessem a velocidade da luz, elas tinham de ser relativamente pequenas. Os defensores do “Universo-ilha” estavam representados por Heber D. Curtis, do Observatório Allegheny da Universidade de Pittsburgh. Ele baseou os seus argumentos nas comparações entre as proporções de explosões “nova” luminosas em espirais distantes e na nossa própria Via Láctea. As novas são explosões estelares extremamente brilhantes, que podem servir como indicadores de distância.
Curtis também citou uma prova de outro fator crucial — o elevado deslocamento para o vermelho exibido por muitas nebulosas espirais. Este fenômeno tinha sido descoberto por Vesto Slipher do Observatório Flagstaff, no Arizona, em 1912 — aparentemente através de mudanças distintivas no padrão das linhas espectrais de uma nebulosa em direção ao extremo vermelho do espectro. Slipher, Curtis e muitos outros acreditavam que isto era causado pelo efeito de Doppler (uma mudança no comprimento de onda da luz devido ao movimento relativo entre a fonte e o observador) e, portanto, indicava que as nebulosas se estavam a distanciar de nós a velocidades muito elevadas demasiado rápido para que a gravidade da Via Láctea as retivesse.
Medir o Universo
Por volta de 1922-23, Edwin Hubble e Milton Humason, do Observatório Mount Wilson, na Califórnia, estavam prestes a acabar com o mistério de uma vez por todas. Usando o novo Telescópio Hooker, de 2,5 m (o maior do mundo, na altura), propuseram-se a identificar as variáveis Cefeidas que brilhavam no interior das nebulosas espirais e, desta vez, conseguiram encontrar Cefeidas em muitas das nebulosas maiores e mais luminosas.
Hubble marcou então os seus períodos de variabilidade e, desse modo, as suas magnitudes absolutas. A partir daqui, uma comparação simples com a magnitude aparente de uma estrela revelava a sua distância, produzindo valores de, geralmente, milhões de anos-luz. Isto provou conclusivamente que as nebulosas espirais eram realmente gigantescos sistemas estelares independentes bastante para além da Via Láctea e de tamanho equivalente. Atualmente, as espirais nebulosas são corretamente designadas por galáxias espirais. Como se esta revolução na forma de vermos o Universo não fosse o bastante, Hubble passou depois a estudar o modo com as distâncias das galáxias se relacionavam com os deslocamentos para o vermelho já descobertos por Slipher, encontrando aqui uma relação extraordinária. Ao marcar as distâncias de mais de 40 galáxias face aos seus deslocamentos para o vermelho, ele mostrou um padrão vagamente linear: quanto mais distante está uma galáxia, maior é, em média, o seu deslocamento para o vermelho e, portanto, mais rapidamente se está a afastar da Terra. Hubble percebeu imediatamente que isto não podia ser porque a nossa galáxia é singularmente impopular, mas sim porque deve ser o resultado de uma expansão cósmica geral-por outras palavras, o próprio espaço está a expandir-se e a levar cada galáxia com ele. Quanto maior a separação entre duas galáxias, mais depressa o espaço entre elas se expandirá. A taxa de expansão de espaço depressa se tornou conhecida como a “Constante de Hubble”. Foi conclusivamente medida, em 2001, pelo telescópio espacial com o nome de Hubble.
Muito antes disso, a descoberta de Hubble de um Universo em expansão deu origem a uma das ideias mais famosas na história da ciência — a teoria do Big Bang (pp. 242-45)
A ideia de que o Universo começou com um Big Bang, expandindo-se a partir de um ponto minúsculo, superdenso e extremamente quente no espaço, é a base da cosmologia moderna, a qual se acredita ter surgido com a descoberta da expansão cósmica por Edwin Hubble, em 1929. Mas os precursores da teoria antecedem a descoberta de Hubble em vários anos, partindo inicialmente das interpretações da teoria geral de relatividade de Albert Einstein aplicada ao Universo como um todo.
Quando formulou a sua teoria, Einstein recorreu às provas disponíveis na altura para presumir que o Universo era estático — nem se expandindo, nem contraindo. A relatividade geral indicava que o Universo deveria colapsar sob a sua própria gravidade, portanto, Einstein manipulou as suas próprias equações, acrescentando um termo conhecido por constante cosmológica. A constante de Einstein neutralizava, matematicamente, a contração gravitacional para produzir o presumivelmente estático Universo.
Mais tarde, Einstein declarou famosamente a constante como sendo o seu maior erro, mas, mesmo na altura em que ele a propôs, houve quem a julgasse insatisfatória. O físico holandês Willem de Sitter e o matemático russo Alexander Friedmann sugeriram, independentemente, uma solução para a relatividade geral na qual o Universo se expandia e, em 1927, o astrônomo e sacerdote belga Georges Lemaître chegou à mesma conclusão, dois anos antes da prova observacional de Hubble.
Começar no fogo
Num discurso perante a British Association, em 1931, Lemaître levou a ideia da expansão cósmica à sua conclusão lógica, sugerindo que o Universo tinha surgido a partir de um único ponto, que designou por “átomo primordial”. A reação a esta ideia radical foi mista.
A ordem estabelecida no campo da astronomia da altura estava presa à ideia de um Universo eterno, sem fim ou início, e a perspectiva de um ponto de origem diferente (especialmente quando proposto por um padre católico) era vista como introduzindo um elemento religioso desnecessário na cosmologia.
No entanto, as observações de Hubble eram inegáveis, sendo preciso algum tipo de modelo para explicar o Universo em expansão. Foram apresentadas inúmeras teorias na década de 1930, mas, no final da década de 1940, apenas duas continuavam em jogo — o átomo primordial de Lemaître e o modelo rival de “estado estacionário”, no qual a matéria era criada continuamente à medida que o Universo se expandia. O astrônomo britânico Fred Hoyle era o patrono da ideia do estado estacionário e, em 1949, referiu-se de modo trocista à teoria rival como sendo um “Big Bang”. O nome pegou.
Construir os elementos
Na altura em que Hoyle batizou inadvertidamente a teoria, tinha sido publicada uma prova persuasiva em favor da hipótese de Lemaître, afastando a hipótese de um Universo em estado estacionário. Tratava-se de um artigo de 1948, escrito por Ralph Alpher e George Gamow da Universidade Johns Hopkins, nos EUA. Intitulava-se A Origem dos Elementos Químicos e descrevia, detalhadamente, como as partículas subatômicas e os elementos químicos leves podiam ter sido produzidos a partir da energia bruta do Big Bang, de acordo com a equação de Einstein E = mc2. Porém, esta teoria, mais tarde conhecida como núcleo-síntese do Big Bang, explicava um processo que apenas conseguia formar os quatro elementos mais leves — hidrogênio, hélio, lítio e berílio. Só mais tarde se descobriu que os elementos mais pesados do Universo são produto da núcleo-síntese estelar (um processo que ocorre dentro das estrelas). Ironicamente, a prova que mostrava como a núcleo-síntese estelar ocorria viria a ser desenvolvida por Fred Hoyle.
Contudo, ainda não havia nenhuma prova observacional direta que determinasse a veracidade do Big Bang ou de um Universo em estado estacionário. Na década de 1950 foram feitas as primeiras tentativas para testar as teorias usando um radiotelescópio básico conhecido como o Interferômetro de Cambridge. Estes testes baseavam-se num princípio simples: se a teoria do estado estacionário fosse verdadeira, então o Universo teria de ser essencialmente uniforme, tanto em espaço como em tempo; mas, se se tivesse originado há 10-20 mil milhões de anos, como a teoria do Big Bang sugeria, e evoluído ao longo da sua história, então os cantos mais distantes do Universo, cuja radiação levara milhares de milhões de anos para chegar à Terra, deveriam parecer substancialmente diferentes. (Este efeito de máquina do tempo cósmica, através do qual vemos os objetos celestiais mais distantes tal como eram num passado distante, é conhecido como “lookback time”). Devia ser possível distinguir entre os dois cenários medindo o número de galáxias distantes que emitem radiação acima de determinada luminosidade.
As primeiras experiências de Cambridge apresentaram um resultado que parecia apoiar o Big Bang. No entanto, foram descobertos problemas com os detectores de rádio, portanto, os resultados tiveram de ser descartados. Resultados posteriores foram mais equívocos.
Traços do Big Bang
Felizmente, a questão depressa se resolveu por outros meios. Em 1948, Alpher e o seu colega Robert Herman tinham previsto que o Big Bang teria deixado um efeito de aquecimento residual por todo o Universo. Segundo a teoria, quando o Universo tinha cerca de 380 mil anos arrefecera já o suficiente para se tornar transparente, permitindo que os fotões de luz se deslocassem livremente pelo espaço pela primeira vez. Os fotões que existiam nessa altura têm-se vindo a propagar pelo espaço desde então, ficando cada vez mais compridos e vermelhos à medida que o espaço se expandia. Em 1964, Robert Dicke e os seus colegas da Universidade de Princeton propuseram-se a montar um radiotelescópio que pudesse detectar esse sinal fraco, o qual supuseram assumir a forma de ondas de rádio de baixa energia. No entanto, acabaram por ser ultrapassados por Arno Penzias e Robert Wilson, dois engenheiros que trabalhavam ali perto nos Laboratórios Bell Telephone. Penzias e Wilson tinham construído um radiotelescópio para comunicação via satélite, mas acabaram perturbados por um sinal de fundo indesejado que não conseguiam eliminar. Vindo de todos os pontos do céu, correspondia às emissões de micro-ondas de um corpo a uma temperatura de 3,5 K — apenas 3,5° C acima do zero absoluto. Quando os Laboratórios Bell contataram Dicke para pedir ajuda para o problema, Dicke percebeu que eles tinham encontrado os restos do Big Bang-hoje conhecidos por Radiação Cósmica de Fundo de Micro-ondas (CMB).
A descoberta de que a CMB permeia o Universo — um fenômeno para o qual a teoria do estado estacionário não tinha qualquer explicação — virou o caso a favor do Big Bang. Medições subsequentes mostraram que a verdadeira temperatura média da CMB é de cerca de 2,73 K e medições por satélite de alta precisão revelaram diminutas variações no sinal, as quais nos permitem estudar as condições do Universo 380 mil anos depois do Big Bang.
Desenvolvimentos posteriores
Apesar de ter sido provada correta, em princípio, a teoria do Big Bang tem passado por muitas transformações desde a década de 1960, de modo a acompanhar o nosso entendimento crescente do Universo. Entre as mais importantes estão a introdução da matéria escura e da energia escura na história e o acrescentar de um período de crescimento violento no instante após a criação, conhecido como Inflação. Os eventos que originaram o Big Bang ainda permanecem fora do nosso alcance, mas as medições da taxa de expansão cósmica, auxiliadas por instrumentos como o Telescópio Espacial Hubble, permitem-nos hoje calcular a época da criação cósmica com grande precisão — o Universo começou a existir há 13 798 milhões de anos, com uma margem de erro de 37 milhões de anos. Existem várias teorias sobre o futuro do Universo, mas muitos acham que este se irá continuar a expandir até chegar a um estado de equilíbrio termodinâmico, ou “morte térmica”, no qual a matéria se terá desintegrado em partículas subatômicas frias, daqui a cerca de 10100 anos.
O físico inglês Paul Dirac contribuiu grandemente para o enquadramento teórico da física quântica, na década de 1920, mas é mais conhecido por ter previsto a existência de antipartículas através da matemática.
Dirac era aluno de doutoramento na Universidade de Cambridge quando leu o artigo inovador de Werner Heisenberg sobre a mecânica matricial, que descrevia como as partículas saltam de um estado quântico para outro. Dirac foi uma das poucas pessoas capazes de perceber as complexidades matemáticas do artigo e notou paralelismos entre as equações de Heisenberg e partes da teoria clássica (pré-quântica) do movimento de partículas, conhecida como mecânica hamiltoniana. Isto permitiu que Dirac desenvolvesse um método através do qual os sistemas clássicos podem ser compreendidos a nível quântico.
Um dos primeiros resultados do seu trabalho foi uma derivação da ideia de spin quântico. Dirac formulou um conjunto de regras, hoje conhecido como “estatística de Fermi-Dirac” (já que foram também independentemente descobertas por Enrico Fermi). Em homenagem a Fermi, Dirac designou por “fermiões” as partículas, como os eletrões, que possuem um valor de spin semi-inteiro. As regras descrevem como grandes quantidades de fermiões interagem uns com os outros. Em 1926, Ralph Fowler, o orientador de doutoramento de Dirac, usou a sua estatística para calcular o comportamento de um núcleo estelar em colapso e explicar a origem das estrelas anās brancas superdensas.
Teoria quântica dos campos
Embora muitos dos manuais didáticos de física se foquem nas propriedades e nas dinâmicas das partículas e dos corpos individuais sob a influência de forças, uma compreensão mais profunda pode ser alcançada através do desenvolvimento de teorias de campos. Estas descrevem como as forças fazem sentir a sua influência no espaço. A importância dos campos como entidades independentes foi primeiro reconhecida, em meados do século XIX, por James Clerk Maxwell, enquanto desenvolvia a sua teoria da radiação eletromagnética. A relatividade geral de Einstein é um outro exemplo de uma teoria de campos.
A nova interpretação de Dirac do mundo quântico era uma teoria quântica de campos. Em 1928, permitiu-lhe produzir uma versão relativista da equação de onda de Schrödinger para o eletrão (ou seja, uma versão que podia considerar os efeitos das partículas que se aproximavam da velocidade da luz e, portanto, modelar o mundo quântico de forma mais precisa do que a equação não relativista de Schrödinger). A chamada “equação de Dirac” também previa a existência de partículas com propriedades idênticas às partículas de matéria, mas com carga elétrica oposta. Foram designadas por “antimatéria”.
O positrão, ou partícula antieletrão, foi confirmado experimentalmente pelo físico americano Carl Anderson, em 1932, detectado inicialmente em raios cósmicos (partículas de elevada energia que caem na atmosfera da Terra vindas do espaço profundo) e, depois, em certos tipos de desintegração radioativa. Desde então, a antimatéria passou a ser tema de intensas investigações físicas e também a preferida de escritores de ficção científica (especialmente pelo seu hábito de se “aniquilar” com uma explosão de energia em contato com a matéria normal). Mas, talvez ainda mais importante, a teoria quântica dos campos de Dirac estabeleceu as bases da teoria da eletrodinâmica quântica, consolidada por uma geração posterior de físicos.
O desenvolvimento da física quântica, na década de 1920, teve implicações para a astronomia, onde foi aplicada à compreensão de estrelas superdensas conhecidas como anãs brancas. Estas são núcleos consumidos de estrelas semelhantes ao Sol, que esgotaram o seu combustível nuclear e colapsaram sob a sua própria gravidade, tornando-se objetos do tamanho aproximado da Terra. Em 1926, os físicos Ralph Fowler e Paul Dirac explicaram que o colapso se detém nesse tamanho devido à “pressão dos eletrões degenerados”, a qual surge sempre que os eletrões são aglomerados de forma tão condensada que o princípio da exclusão de Pauli (p. 230) — duas partículas não podem ocupar o mesmo estado quântico — entra em ação.
Formando um buraco negro
Em 1930, o astrofísico indiano Subrahmanyan Chandrasekhar descobriu que havia um limite superior para a massa de um núcleo estelar, além do qual a gravidade superaria a pressão dos eletrões degenerados. O núcleo estelar colapsaria num único ponto no espaço, conhecido como “singularidade” — formando um buraco negro. Hoje sabe-se que esse “limite de Chandrasekhar” para um núcleo estelar em colapso é de 1,44 massas solares (ou 1,44 vezes a massa do Sol). Contudo, há um estádio intermédio entre a anã branca e o buraco negro-uma estrela de neutrões do tamanho de uma cidade estabilizada por outro efeito quântico chamado “pressão da degeneração dos neutrões”. Os buracos negros são criados apenas quando o núcleo da estrela de neutrões excede um limite superior entre 1,5 e 3 vezes a massa solar.
Entre os primeiros a realizar experiências científicas sobre o comportamento dos animais encontrava-se o biólogo britânico do século XIX, Douglas Spalding, que estudou os pássaros. A visão prevalecente era de que o comportamento complexo dos pássaros era aprendido, mas Spalding considerava esse comportamento em parte inato: era herdado e essencialmente “intrínseco” — como a tendência de uma galinha para chocar os seus ovos.
A etologia moderna — o estudo do comportamento animal — aceita que o comportamento inclui tanto os componentes aprendidos como os inatos: o comportamento inato é estereotipado e, por ser herdado, pode evoluir por seleção natural, enquanto o comportamento aprendido pode ser modificado pela experiência.
Gravar os gansos
Na década de 1930, o biólogo austríaco Konrad Lorenz focou-se numa forma de comportamento aprendido nos pássaros, à qual deu o nome de “imprinting”. Estudou o modo como os gansos comuns gravam, ou seguem, os primeiros estímulos de movimento adequado que veem durante um período crucial depois de chocarem. O exemplo materno dá origem a um comportamento instintivo, conhecido por “padrão fixo de ação”, na sua ninhada.
Lorenz demonstrou isto com gansos bebês, que o adotaram como a sua mãe seguindo-o por todo o lado. Eles até gravavam as ações de objetos inanimados, seguindo um comboio de brincar que andava em círculos. Conjuntamente com o biólogo holandês Nikolaas Tinbergen, Lorenz recebeu o Nobel da Fisiologia, em 1973.
A ideia de que o Universo pode ser dominado por algo além de matéria luminosa detectável foi primeiro proposta pelo astrônomo suíço Fritz Zwicky. Em 1922-1923, Edwin Hubble tinha percebido que as “nebulosas” eram, de facto, galáxias distantes. Uma década depois, Zwicky propôs-se a medir a massa global de Coma, um aglomerado de galáxias. Usou um modelo matemático chamado teorema de Virial, que lhe permitiu calcular a massa global a partir das velocidades relativas de aglomerados individuais de galáxias.
Para surpresa de Zwicky, os seus resultados sugeriram que o aglomerado continha cerca de 400 vezes mais massa do que a sugerida pela luz somada das suas estrelas. Zwicky chamou a essa quantidade avassaladora de matéria oculta “matéria escura”.
Na altura, a conclusão de Zwicky foi generalizadamente ignorada, mas na década de 1950 novas tecnologias trouxeram novos meios de detecção de material não luminoso. Era óbvio que grandes quantidades de matéria são demasiado frias para reluzir na luz visível, embora continuem a irradiar nos comprimentos de onda infravermelho e de rádio. À medida que os cientistas iam começando a compreender a estrutura visível e invisível da nossa e de outras galáxias, a quantidade da “massa em falta” diminuiu substancialmente.
O invisível é real
A realidade da matéria escura foi finalmente reconhecida na década de 1970, depois de a astrônoma americana Vera Rubin ter mapeado a velocidade das estrelas que orbitam a Via Láctea e após ter medido a distribuição da sua massa. Ela mostrou que existem grandes quantidades de massa distribuídas para além dos confins visíveis da galáxia, numa região conhecida como o halo galáctico. Hoje aceita-se que a matéria escura compõe cerca de 84,5 por cento da massa no Universo. Quaisquer esperanças de que se possa tratar de matéria normal em formas de difícil detecção, como buracos negros ou planetas órfãos, não foram comprovadas pela investigação. Pensa-se que a matéria escura contenha as chamadas partículas maciças com interação fraca (Weakly Interacting Massive Particles, ou WIMPS). As propriedades destas partículas subatômicas hipotéticas ainda são desconhecidas — elas não são apenas escuras e transparentes, também não interagem com a matéria normal ou a radiação, exceto através da gravidade.
Desde o final da década de 1990, ficou claro que até a matéria escura parece diminuta quando comparada com a “energia escura”. Este fenômeno é a força que acelera a expansão do Universo (pp. 236-41) e a sua natureza ainda permanece desconhecida. Pensa-se que a energia escura representa 68,3 por cento de toda a energia do Universo, com a energia da matéria escura a totalizar 26,8 por cento e a matéria normal uns meros 4,9 por cento.
Imagine classificar 1000 números aleatórios, por exemplo, 520, 74, 2395, 4, 999... por ordem crescente. Um tipo de procedimento automático poderia ajudar. Por exemplo:
A Compare o primeiro par de números. B Se o segundo número for menor, troque os números e regresse a A. Se for igual ou maior, vá para C. C Torne o segundo número do último par no primeiro de um novo par. Se houver um número seguinte, torne-o no segundo número do par e vá para B. Se não houver número seguinte, termine.
Este conjunto de instruções é uma sequência conhecida como algoritmo. Começa com uma condição inicial ou estado; recebe os dados ou informações de entrada; executa-se um número finito de vezes; e apresenta um resultado final, ou informação de saída. A ideia é familiar a qualquer programador de computadores atual. Foi formalizada pela primeira vez em 1936, quando o matemático e lógico britânico Alan Turing concebeu as máquinas, que hoje conhecemos como máquinas Turing, para executar tais procedimentos. O seu trabalho era inicialmente teórico um exercício de lógica. Ele estava interessado em reduzir uma tarefa numérica à sua forma mais simples, mais básica e automática.
A máquina-a
Para ajudar a visualizar a situação, Turing concebeu uma máquina hipotética. A “máquina-a” (“a” de automático) era uma longa fita de papel dividida em quadrados, com um número, letra ou símbolo em cada quadrado e uma cabeça de leitura/impressão. Com instruções sob a forma de uma tabela de regras, a cabeça lê o símbolo do quadrado que vê e altera-o, apagando e imprimindo outro, ou deixa-o intacto, segundo as regras. Depois passa para o quadrado à esquerda ou à direita e repete o procedimento. De cada vez, há uma configuração geral diferente da máquina, com uma nova sequência de símbolos.
Todo o processo pode ser comparado ao algoritmo de classificação numérica acima. Este algoritmo é construído para uma tarefa específica. Do mesmo modo, Turing idealizava uma série de máquinas, cada uma com um conjunto de instruções ou regras para uma função específica. Ele acrescentou: “Só temos de encarar as regras como podendo ser retiradas e trocadas por outras e temos algo muito parecido com uma máquina de computação universal.”
Conhecida como a Máquina de Turing Universal (MTU), tem um armazenamento infinito (memória) e contém instruções e dados. O MTU poderia, portanto, simular qualquer máquina Turing. Aquilo a que Turing chamou mudar as regras seria hoje designado por programação. Deste modo, Turing apresentou pela primeira vez o conceito de computador programável, adaptável a muitas tarefas, com inserção de dados, processamento de informação e fornecimento de resultados.
No final da década de 1920 e início da de 1930, o químico americano Linus Pauling escreveu, numa série de artigos de referência, uma explicação mecânica quântica para a natureza das ligações químicas. Pauling tinha estudado mecânica quântica na Europa com o físico alemão Arnold Sommerfeld em Munique, Niels Bohr em Copenhaga e Erwin Schrödinger em Zurique. Já tinha decidido que queria investigar as ligações no interior das moléculas e percebeu que a mecânica quântica lhe dava as ferramentas certas para o fazer.
Hibridização de orbitais
Ao regressar aos EUA, Pauling publicou cerca de 50 artigos e, em 1929, estabeleceu um conjunto de cinco regras para a interpretação dos padrões de difração dos raios X de cristais complicados, conhecidas atualmente como regras de Pauling. Ao mesmo tempo, voltou a sua atenção para as ligações entre átomos em moléculas covalentes (moléculas nas quais os átomos se ligam através da partilha de dois eletrões entre ambos), principalmente de compostos orgânicos aqueles baseados no carbono.
Um átomo de carbono tem seis eletrões no total. Os pioneiros europeus da mecânica quântica designaram os dois primeiros por “eletrões-1s”: estes têm uma orbital esférica em volta do núcleo de carbono — como um balão insuflado em volta de uma bola de golfe no centro. No exterior da orbital 1s existe uma outra contendo dois “eletrões 2s”. A orbital 2s é como outro balão maior, por fora do primeiro. Por fim, há as “orbitais-p”, que têm grandes lóbulos a sair de lados opostos do núcleo. A orbital px fica no eixo dos x, a py no eixo dos y e a orbital pz no eixo dos z. Os dois últimos eletrões do átomo de carbono ocupam duas dessas orbitais — talvez, um na px um na py.
A nova imagem da mecânica quântica dos eletrões tratava as suas órbitas como “nuvens” de densidades de probabilidade. Já não era exatamente correto pensar nos eletrões como pontos a deslocar-se em volta das suas órbitas; em vez disso, a sua existência estava espalhada pelas órbitas. Esta nova imagem não local da realidade abria as portas a algumas novas ideias radicais para as ligações químicas. As ligações podiam ser do tipo “sigma” fortes, nas quais as orbitais se sobrepunham diretamente, ou ligações “pi”, mais fracas e difusas, nas quais as orbitais são paralelas umas às outras.
Pauling teve a ideia de que numa molécula, ao contrário de num átomo puro, as orbitais atômicas de carbono podiam combinar-se, ou “hibridizar-se”, para formar ligações mais fortes com outros átomos. Ele mostrou que as orbitais se p podiam hibridizar-se para formar quatro híbridos sp3, os quais seriam todos equivalentes e projetar-se-iam a partir do núcleo em direção aos cantos de um tetraedro, com ângulos de interligação de 109,5°. Cada orbital sp3 pode formar uma ligação sigma com outro átomo. Isto é consistente com o facto de que todos os átomos de hidrogênio no metano (CH) e todos os átomos de cloro no tetracloreto de carbono (CCI) se comportam da mesma forma.
À medida que as estruturas dos vários compostos de carbono eram estudadas, os quatro átomos vizinhos mais próximos eram frequentemente encontrados em disposições tetraédricas. A estrutura de cristal do diamante encontrava-se entre as primeiras estruturas que foram resolvidas pela cristalografia de raios X, em 1914. O diamante é carbono puro e, no cristal, cada átomo de carbono está ligado a outros quatro através de ligações sigma nos cantos de um tetraedro. Esta estrutura explica a dureza do diamante.
Outra forma possível para os átomos de carbono se ligarem a outros átomos é uma orbital-s misturar-se com duas orbitais-p para formar três híbridos sp2. Estes projetam-se para fora do núcleo num plano, com ângulos de 120° entre si. Isto é consistente com a geometria de moléculas como o etileno, que possui uma estrutura de ligação dupla H2C=CH2. Aqui, é formada uma ligação sigma entre os átomos de carbono por um dos híbridos sp2 e uma ligação pi pela quarta orbital não hibridizada.
Por último, uma orbital-s pode misturar-se com uma orbital-p para formar dois híbridos sp, cujos lóbulos se projetam para fora, em linha direta, num ângulo de 180°. Isto é consistente com a estrutura do dióxido de carbono (CO2), no qual cada híbrido sp forma uma ligação sigma com o oxigênio, sendo uma segunda ligação pi formada pelas duas orbitais não hibridizadas restantes.
Uma nova estrutura de benzeno
A estrutura do benzeno, C6H6 preocupara August Kekulé quando este propôs inicialmente tratar-se de um anel, mais de 60 anos antes. Ele acabou por sugerir que os átomos de carbono têm de estar ligados através de ligações alternadas simples e duplas e que a molécula oscilava entre as duas estruturas equivalentes (p. 164).
A solução alternativa de Pauling era elegante. Ele disse que os átomos de carbono eram todos hibridizados sp2, de modo que as ligações entre eles e os átomos de hidrogênio ficam todas no mesmo plano xy e formam um ângulo de 120° entre si. Cada átomo de carbono tem um eletrão restante numa orbital p2. Estes eletrões combinam-se para formar uma ligação entre os seis átomos de carbono. Esta é uma ligação pi e nela os eletrões permanecem acima e abaixo do anel e distantes dos núcleos de carbono (ver à direita).
Ligação iônica
O metano e o etileno são gases à temperatura ambiente. O benzeno e muitos outros compostos orgânicos à base de carbono são líquidos. Têm moléculas pequenas e leves que se podem deslocar facilmente no estado gasoso ou líquido. Sais como o carbonato de cálcio e o nitrato de potássio, por outro lado, são quase invariavelmente sólidos, só derretendo a temperaturas elevadas. E, contudo, uma unidade de cloreto de sódio (NaCl) tem um peso molecular de 62, enquanto o benzeno tem um peso molecular de 78. A diferença no seu comportamento não é explicada pelo seu peso, mas pela sua estrutura. O benzeno mantém-se unido em moléculas simples através de ligações covalentes entre os átomos; ou seja, cada ligação contém um par de eletrões partilhado por dois átomos específicos.
O cloreto de sódio tem propriedades bastante diferentes. O sódio, um metal prateado, arde energicamente no gás esverdeado cloro para produzir o branco e sólido cloreto de sódio. O átomo de sódio tem uma orbital completa e estável de eletrões em redor do núcleo, mais um eletrão extra fora dele. O átomo de cloro tem um eletrão a menos para formar uma orbital completa. Quando reagem, um eletrão é transferido do átomo de sódio para o átomo de cloro, adquirindo ambos orbitais completas e estáveis de eletrões, mas agora o sódio tornou-se um ião de sódio Na e o cloro tornou-se o ião de cloreto Cl (ver acima). Não têm eletrões extra para formar ligações covalentes, mas os iões estão agora carregados: o átomo de sódio perdeu um eletrão de carga negativa, tendo agora uma carga geral positiva; o átomo de cloro ganhou um eletrão e tem uma carga negativa. Os iões são mantidos juntos pela atração eletrostática de mais com menos — uma ligação forte.
O cloreto de sódio foi o primeiro composto a ser analisado pela cristalografia de raios X. Descobriu-se que, na realidade, não existe uma molécula de NaCl. A estrutura contém uma infinidade de iões alternados de sódio e cloreto. Cada ião de sódio está rodeado por seis iões de cloreto e cada cloreto está rodeado por seis de sódio. Muitos outros sais têm estruturas semelhantes: redes infinitas de um tipo de ião, com iões diferentes a preencherem todos os buracos.
Eletronegatividade
Pauling explicou a ligação iónica em compostos como o cloreto de sódio, que é puramente iônico, e também em compostos onde a ligação não é nem puramente iônica nem puramente covalente, mas algures num meio-termo. Este trabalho levou-o a desenvolver o conceito de eletronegatividade, o qual, até certo ponto, ecoava a lista de metais por ordem decrescente de eletropositividade apresentada por Alessandro Volta, em 1800. Pauling descobriu que a ligação covalente formada entre átomos de dois elementos diferentes (ex.: C-O) é mais forte do que se poderia esperar a partir da média das forças das ligações C-C e O-O. Ele achou que tinha de haver algum fator elétrico que fortalecesse a ligação e dispôs-se a calcular valores para esse fator. A escala é hoje conhecida por escala de Pauling.
A eletronegatividade de um elemento (falando estritamente de um composto especifico) é uma medida da força com que um átomo do elemento atrai eletrões para si. O elemento mais eletronegativo é o flúor; o menos eletronegativo (ou o mais eletropositivo) dos elementos bem conhecidos é o césio. No composto de fluoreto de césio, cada átomo de flúor puxa um eletrão para longe de um átomo de césio, resultando num composto iónico Cs F.
Num composto covalente como a água (H2O) não há iões, mas o oxigênio é bastante mais eletronegativo do que o hidrogênio e o resultado é a molécula da água ser polar, com uma pequena carga negativa no átomo de oxigénio e uma pequena carga positiva nos átomos de hidrogênio. As cargas fazem com que as moléculas da água se mantenham firmemente unidas. Isto explica por que razão a água tem tanta tensão de superfície e um ponto de fervura tão alto.
Pauling propôs originalmente uma escala de eletronegatividade em 1932, tendo-a ele e outros desenvolvido ainda mais nos anos seguintes. Pelo seu trabalho de elucidação da natureza da ligação química ganhou o Prémio Nobel de Química em 1954.
Em 1938, o mundo estava à beira da era atômica. Um homem daria o primeiro passo para liderar o impulso científico que abriria as portas dessa nova era. Para J. Robert Oppenheimer, essa decisão acabaria por destruí-lo. Foi o administrador do maior projeto científico que o mundo alguma vez vira — o Projeto Manhattan —, mas acabou por se arrepender profundamente da sua participação nele.
Motivação para o centro
A diversificada vida profissional de Oppenheimer tinha sido caracterizada por um impulso implacável para “estar onde tudo acontece” e essa compulsão levou o recém-formado homem de Harvard para a Europa, o centro da física teórica em ascensão. Em 1926, na Universidade de Göttingen, na Alemanha, produziu a aproximação de Born-Oppenheimer com Max Born, a qual foi usada para explicar, conforme disse Oppenheimer, “por que razão as moléculas são moléculas”. Este método expandia a mecânica quântica para além dos átomos individuais para descrever a energia dos compostos químicos. Era um exercício matemático ambicioso, já que tinha de ser computado um leque estonteante de possibilidades para cada eletrão numa molécula. O trabalho de Oppenheimer na Alemanha provou ser crucial para o cálculo da energia na química moderna, mas a grande descoberta, que levaria à bomba atômica, surgiu após o seu regresso aos Estados Unidos.
Fissão e buracos negros
A reação em cadeia que levou à construção da bomba atômica começou em meados de dezembro de 1938, quando os químicos alemães Otto Hahn e Fritz Strassmann “dividiram o átomo” no seu laboratório de Berlim. Tinham estado a disparar neutrões contra o urânio, mas, em vez de criarem elementos mais pesados através da absorção de neutrões, ou elementos mais leves através da emissão de um ou mais nucleões (protões ou neutrões), descobriram que havia uma libertação do elemento mais leve, o bário, o qual tinha 100 vezes menos nucleões do que o núcleo do urânio. Nenhum processo nuclear compreendido na altura podia explicar a perda de 100 nucleões.
Perplexo, Hahn enviou uma carta aos colegas Lise Meitner e Otto Frisch, em Copenhaga. Num mês, Meitner e Frisch tinham decifrado o mecanismo básico da fissão nuclear, reconhecendo que o urânio era dividido em bário e crípton, os nucleões em falta eram convertidos em energia e podia seguir-se uma reação em cadeia. Em 1939, o físico dinamarquês Niels Bohr levou a notícia para os EUA. O seu relato, juntamente com a publicação do artigo de Meitner-Frisch no jornal Nature, deixou a comunidade científica da Costa Leste em polvorosa. Conversas entre Bohr e John Archibald Wheeler, em Princeton, depois da Conferência Anual de Física Teórica, levaram à teoria da fissão nuclear de Bohr-Wheeler.
Todos os átomos do mesmo elemento têm núcleos com o mesmo número de protões, mas o número de neutrões pode variar, compondo diferentes isótopos do mesmo elemento. No caso do urânio, existem dois isótopos que ocorrem naturalmente. O urânio-238 (U-238) constitui 99,3 por cento do urânio natural e o seu núcleo contém 92 protões e 146 neutrões. Os restantes 0,7 por cento são compostos por urânio-235 (U-235), cujo núcleo contém 92 protões e 143 neutrões. A teoria Bohr-Wheeler incorporava a descoberta de que neutrões de baixa energia podiam causar a fissão no U-235, levando à divisão do átomo e libertando energia no processo.
Quando as notícias chegaram à Costa Oeste, Oppenheimer, agora em Berkeley, ficou encantado. Deu uma série de palestras e seminários sobre essa teoria recente e viu rapidamente o potencial de construção de uma arma de poder impressionante — na sua ideia, “uma forma boa, honesta e prática” de usar a nova ciência. Contudo, enquanto os laboratórios das universidades da Costa Leste corriam para reproduzir os resultados das primeiras experiências de fissão, Oppenheimer concentrava a sua investigação nas estrelas que se contraíam e colapsavam sob a sua própria gravidade para formar buracos negros.
O nascimento da ideia
A ideia de uma arma nuclear já andava no ar. Ainda em 1913, H. G. Wells escreveu sobre “extrair a energia interna dos átomos” para fazer “bombas atômicas”. No seu romance The World Set Free, a inovação estava programada para acontecer no ano de 1933. No próprio ano de 1933, Ernest Rutherford abordou a grande quantidade de energia libertada durante a fissão nuclear num discurso impresso no jornal The Times de Londres. No entanto, Rutherford descartou a ideia de aproveitar essa energia, declarando-a uma “tolice”, já que o processo era tão ineficiente que exigia muito mais energia do que a que libertava.
Foi Leó Szilárd, um húngaro a viver em Inglaterra, que viu como é que isso poderia ser feito, percebendo também as consequências horríveis para um mundo a caminho da guerra. Analisando a palestra de Rutherford, Szilár viu que os “neutrões secundários”, que emergiam da primeira fissão, poderiam, eles próprios, criar mais eventos de fissão, resultando numa reação em cadeia progressiva de fissão nuclear Szilárd recordou mais tarde: “Tive poucas dúvidas de que o mundo se encaminhava para a desgraça.”
Experiências na Alemanha e nos EUA mostraram que a reação em cadeia era de facto possível, incitando Szilárd e um outro emigrante húngaro, Edward Teller, a abordar Albert Einstein com uma carta. Einstein pas- sou a carta ao presidente Roosevelt a 11 de outubro de 1939 e, apenas dez dias depois, o Comité Consultivo do Urânio foi criado para investigar a possibilidade de que a bomba se desenvolvesse primeiro nos Estados Unidos.
O nascimento da Grande Ciência
O Projeto Manhattan, que surgiu desta resolução, era ciência na sua maior escala imaginável. Uma organização multiarmamento, que se espalhou por vários grandes complexos nos EUA e no Canadá e por inúmeras instalações mais pequenas, empregando 130 mil pessoas e que, no seu final, tinha consumido mais de 2000 milhões de dólares (mais de 23 mil milhões de euros a preços de 2014) — e tudo no maior secretismo.
No início de 1941 foi tomada a decisão de se prosseguir com cinco métodos independentes de produção de material fissionável para uma bomba: separação eletromagnética, difusão gasosa e difusão térmica para separar isótopos de urânio-235 do urânio-238; e duas linhas de investigação sobre tecnologia de reatores nucleares. A 2 de dezembro de 1942, a primeira reação em cadeia controlada, envolvendo fissão nuclear, foi realizada num court de squash, na Universidade de Chicago. O Chicago Pile-1, de Enrico Fermi, era o protótipo dos reatores que viriam a enriquecer o urânio e criar o recém-descoberto plutônio — um elemento instável, ainda mais pesado do que o urânio, que também pode provocar uma rápida reação em cadeia e ser usado para criar uma bomba ainda mais mortífera.
A Montanha Mágica
Escolhido para liderar a investigação do Projeto Manhattan sobre armas secretas, Oppenheimer aprovou um colégio interno desativado no rancho Los Alamos, no Novo México, como local para as instalações de investigação dos estágios finais do projeto — a construção de uma bomba atômica. O “Local Y” viria a ter a maior concentração de prêmios Nobel alguma vez reunidos num só lugar.
Como grande parte da ciência importante já fora concluída, muitos dos cientistas de Los Alamos classificaram o seu trabalho no deserto do Novo México como um mero “problema de engenharia”. No entanto, foi a coordenação de Oppenheimer de 3000 cientistas que possibilitou a construção da bomba.
Mudança de ideias
O bem-sucedido teste Trinity de 16 de julho de 1945 e a subsequente detonação de uma bomba chamada Little Boy sobre Hiroxima, no Japão, a 6 de agosto de 1945, deixaram Oppenheimer exultante. Contudo, o acontecimento viria a lançar uma sombra profunda sobre o diretor de Los Alamos. A Alemanha já se tinha rendido quando a bomba foi lançada e muitos cientistas de Los Alamos sentiam que uma demonstração pública da bomba era suficiente — depois de ver o seu poder aterrador, o Japão render-se-ia certamente. No entanto, enquanto Hiroxima era encarada por alguns como um mal necessário, a detonação de um dispositivo de plutónio — chamado Fat Man — sobre Nagasáqui, a 9 de agosto, era difícil de justificar. Um ano mais tarde, Oppenheimer declarou publicamente a sua opinião de que as bombas atômicas tinham sido lançadas sobre um inimigo derrotado.
Em outubro de 1945, Oppenheimer encontrou-se com o presidente Harry S. Truman e disse-lhe: “Sinto que tenho sangue nas mãos.” Truman ficou furioso. Em 1954, audiências no Congresso retiraram as autorizações de segurança do cientista, acabando com a sua capacidade para influenciar a política pública.
Por essa altura, Oppenheimer tinha supervisionado o advento do complexo militar-industrial e aberto as portas a uma nova era de Grande Ciência. Ao presidir à criação de um novo terror científico, tornou-se um símbolo para as consequências morais das ações que os cientistas tinham agora de considerar.
A ideia de que as estrelas geram energia através do processo de fusão nuclear foi originalmente proposta pelo astrônomo britânico Arthur Eddington, em 1920. Ele argumentou que as estrelas eram como fábricas que fundiam núcleos de hidrogênio em hélio. Um núcleo de hélio contém ligeiramente menos massa do que os quatro núcleos de hidrogênio necessários para o criar. Essa massa é convertida em energia de acordo com a equação E = mc2. Eddington desenvolveu um modelo da estrutura estelar em termos do equilíbrio entre a atração gravitacional interior e a pressão exterior da radiação em fuga, mas não desvendou a física das reações nucleares envolvidas.
Criar elementos mais pesados
Em 1939, Hans Bethe, o físico americano nascido na Alemanha, publicou uma análise pormenorizada dos diferentes caminhos que a fusão do hidrogênio poderia tomar. Identificou duas vias — uma corrente lenta de baixas temperaturas, predominante em estrelas como o nosso Sol, e um ciclo rápido de elevadas temperaturas, predominante em estrelas mais maciças. Entre 1946 e 1957, Fred Hoyle e outros desenvolveram as ideias de Bethe para mostrar até onde as reações de fusão envolvendo hélio podiam gerar carbono e elementos mais pesados, até à massa do ferro. Isto explicava a origem de muitos dos elementos mais pesados do Universo. Hoje sabemos que os elementos mais pesados do que o ferro formam-se nas explosões de supernovas o último fôlego de estrelas maciças. Os elementos necessários à vida são feitos nas estrelas.
No início do século XX, as leis da hereditariedade, descritas por Gregor Mendel em 1866, foram aperfeiçoadas à medida que eram feitas novas descobertas sobre as partículas da hereditariedade, identificadas como genes, e os filamentos microscópicos que as transportam, denominados cromossomas. Na década de 1930, a geneticista Barbara McClintock foi a primeira a perceber que os cromossomas não eram as estruturas estáveis anteriormente imaginadas e que a posição dos genes nos cromossomas podia ser alterada.
Trocar genes
McClintock estava a estudar a hereditariedade nas plantas do milho. Uma espiga de milho tem centenas de grãos, cada um deles de cor amarela, castanha ou riscado, de acordo com os genes da espiga. Um grão é uma semente — um descendente único —, portanto, estudar muitas espigas fornece um leque de dados sobre a hereditariedade da cor do grão. McClintock combinou experiências de reprodução com trabalho de microscópico sobre os cromossomas. Em 1930, descobriu que, durante a reprodução sexual, os cromossomas juntavam-se em pares quando as células sexuais se formavam, criando um formato em X. Ela percebeu que estas estruturas em X marcavam os locais onde os pares de cromossomas trocavam segmentos. Os genes anteriormente ligados no mesmo cromossoma deslocavam-se, o que dava origem a novos traços, incluindo cores variáveis.
Esta mistura dos genes — designada por recombinação genética — produz uma variedade genética muito maior na prole. Como resultado, as hipóteses de sobrevivência em ambientes diferentes são reforçadas.
Uma das questões levantadas pela mecânica quântica na década de 1920 era o modo como as partículas de matéria interagiam por meio de forças. O eletromagnetismo também precisava de uma teoria que funcionasse à escala quântica. A teoria que surgiu, a eletrodinâmica quântica (EDQ), explicava a interação das partículas através da troca de eletromagnetismo. Provou ter bastante sucesso, embora um dos seus pioneiros, Richard Feynman, lhe chamasse “estranha”, porque a imagem do Universo que descreve é difícil de visualizar.
Partículas mensageiras Paul Dirac deu o primeiro passo em direção a uma teoria de EDQ baseada na ideia de que as partículas com carga elétrica interagiam através da troca de quanta, ou “fotões”, de energia eletromagnética — os mesmos quanta eletromagnéticos que incluem a luz. Os fotões podem ser criados a partir do nada por períodos breves de tempo segundo o princípio da incerteza de Heisenberg, o que permite flutuações na quantidade de energia disponível no espaço “vazio”. Tais fotões são ocasionalmente designados por partículas “virtuais” e os físicos confirmaram posteriormente o seu envolvimento no eletromagnetismo. De modo mais geral, as partículas mensageiras nas teorias quânticas dos campos são conhecidas como “bosões de gauge”.
No entanto, havia problemas com a EDQ. Os mais significativos eram que as suas equações geravam frequentemente valores infinitos sem sentido.
Somando as probabilidades
Em 1947, o físico alemão Hans Bethe sugeriu um modo de corrigir as equações para que estas espelhassem os verdadeiros resultados de laboratório. No final da década de 1940, o físico japonês Sin-Itiro Tomonaga, os americanos Julian Schwinger e Richard Feynman e outros pegaram nas ideias de Bethe e desenvolveram-nas para produzir uma versão matematicamente sólida da EDQ. Isto deu origem a resultados significativos ao considerar todos os modos possíveis pelos quais as interações poderiam ocorrer, segundo a mecânica quântica.
Feynman tornou este assunto complexo mais fácil de entender com a sua invenção dos “diagramas de Feynman” — simples representações por imagens de possíveis interações eletromagnéticas entre partículas, que apresentavam uma descrição intuitiva dos processos em ação. O avanço fundamental foi encontrar um modo matemático de modelar uma interação como sendo uma soma das probabilidades de cada caminho individual, incluindo caminhos nos quais as partículas se deslocam para trás no tempo. Quando somadas, muitas das probabilidades anulam-se umas às outras; por exemplo, a probabilidade de uma partícula se deslocar numa determinada direção pode ser a mesma de se deslocar na direção oposta, portanto, somar essas probabilidades dá zero. Somar todas as possibilidades, incluindo as “estranhas”, que envolvem voltar atrás no tempo, produz resultados familiares, como a luz parecer deslocar-se em linha reta. No entanto, em determinadas circunstâncias, as probabilidades somadas produzem, de facto, resultados estranhos e as experiências mostraram que a luz nem sempre se desloca em linha reta. Assim, a EDQ fornece uma descrição precisa da realidade, ainda que esta pareça estranha no mundo que vemos.
A EDQ foi um sucesso tão grande que se tornou um modelo para teorias semelhantes de outras forças fundamentais — a força nuclear forte foi descrita com êxito pela cromodinâmica quântica (CDQ), enquanto as forças eletromagnética e nuclear fraca foram unificadas numa teoria combinada de gauge eletrofraco. Até agora, só a gravitação se recusa a obedecer a este tipo de modelo.
Há muito que os cientistas estudam a origem da vida. Em 1871, Charles Darwin escreveu numa carta ao seu amigo Joseph Hooker: “Mas, se (...) pudéssemos conceber, nalgum charco aquecido, com a presença de todo o tipo de sais de amoníaco e de fósforo, luzes, calor, eletricidade, etc., que um composto proteico se formasse quimicamente pronto para passar por mudanças ainda mais complexas...” Em 1953, o químico americano Harold Urey e o seu aluno Stanley Miller encontraram uma forma de reproduzir a atmosfera inicial da Terra em laboratório e geraram compostos orgânicos (à base de carbono), essenciais à vida, a partir de matéria inorgânica.
Antes da experiência de Urey-Miller, avanços na química e na astronomia tinham analisado as atmosferas nos outros planetas sem vida do Sistema Solar. Na década de 1920, o bioquímico Aleksandr Oparin e o geneticista J. B. S. Haldane sugeriram independentemente que se as condições na Terra pré-biótica (anterior à vida) se assemelhavam às desses planetas, então os elementos químicos simples poderiam ter reagido uns com os outros, numa sopa primordial, para formar moléculas mais complexas, a partir das quais a vida pode ter evoluído.
Recriar a atmosfera inicial da Terra
Em 1953, Urey e Miller realizaram a primeira experiência prolongada para testar a teoria de Oparin-Haldane. Numa série de frascos de vidro interligados fechados e isolados da atmosfera foi colocada água e uma mistura de gases supostamente presentes na atmosfera primitiva da Terra — hidrogênio, metano e amoníaco. A água era aquecida de modo a formar-se vapor, que percorria o circuito fechado dos frascos. Num desses frascos havia um par de elétrodos, entre os quais passavam continuamente faíscas para representar os raios — um dos causadores hipotéticos das reações primordiais. As faíscas forneciam energia suficiente para separar algumas das moléculas e, dessa forma, gerar formas altamente reativas que iriam reagir com outras moléculas.
No espaço de um dia, a mistura ficou cor-de-rosa e, duas semanas depois, Urey e Miller descobriram que pelo menos dez por cento do carbono (do metano) apareciam agora na forma de outros compostos orgânicos. Dois por cento do carbono tinham formado aminoácidos, os componentes fundamentais das proteínas em todas as coisas vivas. Urey incentivou Miller a enviar um artigo sobre a experiência ao jornal Science, que o publicou como “Produção de aminoácidos sob as possíveis condições da Terra primitiva”. O mundo podia agora imaginar como o “pequeno charco aquecido de Darwin pode ter gerado as primeiras formas de vida.
Numa entrevista, Miller disse que “o simples ato de criar faíscas numa experiência pré-biótica básica produz aminoácidos”. Posteriormente, e usando equipamentos melhores do que os disponíveis em 1953, os cientistas descobriram que a experiência original tinha produzido, pelo menos, 25 aminoácidos — mais do que os encontrados na natureza. Como a atmosfera inicial da Terra continha, quase de certeza, dióxido de carbono, nitrogênio, sulfureto de hidrogênio e dióxido de enxofre libertados dos vulcões, pode ter sido criada na altura uma mistura muito mais rica em compostos orgânicos — e foi, de facto, criada em experiências subsequentes. Meteoritos contendo dúzias de aminoácidos, alguns encontrados na Terra e outros não, também incitaram a busca por sinais de vida em planetas para além do Sistema Solar.
Em abril de 1953, a resposta a um mistério fundamental relacionado com os organismos vivos surgiu num pequeno artigo publicado, sem alarde, no jornal científico Nature. O artigo explicava como as instruções genéticas são mantidas dentro dos organismos e como são passadas à geração seguinte. Descrevia, pela primeira vez, crucialmente, a estrutura de hélice dupla do ácido desoxirribonucleico (ADN), a molécula que contém a informação genética.
O artigo foi escrito por James Watson, um biólogo americano de 29 anos, e pelo seu colega de investigação mais velho, o biofísico britânico Francis Crick. Vinham trabalhando juntos, desde 1951, no desafio da estrutura do ADN, no Laboratório Cavendish, na Universidade de Cambridge, apoiados pelo seu diretor, Sir Lawrence Bragg.
O ADN era o tema da moda na altura e a compreensão da sua estrutura parecia estar tão provocadoramente próxima que, no início da década de 1950, equipas da Europa, EUA e da União Soviética competiam para ser as primeiras a “decifrar” o formato tridimensional do ADN — o modelo evasivo que permitia que o ADN transportasse simultaneamente dados genéticos, de alguma forma quimicamente codificada, e se replicasse de modo completo e preciso para que os mesmos dados genéticos fossem passados à prole, ou células filhas, incluindo as da geração seguinte.
O passado em ADN
A molécula do ADN não foi descoberta em 1953, como geralmente se pensa, nem foram Crick e Watson os primeiros a descobrir a sua composição. O ADN tem uma história de investigação bem mais longa. Na década de 1880, o biólogo alemão Walther Flemming relatou que apareciam no interior das células uns corpos semelhantes a um “X” (posteriormente designados por cromossomas) quando estas se preparavam para se dividir. Em 1900 foram redescobertas as experiências de Gregor Mendel sobre a hereditariedade das ervilhas — Mendel tinha sido o primeiro a sugerir a existência de unidades de hereditariedade que vinham em pares (as quais seriam mais tarde designadas por genes). Mais ou menos na mesma altura em que Mendel estava a ser redescoberto, experiências sobre reprodução realizadas independentemente pelo médico americano Walter Sutton e pelo biólogo alemão Theodor Boveri revelaram que conjuntos de cromossomas (as estrutura em forma de haste que contêm os genes) são passados de uma célula em divisão para cada uma das suas células filhas. A teoria de Sutton-Boveri resultante propôs que os cromossomas são os portadores do material genético.
Em breve, mais cientistas investigavam esses misteriosos corpos em forma de X. Em 1915, o biólogo americano Thomas Hunt Morgan mostrou que os cromossomas eram, de facto, os portadores da informação hereditária. O passo seguinte era olhar para as moléculas constituintes dos cromossomas — moléculas que talvez fossem candidatas a genes.
Novos pares de genes
Na década de 1920 foram descobertos dois tipos de moléculas candidatas: umas proteínas chamadas histonas e os ácidos nucleicos, que tinham sido quimicamente descritos como “nucleínas”, em 1869, pelo biólogo suíço Friedrich Miescher. O bioquímico russo-americano Phoebus Levene e outros identificaram gradualmente os principais componentes do ADN, de modo cada vez mais pormenorizado, como sendo unidades nucleotídicas, cada uma composta por um açúcar desoxirribose, um fosfato e uma das quatro subunidades chamadas bases. No final da década de 1940, a fórmula básica do ADN enquanto polímero gigante tornou-se clara uma molécula imensa composta por unidades repetidas, ou monómeros. Em 1952, experiências com bactérias tinham mostrado que o próprio ADN, e não os seus candidatos rivais, as proteínas dentro dos cromossomas, era a incorporação física da informação genética.
Ferramentas de pesquisa caprichosas
Os investigadores rivais usavam várias ferramentas de investigação avançadas, incluindo a cristalografia de difração de raios X, na qual os raios X eram passados através dos cristais de uma substância. A geometria única de um cristal, em termos do seu conteúdo atômico, provocava a difração, ou curva, dos feixes de raios X à medida que estes o atravessavam. Os padrões de difração resultantes de pontos, linhas e borrões eram capturados em fotografias. Trabalhando para trás a partir desses padrões, era possível decifrar os pormenores estruturais dentro do cristal. Não era uma tarefa fácil. A cristalografia de raios X tem sido comparada a estudar-se os inúmeros padrões de luz lançados por um lustre de cristal no teto e nas paredes de uma sala ampla e usá-los para calcular as formas e as posições de cada pedaço de vidro no lustre.
Pauling na liderança
A equipa de investigação britânica do Laboratório Cavendish estava desejosa de derrotar os investigadores americanos, liderados por Linus Pauling. Em 1951, Pauling e os seus colegas Robert Corey e Herman Branson já tinham alcançado uma descoberta na biologia molecular quando propuseram corretamente que muitas moléculas biológicas — incluindo a hemoglobina, a substância que transporta o oxigênio no sangue — têm um formato em hélice semelhante a uma rosca. Pauling designou esse modelo molecular por “hélice alfa”.
A descoberta de Pauling batera o Laboratório Cavendish na reta final e parecia que ele tinha a estrutura precisa do ADN ao seu alcance. Então, no início de 1953, Pauling propôs que a estrutura do ADN tinha a forma de uma hélice tripla. Por esta altura, James Watson estava a trabalhar no Laboratório Cavendish. Tinha apenas 25 anos, o entusiasmo da juventude, duas licenciaturas em zoologia e estudara os genes e os ácidos nucleicos de bacteriófagos — os vírus que infetam as bactérias. Crick, de 37 anos, era um biofísico com interesse pelo cérebro e pela neurociência. Tinha estudado as proteínas, os ácidos nucleicos e outras moléculas gigantes em coisas vivas. Observara também a equipa do Cavendish afadigando-se para chegar primeiro do que Pauling à ideia da hélice alfa e, posteriormente, analisou as suas suposições equivocadas e os esforços exploratórios sem saída.
Tanto Watson como Crick tinham também experiência com a cristalografia de raios X, ainda que em áreas diferentes, e juntos depressa começaram a refletir sobre duas questões que os fascinavam a ambos: como é que o ADN, enquanto molécula fisica, codifica a informação genética e como é que esta informação se traduz nas partes de um sistema vivo?
Imagens cruciais de cristais
Watson e Crick sabiam do sucesso de Pauling com o modelo da hélice alfa das proteínas, no qual a molécula se enrolava ao longo de um único percurso em saca-rolhas, repetindo a sua estrutura principal a cada 3,6 voltas. Eles sabiam também que as investigações mais recentes não pareciam apoiar o modelo da hélice tripla de Pauling para o ADN. Isto levou-os a questionar se o modelo evasivo não seria nem uma hélice única nem tripla. Os dois praticamente não realizaram experiências. Em vez disso, recolheram dados de outros, incluindo os resultados de experiências químicas que forneciam informações sobre os ângulos das ligações, ou elos, entre os vários átomos e subgrupos componentes do ADN. Também juntaram os seus conhecimentos sobre a cristalografia de raios X e abordaram os investigadores que tivessem obtido as melhores imagens do ADN e de outras moléculas semelhantes. Uma dessas imagens foi a “foto 51”, que se tornou crucial para que eles fizessem a sua descoberta.
A foto 51 era uma imagem por difração de raios X do ADN que parecia um “X” visto através das fendas de uma persiana — distorcida aos nossos olhos, mas, na altura, uma das imagens de raios X do ADN mais nítidas e informativas. Existe algum debate sobre a identidade do fotógrafo que tirou esta fotografia histórica. Ela veio do laboratório de uma biofísica britânica chamada Rosalind Franklin, uma especialista em cristalografia de raios X, e do seu aluno de doutoramento, Raymond Gosling, no King's College, em Londres. Cada um deles recebeu o crédito pela imagem, em várias alturas.
Modelos de papelão
Maurice Wilkins também trabalhava no King's College talvez quebrando o protocolo científico, Wilkins mostrou a James Watson as imagens tiradas por Franklin e Gosling sem a autorização ou conhecimento destes. O americano reconheceu imediatamente a sua importância e informou Crick das implicações. Subitamente, o seu trabalho estava no caminho certo.
A partir daqui, a sequência dos acontecimentos é pouco clara e os relatos posteriores da descoberta são contraditórios. Franklin tinha descrito, em rascunhos, as suas considerações sobre a estrutura e o formato do ADN. Estes foram também incorporados por Watson e Crick à medida que se debatiam com as suas diversas propostas. A ideia principal, derivada do modelo de hélice alfa de Pauling e apoiada por Wilkins, centrava-se numa forma de padrão helicoidal repetido para a molécula gigante.
Uma das considerações de Franklin era se a “espinha dorsal” estrutural, uma cadeia de subunidades de fosfato e açúcar desoxirribose, estaria no centro com as bases projetadas para fora, ou o contrário. Max Perutz, que ganharia o Nobel da Química em 1962 pelo seu trabalho sobre a estrutura da hemoglobina e outras proteínas, deu uma ajuda. Perutz também teve acesso aos relatórios não publicados de Franklin e passou-os a Watson e Crick, sempre à procura de mais contatos. Estes prosseguiram com a ideia de que as espinhas dorsais do ADN ficavam do lado de fora com as bases a apontar para dentro, ligando-se talvez em pares. Recortaram e misturaram formas de papelão que representavam essas subunidades moleculares: fosfatos e açúcares na espinha dorsal e os quatro tipos de base — adenina, timina, guanina e citosina.
Em 1952, Watson e Crick tinham conhecido Erwin Chargaff, que elaborara aquela que ficou conhecida como a primeira regra de Chargaff. Esta afirmava que as quantidades de guanina e citosina são iguais no ADN, assim como as quantidades de adenina e timina. As experiências tinham mostrado que, ocasionalmente, as quatro quantidades eram quase iguais, outras vezes não. Estas últimas descobertas passaram a ser vistas como erros de metodologia, e quantidades iguais das quatro bases passaram a ser aceites como a regra geral.
Fazer as peças encaixar
Ao dividir as quantidades de bases em dois conjuntos de pares, Chargaff tinha lançado luz sobre a estrutura do ADN. Watson e Crick começavam agora a pensar na adenina como unicamente e sempre ligada à timina e a guanina à citosina. Ao juntarem os pedaços de papelão no seu puzzle em 3D. Watson e Crick faziam malabarismos com uma enorme quantidade de dados, trabalhando com matemática, imagens de raios X, os seus próprios conhecimentos sobre ligações químicas e os seus ângulos e outros dados —todos aproximados e sujeitos a margens de erro. A descoberta final surgiu quando perceberam que, fazendo ligeiros ajustes às configurações de timina e guanina, isso permitia que as peças se encaixassem, produzindo uma elegante hélice dupla, na qual os pares de bases se ligam ao longo do centro. Ao contrário da proteína hélice alfa, que tinha 3,6 subunidades numa volta completa, o ADN tem cerca de 10,4 subunidades por volta
Este modelo era composto por duas espinhas dorsais helicoidais de fosfato-açúcar, enroscadas uma na outra como a estrutura de uma “escada em caracol”, unidas por pares de bases funcionando como degraus. A sequência de bases era como as letras de uma frase, transportando pequenas unidades de informação que se combinavam para formar uma instrução geral, ou gene — o qual, por sua vez, dizia à célula como fazer uma determinada proteína ou outra molécula que fosse a manifestação física dos dados genéticos e tivesse um papel específico no tecido e na função da célula.
Unir e desunir
Cada par de bases é unido por aquilo a que os químicos chamam “pontes de hidrogênio”. Estas são feitas e rompidas de forma fácil, de modo que as secções da hélice dupla podem ser “desunidas” através da dissolução das ligações, o que expõe então o código das bases como um modelo a partir do qual se faz uma cópia.
Esta união/desunião permitia a ocorrência de dois processos. Primeiro, podia ser feita uma cópia complementar em espelho do ácido nucleico a partir de uma metade da hélice dupla; depois, transportando a sua informação genética como a sequência de bases, ela deixaria o núcleo da célula para se envolver na produção da proteína.
Segundo, quando toda a extensão da hélice dupla estivesse desunida, cada parte atuaria como um modelo para se construir um novo parceiro complementar — resultando em duas extensões de ADN idênticas à original e uma à outra. Deste modo, à medida que as células se dividiam em duas, o ADN era copiado para crescimento e reparação durante toda a vida do organismo — e, enquanto esperma e óvulos, as células sexuais transportavam a sua quota-parte de genes para fazer um óvulo fertilizado, iniciando, assim, a próxima geração.
“Segredo da vida”
A 28 de fevereiro de 1953, entusiasmados pela sua descoberta, Watson e Crick foram almoçar ao The Eagle, uma das estalagens mais antigas de Cambridge, onde os colegas do Cavendish e de outros laboratórios se encontravam frequentemente. Dizem que Crick espantou os presentes ao anunciar que ele e Watson tinham descoberto “o segredo da vida” — ou assim Watson recordou depois no seu livro A Dupla Hélice, embora Crick tenha negado que isso aconteceu.
Em 1962, Watson, Crick e Wilkins foram premiados com o Nobel da Medicina “pelas suas descobertas relativas à estrutura molecular dos ácidos nucleicos e a sua importância para a transferência de informação em material vivo”. No entanto, o prêmio foi rodeado por controvérsias. Nos anos anteriores, Rosalind Franklin recebera pouco crédito oficial por produzir as imagens de raios X cruciais e por escrever os relatórios que ajudaram a orientar a investigação de Watson e Crick. Ela morreu de cancro dos ovários em 1958, com apenas 37 anos, e era, portanto, inelegível para o Prêmio Nobel, em 1962. Alguns disseram que o prêmio deveria ter sido atribuído antes, sendo Franklin uma das colaureadas, mas as regras só permitem um máximo de três pessoas.
No seguimento do seu importantíssimo trabalho, Watson e Crick tornaram-se celebridades mundiais. Prosseguiram com as suas investigações em biologia molecular e receberam uma grande quantidade de prêmios e homenagens. Agora que a estrutura do ADN era conhecida, o próximo grande desafio era decifrar o “código” genético. Por volta de 1964, os cientistas descobriram como as sequências das suas bases eram traduzidas nos aminoácidos que compõem proteínas específicas e outras moléculas fundamentais para a vida.
Hoje, os cientistas conseguem identificar as sequências de bases para todos os genes de um organismo, coletivamente conhecido como o seu genoma. Podem manipular o ADN para deslocar os genes, apagá-los de determinadas extensões de ADN e inseri-los noutras. Em 2003, o Projeto do Genoma Humano anunciou que tinha concluído o mapeamento do genoma humano — uma sequência de mais de 20 mil genes. A descoberta de Crick e Watson preparou o caminho para a engenharia genética e a terapia de genes.
Hugh Everett III é uma figura de culto para os entusiastas de ficção científica, porque a sua interpretação de muitos mundos (IMM) da mecânica quântica mudou as ideias dos cientistas sobre a natureza da realidade.
O trabalho de Everett foi inspirado pela falha constrangedora central na mecânica quântica. Embora possa explicar interações ao nível mais fundamental da matéria, a mecânica quântica também produz resultados bizarros que parecem contrários à experimentação, uma dicotomia central do paradoxo da medição (pp. 232-33).
No mundo quântico, as partículas subatômicas podem existir em qualquer número de estados possíveis de localização, velocidade e spin, ou “sobreposições”, como descrito pela função de onda de Erwin Schrödinger, mas o fenômeno de muitas possibilidades desaparece assim que é observado. O próprio ato de se medir um sistema quântico parece “desviá-lo” para um estado ou para outro, forçando-o a “escolher” uma opção. No mundo com o qual estamos familiarizados, atirar uma moeda ao ar tem um resultado definido de cara ou coroa, e não um, o outro e ambos ao mesmo tempo.
A mistificação de Copenhaga
Na década de 1920, Niels Bohr e Werner Heisenberg tentaram contornar o problema da medição através da interpretação de Copenhaga. Esta sustenta que o ato de se fazer uma observação num sistema quântico faz com que a função de onda “colapse” num único desfecho. Embora esta ainda se mantenha como uma interpretação aceite, muitos teóricos acham-na insatisfatória, já que não revela nada sobre o mecanismo de colapso da função de onda. Isto também incomodava Schrödinger. Para ele, qualquer formulação matemática do mundo tinha de possuir uma realidade objetiva. Tal como John Bell disse: “Ou a função de onda, conforme dada pela equação de Schrödinger, não é tudo, ou não está correta.”
Muitos mundos
A ideia de Everett era explicar o que acontece às sobreposições quânticas. Ele pressupôs a realidade objetiva da função de onda e eliminou o colapso (não observado) — por que razão deveria a natureza “escolher” uma versão específica da realidade sempre que alguém faz uma medição? Ele colocou então outra pergunta: o que acontece depois às diferentes opções disponíveis nos sistemas quânticos? A IMM diz que todas as possibilidades acontecem, de facto. A realidade descasca-se, ou divide-se, em novos mundos, mas como habitamos num mundo onde só ocorre um desfecho, é isso que vemos. Os outros desfechos possíveis são inacessíveis para nós, já que não pode haver interferência entre os mundos e somos iludidos a pensar que algo se perde sempre que medimos alguma coisa.
Embora a teoria de Everett não seja aceite por todos, ela elimina um bloqueio teórico para a interpretação da mecânica quântica. A IMM não menciona universos paralelos, mas estes são a sua previsão lógica. A teoria foi criticada por não ser testável, mas isso pode mudar. Um efeito conhecido como “decoerência” — pelo qual os objetos quânticos “revelam” a sua informação de sobreposição-é um mecanismo através do qual talvez possa ser possível provar o funcionamento da IMM.
Em 1961, os computadores eram principalmente processadores centrais do tamanho de uma sala. Os minicomputadores só chegariam em 1965, e os microchips, tal como os conhecemos hoje, estavam ainda a vários anos de distância. Com um hardware tão imenso e especializado, o cientista e investigador britânico Donald Michie decidiu usar objetos físicos simples para um pequeno projeto sobre aprendizagem de máquinas e inteligência artificial — caixas de fósforos e missangas de vidro. Ele escolheu também uma tarefa fácil — o jogo do galo. O resultado foi o Matchbox Educable Noughts And Crosses Engine (MENACE).
A principal versão do MENACE de Michie englobava 304 caixas de fósforos coladas umas às outras numa disposição em gavetas. Um código numérico em cada caixa era inserido num gráfico. O gráfico mostrava desenhos da grelha de jogo de 3x3, com várias disposições de Os e Xs, correspondendo às possíveis permutações de layout à medida que o jogo avançava. Na realidade, existem 19 683 combinações possíveis, mas algumas podem ser giradas para dar outras e algumas são imagens em espelho, ou simétricas, umas das outras. Isto fez com que 304 permutações fosse um número funcional adequado.
Em cada caixa de fósforos havia missangas de nove tipos diferentes, separadas por cores. Cada cor correspondia ao MENACE colocar o seu O num quadrado entre nove. Por exemplo, uma missanga verde significava o O no quadrado inferior esquerdo, uma vermelha designava o O no quadrado central, etc.
A mecânica do jogo
O MENACE abria o jogo usando a caixa de fósforos para nenhum O ou X na grelha. No tabuleiro de cada caixa de fósforos havia dois pedaços extra de cartão numa ponta, formando um V. Para jogar, o tabuleiro era retirado da caixa, agitado e inclinado para que o V ficasse na ponta de baixo. As missangas rolavam aleatoriamente para baixo e uma delas entrava no bico do V. A cor dessa missanga determinava a posição do primeiro O do MENACE na grelha. Essa missanga era então colocada de lado e o tabuleiro recolocado na sua caixa, ligeiramente aberto.
Em seguida, o adversário posicionava o seu primeiro X. Para a segunda ronda do MENACE era escolhida a caixa de fósforos que correspondesse às posições do X e do O na grelha, nesse momento. Mais uma vez, a caixa de fósforos era aberta, o tabuleiro sacudido e inclinado e a cor da missanga, determinava a posição do segundo O do MENACE. O adversário colocava o seu segundo X. E assim por diante, registando a sequência de missangas do MENACE e os seus movimentos.
Ganhar, perder ou empatar
E um resultado acabava por surgir. Se o MENACE ganhasse, recebia um reforço ou uma “recompensa”. As missangas retiradas mostravam a sequência de movimentos vencedores. Cada uma destas missangas era colocada de volta na sua caixa, identificada pelo código numérico e o tabuleiro ligeiramente aberto. O tabuleiro recebia também três missangas extra de “bônus” da mesma cor. Num jogo futuro, se a mesma permutação de Os e Xs ocorresse na grelha, esta caixa de fósforos entrava novamente em jogo — e possuía mais missangas das que anteriormente levaram a uma vitória. Aumentavam assim as probabilidades de escolha daquela missanga e, portanto, o mesmo movimento e outra possível vitória.
Se o MENACE perdesse, era “punido”, não recebendo de volta as missangas retiradas, que representavam a sequência de movimentos perdedores. Mas isto continuava a ser positivo. Em jogos futuros, se a mesma permutação de Xs e Os surgisse, as missangas que designavam os mesmos movimentos da vez anterior eram em menor número ou ausentes, diminuindo assim a probabilidade de outra perda.
Para um empate, cada missanga desse jogo era substituída na sua caixa correspondente, juntamente com uma pequena recompensa, uma missanga de bônus da mesma cor. Isto aumentava a probabilidade de aquela missanga ser escolhida se a mesma permutação surgisse outra vez, mas não tanto como na vitória, com três missangas de bónus.
O objetivo de Michie era que o MENACE “aprendesse com a experiência”. Para certas permutações de Os e Xs, quando uma determinada sequência de movimentos fosse bem-sucedida, deveria tornar-se mais provável, enquanto os movimentos que levavam a perdas se tornariam menos prováveis. Ele deveria progredir por tentativa e erro, adaptar-se com a experiência e, com mais jogos, ter cada vez mais êxito.
Variáveis de controlo
Michie considerou os problemas potenciais. E se a missanga escolhida de um tabuleiro decretasse que o O do MENACE devia ser colocado num quadrado já ocupado por um O ou por um X? Michie respondeu a isto assegurando que cada caixa de fósforos contivesse apenas missangas correspondentes aos quadrados vazios para a sua permutação específica. Assim, a caixa para a permutação do O no alto à esquerda e do X em baixo à direita não continha missangas para colocar o O seguinte nesses quadrados. Michie considerava que colocar missangas para todas as nove posições possíveis do O em cada caixa iria “complicar desnecessariamente o problema”. Isto significava que o MENACE não aprendia apenas a ganhar ou a empatar, tinha também de aprender as regras à medida que ia avançando. Tais condições de partida podiam levar a um ou dois desastres iniciais, que derrubariam todo o sistema. Isto demonstrou um princípio: a aprendizagem de máquinas corre bem quando começa simples e se vai gradualmente acrescentando sofisticação.
Michie frisou também que, quando o MENACE perdia, o seu último movimento era 100 por cento o movimento fatal. O movimento anterior contribuía para a perda, como se encurralássemos a máquina, mas menos — geralmente, ainda deixava espaço para a possibilidade de escapar à derrota. Andando para trás, em direção ao início do jogo, cada movimento anterior contribuía menos para a derrota final, isto é, à medida que os movimentos se acumulam, a probabilidade de que cada um seja o último aumenta. Portanto, à medida que o número de jogadas aumenta, torna-se mais importante livrarmo-nos das escolhas que provaram ser fatais.
Michie simulou isto com quantidades diferentes de missangas para cada movimento. Assim, para a segunda jogada do MENACE (terceira do jogo), cada caixa que podia ser chamada a jogar — aquelas com permutações de um O e um X já na grade — tinha três missangas de cada tipo. Para o terceiro movimento do MENACE havia duas missangas de cada tipo, e para o seu quarto movimento (sétimo do jogo), apenas uma. Uma escolha fatal na quarta jogada resultaria na eliminação da única missanga especificando aquela posição na grelha. Sem aquela missanga, a mesma situação não poderia voltar a ocorrer.
Homem vs. MENACE
Então, quais foram os resultados? Michie foi o primeiro adversário do MENACE num torneio de 220 jogos. O MENACE começou hesitante, mas depressa passou a empatar com mais frequência e depois conseguiu algumas vitórias. Para contrapor, Michie começou a desviar-se das opções seguras e a empregar estratégias incomuns. O MENACE demorou algum tempo para se adaptar, mas depois começou também a lidar com a situação, voltando a alcançar mais empates e depois vitórias. A certa altura, numa série de dez jogos, Michie perdeu oito.
O MENACE forneceu um exemplo simples de aprendizagem de máquinas e de como a alteração das variáveis poderia afetar o desfecho. A descrição do MENACE feita por Michie era, na realidade, parte de um relato mais longo, que comparou depois o seu desempenho com a aprendizagem animal de tentativa e erro, conforme Michie explicou: “Essencialmente, o animal faz movimentos mais ou menos aleatórios e escolhe, no sentido de que os repete depois, aqueles que produziram o resultado "desejado". Esta descrição parece feita sob medida para o modelo da caixa de fósforos. De facto, o MENACE constitui um modelo de aprendizagem por tentativa e erro de forma tão pura que, quando apresenta elementos de outras categorias de aprendizagem, podemos desconfiar que estes o possam contaminar com um componente de tentativa e erro.”
Ponto de viragem
Antes de desenvolver o MENACE, Donald Michie tinha uma notável carreira de investigação em biologia, cirurgia, genética e embriologia. Depois do MENACE, passou para a nova área da inteligência artificial (IA). Desenvolveu as suas ideias de aprendizagem de máquinas transformando-as em ferramentas de força industrial aplicadas a centenas de situações, incluindo linhas de montagem, produção industrial e instalações siderúrgicas. À medida que os computadores se espalhavam, o seu trabalho de inteligência artificial foi usado para desenhar programas de computador e controlar estruturas que tivessem capacidade de aprender. Michie demonstrou que a aplicação cuidadosa da inteligência humana habilitava as máquinas a tornarem-se mais inteligentes. Desenvolvimentos recentes na Al usam princípios semelhantes para desenvolver redes que espelham as redes neuronais do cérebro de animais.
Michie também concebeu a noção de memorização, na qual o resultado de cada conjunto de dados inseridos numa máquina ou computador era armazenado com um “memorando”. Se o mesmo conjunto de dados se repetisse, o dispositivo ativaria o memorando e recordaria a resposta, em vez de recalcular, poupando tempo e recursos. Ele contribuiu com a técnica de memorização para linguagens de programação, tais como POP-2 e LISP.
A ideia de forças da natureza, ou forças fundamentais, data pelo menos da Grécia antiga. Os físicos reconhecem atualmente quatro forças fundamentais: gravidade, eletromagnetismo e as duas forças nucleares, as interações fraca e forte, que unem as partículas subatômicas dentro do núcleo de um átomo. Sabemos agora que a força fraca e a força eletromagnética são manifestações diferentes de uma única força “eletrofraca”. Esta descoberta foi um passo importante no caminho para se encontrar uma “Teoria de Tudo”, que explicasse a relação entre as quatro forças.
A força fraca
A força fraca foi inicialmente invocada para explicar a desintegração beta, um tipo de radiação nuclear na qual um neutrão se transforma num protão dentro do núcleo, emitindo eletrões ou positrões no processo. Em 1961, Sheldon Glashow, aluno de doutoramento de Harvard, recebeu a tarefa ambiciosa de unificar as teorias das interações fraca e eletromagnética. Glashow não o conseguiu, mas descreveu as partículas transportadoras de força que medeiam a interação através da força fraca.
Partículas mensageiras
Na descrição da mecânica quântica dos campos, uma força é “sentida” através da troca de um bosão de gauge, como o fotão, o qual transporta interação eletromagnética. Um bosão é emitido por uma partícula e absorvido por outra. Normalmente, nenhuma das partículas é fundamentalmente modificada por esta interação — um eletrão continua a ser um eletrão depois de absorver ou emitir um fotão. A força fraca quebra esta simetria mudando os quarks (as partículas que compõem os protões e os neutrões) de um tipo para outro.
Então, que tipo de bosão pode estar envolvido? Glashow imaginou que os bosões associados à força fraca tinham de ser relativamente maciços, porque a força atua em intervalos minúsculos e as partículas pesadas não se deslocam para longe. Ele propôs dois bosões carregados, W+ e W-, e um terceiro bosão Z neutro. Os transportadores de força W e Z foram detectados pelo acelerador de partículas do CERN, em 1983.
Unificação
Na década de 1960, o americano Steven Weinberg e o paquistanês Abdus Salam, dois físicos a trabalhar independentemente, incorporaram o campo de Higgs (pp. 298-99) na teoria de Glashow. O modelo de Weinberg-Salam resultante, ou teoria eletrofraca unificada, juntou a interação fraca e a força eletromagnética como uma força única.
Este foi um resultado espantoso, já que as forças fraca e eletromagnética atuam em esferas totalmente diferentes. A força eletromagnética estende-se até o limite do Universo visível (a força é transportada por fotões de luz sem massa), enquanto a força fraca mal consegue atravessar um núcleo atómico e é 10 milhões de vezes mais fraca. A sua unificação abre a possibilidade tentadora de que, sob determinadas condições de elevada energia, tais como as que ocorreram logo após o Big Bang, todas as quatro forças fundamentais se possam aglutinar numa “superforça”. A busca pela prova de uma Teoria de Tudo prossegue.
A percepção de que os níveis de dióxido de carbono (CO2) na atmosfera não estão apenas a subir, mas podem também estar a causar um aquecimento desastroso, surgiu inicialmente à atenção do mundo científico e do público em geral na década de 1950. Cientistas anteriores tinham presumido que a concentração de CO2, na atmosfera variava de tempos a tempos, mas que ficava sempre em volta dos 0,03 por cento, ou 300 partes por milhão (ppm). Em 1958, o geoquímico americano Charles Keeling começou a medir a concentração de CO2, usando um instrumento sensível que tinha desenvolvido. Foram as suas descobertas que alertaram o mundo para a implacável subida do CO2 e, no final da década de 1970, para o papel do homem na aceleração do chamado “efeito de estufa”.
Medições regulares
Keeling mediu o CO2 em vários lugares: Big Sur, na Califórnia, na península Olympic, no estado de Washington e nas florestas de alta montanha do Arizona. Também registou medições no Polo Sul e de avião. Em 1957, fundou uma estação meteorológica a 3000 metros acima do nível do mar, no alto do Mauna Loa, no Havai. Keeling media regularmente o nível de dióxido de carbono na estação e descobriu três coisas.
Primeiro, havia uma variação diária local. A concentração atingia o ponto mínimo a meio da tarde, quando as plantas estavam mais ativas a absorver o CO2. Em segundo, havia uma variação global anual. O hemisfério norte tinha mais território para o crescimento das plantas e o nível de CO2 subia lentamente durante o inverno setentrional, quando as plantas não estavam a crescer. Alcançava um pico em maio, antes de as plantas começarem a crescer e a absorver novamente o CO2. O nível atingia um mínimo em outubro, quando as plantas setentrionais morriam outra vez, antes do inverno. Em terceiro, e crucialmente, a concentração estava inexoravelmente a aumentar. Núcleos de gelo polar continham bolhas de ar, que mostravam que durante a maior parte do tempo, desde 9000 a. C., a concentração de CO2 variou entre 275 e 285 ppm por volume. Em 1958, Keeling mediu 315 ppm; em maio de 2013, a concentração média ultrapassou, pela primeira vez, os 400 ppm. O aumento entre 1958 e 2013 foi de 85 ppm, significando que a concentração tinha aumentado 27 por cento em 55 anos. Esta foi a primeira prova concreta de que a concentração de CO2 na atmosfera da Terra está a aumentar.
O CO2 é um gás de efeito de estufa, que ajuda a reter o calor do Sol, portanto, o aumento da concentração de CO2 tende a levar ao aquecimento global. Keeling descobriu o seguinte: “No Polo Sul, a concentração aumentou a um ritmo de 1,3 ppm por ano (...) a taxa de aumento observada é quase igual à que se esperaria da combustão de combus- tíveis fósseis (1,4 ppm).” Ou seja, os seres humanos são, pelo menos, parte da causa.
Boa parte da história da ciência foi dedicada ao desenvolvimento de modelos simples que preveem o comportamento dos sistemas. Certos fenômenos na natureza, como o movimento planetário, encaixam facilmente neste esquema. Com uma descrição das condições iniciais — a massa do planeta, a sua posição, velocidade e assim por diante — podem ser calculadas configurações futuras. No entanto, o comportamento de muitos processos, como a rebentação das ondas na praia, o fumo a subir de uma vela ou os padrões meteorológicos, é caótico e imprevisível. A teoria do caos procura explicar tais fenômenos imprevisíveis.
O problema dos três corpos
Os primeiros passos dados na direção da teoria do caos foram dados na década de 1880, quando Henri Poincaré trabalhou no “problema dos três corpos”. Poincaré mostrou que, para um planeta com um satélite em órbita de uma estrela — um sistema Terra-Lua- -Sol —, não existe uma solução para uma órbita estável. Não só era a interação gravitacional entre os corpos demasiado complexa para se calcular, como Poincaré descobriu que pequenas diferenças nas condições iniciais tinham como resultado mudanças grandes e imprevisíveis. No entanto, o seu trabalho foi em grande parte esquecido.
Uma descoberta surpreendente
Poucos avanços ocorreram nesta área até à década de 1960, quando os cientistas começaram a usar novos computadores poderosos para prever a meteorologia. Eles achavam que, com dados suficientes sobre o estado da atmosfera num determinado momento e potência computacional suficiente para analisar os dados, seria possível saber como os sistemas meteorológicos evoluem. Trabalhando com a suposição de que computadores cada vez maiores aumentariam o intervalo das previsões, Edward Lorenz, um meteorologista americano do MIT, testou simulações envolvendo apenas três equações simples. Ele fez correr a simulação várias vezes, introduzindo o mesmo estado inicial todas as vezes e esperando ver os mesmos resultados. Lorenz ficou estupefato quando o computador forneceu resultados imensamente diferentes em cada uma das vezes. Verificando novamente os números, ele descobriu que o programa tinha arredondado os números de seis casas decimais para três. Esta alteração minúscula no estado inicial teve um enorme impacto no resultado final. Esta dependência sensível das condições iniciais foi denominada “efeito borboleta” — a ideia de que uma pequena mudança num sistema, tão trivial como uma colher de chá de moléculas de ar deslocadas pelo bater das asas de uma borboleta no Brasil, pode ser amplificada com o tempo para criar desfechos imprevisíveis, como um tornado no Texas.
Edward Lorenz definiu os limites da previsibilidade, explicando que a impossibilidade de se saber o que vai acontecer está, na verdade, inscrita nas regras que governam um sistema caótico. Não só o tempo, mas muitos sistemas do mundo real são caóticos sistemas de trânsito, flutuações na bolsa de valores, o fluxo de fluidos e gases, o crescimento de galáxias e todos foram modelados usando a teoria do caos.
O grande acontecimento científico de 2012 foi o anúncio, pelos cientistas do Grande Colisor de Hadrões do CERN, na Suíça, de que tinha sido encontrada uma nova partícula, que talvez pudesse ser o evasivo bosão de Higgs. Este fornece massa a todas as coisas no Universo e é a peça em falta que completa o modelo-padrão da física. A sua existência fora pressuposta por seis físicos, entre os quais Peter Higgs, em 1964. Encontrar o bosão de Higgs era de importância fundamental, porque ele respondia à pergunta “por que razão algumas partículas transportadoras de força são maciças, enquanto outras não têm massa?”
Campos e bosões
A física clássica (pré-quântica) imagina os campos elétricos ou magnéticos como sendo contínuos, entidades em mutação suave espalhadas pelo espaço. A mecânica quântica rejeita a noção de um contínuo, de modo que os campos se tornam distribuições de “partículas de campo” discretas, onde a força do campo é a densidade das partículas. As partículas que passam pelo campo são influenciadas pelo mesmo através da troca de partículas “virtuais” transportadoras de força — bosões de gauge.
O campo de Higgs preenche o espaço mesmo um vácuo — e as partículas elementares ganham massa ao interagirem com ele. O modo como esse efeito ocorre pode ser explicado por uma analogia. Imagine um campo coberto por neve espessa que esquiadores e pessoas com botas de neve têm de atravessar. Cada pessoa levará mais ou menos tempo, dependendo da força com que “interage” com a neve. Aquelas que deslizam em esquis são como partículas de pouca massa, enquanto as que se afundam na neve apresentam uma massa maior ao deslocarem-se. As partículas isentas de massa, como os fotões e os gluões — os transportadores da força eletromagnética e da força nuclear forte, respetivamente —, não são afetadas pelo campo de Higgs e passam facilmente.
A caçada pelo Higgs
Na década de 1960, seis físicos, incluindo Peter Higgs, François Englert e Robert Brout, desenvolveram a teoria da “quebra espontânea de simetria”, que explicava como as partículas que medeiam a força fraca, os bosões W e Z, são maciços, enquanto os fotões e os gluões não têm massa. Esta quebra de simetria foi crucial na formulação da teoria eletrofraca (pp. 292-93). Higgs mostrou como o bosão de Higgs (ou, em vez disso, os produtos de desintegração do bosão) deveriam poder ser detectados.
A busca pelo bosão de Higgs deu origem ao maior projeto científico do mundo, o Grande Colisor de Hadrões (LHC) — um acelerador de protões gigante com 27 km de circunferência, enterrado a 100 metros de profundidade, no solo. Quando funciona na sua máxima capacidade, o LHC gera energias semelhantes às que existiram logo após o Big Bang — suficientes para criar um bosão de Higgs a cada mil milhões de colisões. A dificuldade está em detectar os seus traços no meio de uma vasta chuva de resíduos — e o Higgs é tão maciço que, ao surgir, desintegra-se instantaneamente. Mas, depois de quase 50 anos de espera, o Higgs foi finalmente confirmado.
A teoria da evolução de Charles Darwin coincidiu com uma teoria celular da vida, que emergiu na década de 1850, que afirmava que todos os organismos eram compostos por células e que células novas só podiam surgir a partir de outras já existentes, através de um processo de divisão. Alguns dos seus componentes internos, como os cloroplastos fabricadores de alimento, aparentemente também se reproduziam por divisão.
Esta última descoberta levou o botânico russo Konstantin Merezhkowsky à ideia de que os cloroplastos podem, um dia, ter sido formas de vida independentes. Os biólogos evolucionistas e celulares perguntavam: como é que surgem as células complexas? A resposta está na endossimbiose — teoria inicialmente proposta por Merezhkowsky, em 1905, mas aceite apenas depois de uma bióloga americana chamada Lynn Sagan (posteriormente Margulis) ter fornecido essa prova, em 1967.
Células complexas com estruturas internas chamadas organitos — o núcleo (que controla a célula), as mitocôndrias (que libertam energia) e os cloroplastos (que conduzem a fotossíntese) — são encontradas em animais, plantas e muitos micróbios. Estas células, agora designadas por eucarióticas, evoluíram a partir de células bacterianas mais simples, sem organitos, atualmente designadas por procarióticas. Merezhkowsky imaginava comunidades primordiais de células mais simples — algumas a produzir alimentos por fotossíntese, outras atacando os seus vizinhos e devorando-os inteiros. Às vezes, as células engolidas não eram digeridas e sugere ele, tornavam-se cloroplastos — mas, sem provas, esta teoria da endossimbiose (vivendo juntos e no interior) desapareceu.
Provas novas
A invenção do microscópio eletrônico, na década de 1930, juntamente com os avanços na bioquímica, ajudou os biólogos a perceber o funcionamento interior das células. Por volta da década de 1950, os cientistas sabiam que o ADN fornecia instruções genéticas para a execução dos processos da vida e que era passado de geração em geração. Nas células eucarióticas, o ADN é guardado no núcleo, mas também se encontra nos cloroplastos e nas mitocôndrias. Em 1967, Margulis usou esta descoberta como prova para reviver e substanciar a teoria da endossimbiose. Ela incluiu a sugestão de que houvera um “holocausto” de oxigênio no início da história da vida na Terra. Há cerca de 2000 milhões de anos, à medida que a fotossíntese florescia nas plantas, estas saturavam o mundo com oxigênio, o que envenenou muitos dos micróbios da altura. Os micróbios predadores sobreviveram engolindo outros que conseguiam “absorver” o oxigênio nos seus processos de libertação de energia. Estes tornaram-se as mitocôndrias, os “pacotes energéticos” das células atuais. A princípio, isto pareceu muito rebuscado para a maioria dos biólogos, mas as provas da teoria de Margulis tomaram-se gradualmente mais persuasivas, sendo agora amplamente aceites. Por exemplo: o ADN das mitocôndrias e dos cloroplastos é composto por moléculas circulares — igual ao ADN das bactérias.
A evolução pela cooperação não era novidade: o próprio Darwin tinha concebido a ideia para explicar a interação mutuamente benéfica entre plantas doadoras de néctar e insetos polinizadores. Mas poucos achavam que isso poderia ocorrer tão intimamente — e fundamentalmente — como quando as células se fundiram no início da vida.
A compreensão da estrutura do átomo mudou dramaticamente desde o final do século XIX. Em 1897, J. J. Thomson fez a sugestão ousada de que os raios catódicos são fluxos de partículas bem mais pequenas do que o átomo; tinha descoberto o eletrão. Em 1905, desenvolvendo a teoria dos quanta de luz de Max Planck, Albert Einstein sugeriu que a luz devia ser encarada como um fluxo de minúsculas partículas sem massa, às quais chamamos hoje fotões. Em 1911, o protegido de Thomson, Ernest Rutherford, deduziu que o núcleo de um átomo é pequeno e denso, com eletrões a orbitar em seu redor. A imagem do átomo como um todo indivisível tinha sido destruída.
Em 1920, Rutherford chamou protão ao núcleo do elemento mais leve, o hidrogênio. Doze anos depois, foi descoberto o neutrão, surgindo uma imagem mais complexa dos núcleos compostos por protões e neutrões. Então, na década de 1930, surgiu um vislumbre de outros reinos de partículas a partir do estudo dos raios cósmicos — partículas de alta energia que se acredita terem origem nas supernovas. Os estudos revelaram novas partículas associadas com energias elevadas e, consequentemente, massas maiores, segundo o princípio de Einstein da equivalência massa-energia (E = mc2).
Procurando explicar a natureza das interações dentro do núcleo atómico, os cientistas das décadas de 1950 e 1960 produziram um imenso trabalho, fornecendo o enquadramento conceptual para toda a matéria do Universo. Muitas figuras contribuíram para este processo, mas o físico americano Murray Gell-Mann desempenhou um papel decisivo na construção de uma taxonomia de partículas fundamentais e transportadoras de forças designada por modelo-padrão.
O zoológico de partículas
Gell-Mann brinca ao dizer que os objetivos dos físicos teóricos de partículas elementares são “modestos” — visam meramente explicar as “leis fundamentais que governam toda a matéria do Universo”. Segundo ele, os teóricos “trabalham com lápis, papel e um cesto do lixo, e o mais importante é este último”. Em contraste, a principal ferramenta dos experimentalistas é o acelerador de partículas.
Em 1932, os primeiros núcleos atómicos — do elemento lítio — foram feitos explodir pelos físicos Ernest Walton e John Cockcroft, usando um acelerador de partículas, em Cambridge, Inglaterra. Desde então, têm sido construídos aceleradores de partículas cada vez mais potentes. Estas máquinas aceleram minúsculas partículas subatômicas até quase à velocidade da luz antes de as lançarem contra alvos ou umas contra as outras. A investigação é conduzida agora por previsões teóricas — o maior acelerador de partículas, o Grande Colisor de Hadrões (Large Hadron Collider LHC), na Suíça, foi construído principalmente para encontrar o teórico bosão de Higgs (pp. 298-99). OLHC é um anel de 27 km de ímanes supercondutores que demorou 10 anos a construir.
As colisões entre as partículas subatômicas estilhaçam-nas até às suas unidades centrais. A energia libertada é, às vezes, suficiente para produzir novas gerações de partículas que não podem existir nas condições quotidianas. Chuvas de partículas exóticas de curta duração saltam desses amontoados, antes de se aniquilarem ou desintegrarem rapidamente. Com energias cada vez maiores à sua disposição, os investigadores visam investigar os mistérios da matéria, chegando cada vez mais perto das condições do nascimento da própria matéria — o Big Bang. O processo foi comparado ao esmagamento de dois relógios para depois se remexer nos fragmentos com o intuito de se descobrir como aqueles funcionam.
Em 1953, com aceleradores a alcançar energias cada vez maiores, partículas exóticas não encontradas na matéria comum pareciam surgir do nada. Foram detectadas mais de 100 partículas de interação forte, todas consideradas fundamentais na altura. Este alegre circo de novas espécies foi apelidado de “zoológico de partículas”.
Caminho Óctuplo
Na década de 1960, os cientistas tinham agrupado as partículas segundo o modo como eram afetadas pelas quatro forças fundamentais: gravidade, força eletromagnética e as forças nucleares fraca e forte. Todas as partículas com massa são influenciadas pela gravidade. A força eletromagnética atua em qualquer partícula com carga elétrica. As forças forte e fraca operam nos intervalos minúsculos, encontrados no interior dos núcleos atômicos. Partículas pesadas chamadas “hadrões”, que incluem o protão e o neutrão, são de “interação forte” e influenciadas pelas quatro forças fundamentais, enquanto os “leptões” leves, como o eletrão e o neutrino, não são afetados pela força forte.
Gell-Mann deu sentido ao zoológico de partículas com um sistema de ordenação por octetos chamado “Caminho Óctuplo”, uma referência ao Nobre Caminho Óctuplo do budismo. Tal como Mendeleev fizera quando organizou os elementos químicos na tabela periódica, Gell-Mann imaginou uma tabela na qual colocou as partículas elementares, deixando espaços para as peças ainda não descobertas. Numa tentativa de fazer um esquema o mais resumido possível, propôs que os hadrões continham uma nova subunidade fundamental, ainda não encontrada. Como as partículas mais pesadas já não eram fundamentais, esta mudança reduziu a quantidade de partículas fundamentais para um número mais pequeno e fácil de gerir — os hadrões eram agora simplesmente combinações de componentes elementares múltiplos. Gell-Mann, com a sua inclinação para nomes malucos, chamou “quark” a esta partícula, em homenagem a uma frase favorita do romance Finnegans Wake, de James Joyce.
Real ou não?
Gell-Mann não foi a única pessoa a sugerir esta ideia. Em 1964, um aluno da Caltech, Georg Zweig, tinha sugerido que hadrões eram compostos por quatro partes básicas, às quais chamou “aces” (ases). O jornal do CERN, Physics Letters, recusou o artigo de Zweig, mas, nesse mesmo ano, publicou um artigo de um Gell-Mann mais sénior, que descrevia a mesma ideia.
O estudo de Gell-Mann pode ter sido publicado porque ele não sugeria a existência de qualquer realidade subjacente ao padrão — ele propunha simplesmente um esquema de organização. No entanto, esse esquema parecia pouco satisfatório, já que exigia que os quarks tivessem cargas fracionadas, como -1/3 e +2/3. Tais frações não faziam sentido para a teoria aceite, que apenas permitia cargas de números inteiros. Gell-Mann percebeu que se essas subunidades permanecessem escondidas, presas dentro dos hadrões, isto não tinha importância. A partícula ômega prevista (-), composta por três quarks, foi detectada no Brookhaven National Laboratory, em Nova Iorque, pouco depois da publicação de Gell-Mann. Isto confirmou o novo modelo, o qual Gell-Mann insistiu que lhe fosse atribuído e a Zweig.
Inicialmente, Gell-Mann duvidava que os quarks pudessem ser isolados. No entanto, hoje em dia insiste em dizer que embora tivesse inicialmente encarado os seus quarks como entidades matemáticas, nunca excluiu a possibilidade de estes poderem ser reais. Experiências no Stanford Linear Accelerator Center (SLAC), entre 1967 e 1973, dispersaram eletrões de partículas granulares duras dentro do protão, revelando, no processo, a realidade dos quarks.
O modelo-padrão
O modelo-padrão foi desenvolvido a partir do modelo quark de Gell-Mann. Neste esquema, as partículas são divididas em fermiões e bosões. Os fermiões são os blocos construtores da matéria, enquanto os bosões são partículas transportadoras de força.
Os fermiões dividem-se ainda em duas famílias de partículas elementares — quarks e leptões. Os quarks formam grupos de dois ou três para fazer as partículas compostas designadas por hadrões. Partículas subatômicas com três quarks são conhecidas como bariões e incluem os protões e os neutrões. As compostas por um quark e um antiquark são designadas por mesões e incluem os piões e os mesões K. No total, há seis “sabores”de quark-up, down, strange, charm, top e bottom. A característica que define os quarks é o facto de transportarem algo designado por “carga de cor”, que lhes permite interagir através da força forte. Os leptões não transportam carga de cor e não são afetados pela força forte. Há seis leptões — o eletrão, o muão, o tau e os neutrinos de eletrão, de muão e de tau. Os neutrinos não possuem carga elétrica e só interagem através da força fraca, o que torna a sua deteção extremamente difícil. Cada partícula também tem uma antipartícula correspondente de antimatéria.
O modelo-padrão explica as forças ao nível subatômico, como resultado de uma troca de partículas transportadoras de força conhecidas como “bosões de gauge”. Cada força tem o seu próprio bosão de gauge: a força fraca é mediada pelos bosões W+, W- e Z; a força eletromagnética forte pelos fotões; e a força forte pelos gluões.
O modelo-padrão é uma teoria robusta e foi verificado através de experiências, mais notavelmente a descoberta do bosão de Higgs — partícula que dá massa às outras partículas — no CERN, em 2012. No entanto, muitos consideram o modelo grosseiro e este tem problemas, tais como a sua incapacidade para incorporar a matéria escura ou explicar a gravidade em termos da interação de bosões. Outras perguntas que permanecem sem resposta são por que razão há uma preponderância de matéria (em vez de antimatéria) no Universo e porque parecem existir três gerações de matéria.
Em termos simples, a teoria das cordas é a ideia notável — e ainda controversa — de que toda a matéria do Universo é composta não por partículas semelhantes a pontos, mas por minúsculas “cordas” de energia. A teoria apresenta uma estrutura que não podemos detectar, mas que explica todos os fenômenos que vemos. Ondas de vibração dentro dessas cordas dão origem aos comportamentos quantizados (propriedades discretas como a carga elétrica e o spin) existentes na natureza e espelham as harmonias que podem ser produzidas, por exemplo, tangendo a corda de um violino.
O desenvolvimento da teoria das cordas tem tido um caminho longo e cheio de percalços e esta ainda não é aceite por muitos físicos. Mas o trabalho na teoria prossegue — no mínimo, por ser atualmente a única teoria que tenta unir as teorias de “gauge quântico” das forças eletromagnética, nuclear fraca e forte com a teoria da gravidade de Einstein.
Explicar a força forte
A teoria das cordas nasceu como um modelo para explicar a força forte que une as partículas nos núcleos dos átomos e o comportamento dos hadrões, partículas compostas sujeitas à influência da força forte.
Em 1960, como parte de um estudo em curso sobre as propriedades dos hadrões, o físico americano Geoffrey Chew propôs uma nova abordagem radical — abandonou o preconceito de que os hadrões eram partículas no sentido tradicional e modelou as suas interações em termos de um objeto matemático chamado matriz S. Quando o físico italiano Gabriele Veneziano investigou os resultados do modelo de Chew, encontrou padrões que sugeriam que as partículas surgiriam em pontos ao longo de linhas retas unidimensionais a primeira pista do que hoje designamos por cordas.
Na década de 1970, os físicos continuaram a mapear estas cordas e o seu comportamento, mas esse trabalho passou a gerar resultados irritantemente complexos e contraintuitivos. Por exemplo, as partículas têm uma propriedade chamada spin (análoga ao momento cinético), que só pode assumir determinados valores.
Os esboços iniciais da teoria das cordas podiam produzir bosões (partículas com spins zero ou de números inteiros, tipicamente as partículas “mensageiras” nos modelos das forças quânticas), mas não os fermiões (partículas com spins semi-inteiros, incluindo todas as partículas de matéria). A teoria também previu a existência de partículas que se deslocam mais depressa do que a velocidade da luz, voltando, consequentemente, atrás no tempo. Uma complicação final era que a teoria não podia funcionar adequadamente sem assumir a existência de nada menos do que 26 dimensões separadas (em vez das quatro habituais — três dimensões de espaço, mais a de tempo). O conceito de dimensões extra já existia há muito tempo: o matemático alemão Theodor Kaluza tinha tentado unificar o eletromagnetismo e a gravidade através do uso de uma (quinta) dimensão extra. Matematicamente, não era um problema, mas colocava a questão de se saber porque não vivenciamos todas as dimensões. Em 1926, o físico sueco Oscar Klein explicou como essas dimensões extra poderiam permanecer invisíveis nas escalas macroscópicas quotidianas, sugerindo que talvez se “enrolassem” em loops de escala quântica.
A teoria das cordas sofreu um declínio em meados da década de 1970. A teoria da cromodinâmica quântica (CDQ), que introduzia o conceito de “carga de cor” para os quarks, para explicar a sua interação através da força nuclear forte, oferecia uma descrição muito melhor. Mas, ainda antes disto, alguns cientistas sussurravam que a teoria era conceptualmente falhada. Quanto mais trabalhos realizavam, mais parecia que as cordas não descreviam a força forte de modo nenhum.
A ascensão das supercordas
Grupos de físicos continuaram a trabalhar na teoria das cordas, mas precisavam de encontrar soluções para alguns dos seus problemas antes de a comunidade científica mais alargada poder voltar a levá-la a sério. No início da década de 1980 surgiu um avanço com a ideia da supersimetria. Trata-se da sugestão de que cada uma das partículas conhecidas encontradas no modelo-padrão da física de partículas (pp. 302-05) tem um “superparceiro” não descoberto — um fermião correspondente a cada bosão e um bosão correspondente a cada fermião. Se este fosse o caso, então muitos dos problemas proeminentes com as cordas desapareceriam instantaneamente e o número de dimensões necessárias para as descrever seria reduzido a dez. O facto de estas partículas adicionais permanecerem por detectar poderia dever-se a só serem capazes de uma existência independente a energias muito acima daquelas produzidas até mesmo nos aceleradores de partículas mais potentes e modernos.
Esta “teoria das cordas supersimétricas” revista tornou-se depressa mais simplesmente conhecida por “teoria das supercordas”. No entanto, continuavam a existir grandes problemas — particularmente o facto de surgirem cinco interpretações rivais das supercordas. Começaram também a acumular-se provas de que as supercordas deveriam dar origem não apenas a cordas bidimensionais e pontos unidimensionais, mas também a estruturas multidimensionais, designadas coletivamente por “branas”. As branas podem ser imaginadas como análogas a membranas bidimensionais que se deslocam no nosso mundo tridimensional: do mesmo modo, uma brana tridimensional poderia deslocar-se num espaço tetradimensional.
Teoria-M
Em 1995, o físico americano Edward Witten apresentou um novo modelo conhecido como teoria-M, que oferecia uma solução para o problema das teorias das supercordas rivais. Acrescentou uma única dimensão, elevando o total para 11, o que permitiu que as cinco abordagens das supercordas fossem descritas como aspetos de uma única teoria. As 11 dimensões do espaço-tempo exigidas pela teoria-M espelhavam as 11 dimensões exigidas pelos modelos, então populares, de “supergravidades” (gravidade supersimétrica) Segundo Witten, as sete dimensões adicionais de espaço exigidas seriam “compactadas” — encolhidas em estruturas minúsculas semelhantes a esferas, que atuariam como, e pareceriam ser, pontos em todas as escalas, exceto as mais microscópicas.
O principal problema da teoria-M é que os detalhes da própria teoria são ainda desconhecidos. Ou seja, é uma previsão da existência de uma teoria com certas características que preencheriam uma série de critérios observados ou previstos.
Apesar das suas limitações atuais, a teoria-M provou ser uma enorme inspiração para vários campos da física e da cosmologia. As singularidades dos buracos negros podem ser interpretadas como um fenômeno de cordas, assim como as primeiras fases do Big Bang. Um resultado intrigante da teoria-M é o modelo de “Universo cíclico” proposto por cosmólogos como Neil Turok e Paul Steinhardt. Nesta teoria, o nosso Universo é apenas uma entre várias branas individuais separadas entre si por pequenas distâncias no espaço-tempo de 11 dimensões, que deslizam minimamente umas em relação às outras em escalas de tempo de biliões de anos. Já se argumentou que colisões entre branas poderiam resultar em gigantescas libertações de energia e originar novos Big Bangs.
Teorias de tudo
A teoria-M foi proposta como uma possível “Teoria de Tudo” para unir as teorias quânticas dos campos que descrevem, com êxito, o eletromagnetismo e as forças nucleares fraca e forte, com a descrição da gravidade fornecida pela teoria geral de relatividade. Até agora, uma descrição quântica da gravitação permanece evasiva. A natureza da gravidade parece ser radicalmente diferente das outras três forças.
Estas três forças atuam todas entre partículas individuais, mas só a escalas relativamente pequenas, enquanto a gravidade é insignificante, exceto quando quantidades imensas de partículas se aglomeram, mas age através de distâncias enormes. Uma possível explicação para o comportamento pouco habitual da gravidade é que a sua influência ao nível quântico pode “extravasar” para dentro de dimensões mais elevadas, de modo que apenas uma pequena fração é percebida dentro das dimensões familiares do nosso Universo.
A teoria das cordas não é a única candidata à Teoria de Tudo. A gravidade quântica de loops (GOL) foi desenvolvida por Lee Smolin e Carlo Rovelli a partir do final da década de 1980. Nesta teoria, as propriedades quantizadas das partículas surgem não da sua natureza de tipo corda, mas de estruturas em pequena escala do próprio espaço-tempo, o qual é quantizado em pequenos loops. A GOL e os seus desenvolvimentos oferecem vantagens intrigantes em relação à teoria das cordas, eliminando a necessidade de dimensões adicionais e tendo sido aplicada com sucesso a grandes problemas cosmológicos. Mas a argumentação para as partículas de cordas ou para o espaço-tempo em loop como “Teoria de Tudo” permanece inconclusiva.
Na década de 1960, o físico britânico Stephen Hawking foi um entre diversos investigadores geniais que se interessaram pelo comportamento dos buracos negros. Escreveu a sua tese de doutoramento sobre os aspetos cosmológicos de uma singularidade (o ponto no espaço-tempo no qual se concentra toda a massa de um buraco negro) e traçou paralelos entre as singularidades de buracos negros de massa estelar e o estado inicial do Universo durante o Big Bang.
Por volta de 1973, Hawking interessou-se pela mecânica quântica e pelo comportamento da gravidade a uma escala subatômica. Fez uma descoberta importante-que, apesar do seu nome, os buracos negros não engolem apenas matéria e energia, mas emitem também radiação. A assim chamada “radiação de Hawking” é emitida no horizonte de eventos do buraco negro — a fronteira exterior na qual a gravidade do buraco negro se torna tão forte que nem a luz consegue escapar. Hawking mostrou que, no caso de um buraco negro rotacional, a gravidade intensa daria origem à produção de pares virtuais de partículas-antipartículas subatômicas. No horizonte de eventos seria possível que um elemento de cada par fosse puxado para dentro do buraco negro, impulsionando efetivamente o sobrevivente para uma existência sustentada, enquanto partícula real. Para um observador distante, o resultado disto é o horizonte de eventos emitir radiação térmica de baixa temperatura. Com o passar do tempo, a energia transportada por esta radiação faz com que o buraco negro perca massa e se evapore.
Durante o início da década de 1960, a NASA formou uma equipa em Pasadena, na Califórnia, para pensar em como procurar vida em Marte. Foi perguntado ao cientista ambientalista britânico James Lovelock como é que abordaria o problema, o que o incitou a pensar na vida na Terra.
Lovelock depressa descobriu uma série de características necessárias à vida. Toda a vida na Terra depende de água. A temperatura média da superfície precisa de se manter a 10-16 C para que haja a presença de água líquida suficiente, tendo permanecido dentro desse intervalo há 3,5 milhões de anos. As células exigem um nível constante de salinidade e, geralmente, não conseguem sobreviver a níveis acima de cinco por cento, tendo a salinidade do oceano permanecido em cerca de 3,4 por cento. Desde que o oxigênio surgiu na atmosfera, há cerca de 2000 milhões de anos, a sua concentração permaneceu perto dos 20 por cento. Se caísse abaixo de 16 por cento, não haveria o suficiente para respirar-se subisse para os 25 por cento, os incêndios florestais jamais se apagariam.
A hipótese Gaia
Lovelock sugeriu que o planeta inteiro compõe uma única entidade viva que se autorregula, à qual chamou Gaia. A própria presença da vida regula a temperatura da superfície, a concentração de oxigênio e a composição química dos oceanos, otimizando as condições para a vida. No entanto, alertou para o facto de o impacto humano no meio ambiente poder perturbar esse equilíbrio delicado.
O matemático belga Benoît Mandelbrot usou computadores para modelar padrões na natureza na década de 1970. Ao fazê-lo, lançou um novo campo matemático — a geometria fractal — que, desde então, encontrou utilização em muitos campos.
Dimensões fracionadas
Enquanto a geometria convencional usa dimensões de números inteiros, a geometria fractal emprega dimensões fracionadas, que podem ser encaradas como "medidas de aspereza". Para perceber o que isto significa imagine que mede a costa britânica com um pau. Quanto mais comprido o pau, mais curta será a medição, já que irá suavizar quaisquer asperezas ao longo da sua extensão. A costa britânica tem uma dimensão fracionada de 1,28, um índice do aumento da medição à medida que o comprimento do pau diminui.
Uma característica dos fractais é a autossemelhança — o que significa que existe uma quantidade igual de detalhes em todas as escalas de amplificação. A natureza fractal das nuvens, por exemplo, torna impossível saber a que distância estão de nós sem pistas externas — as nuvens parecem iguais de todas as distâncias. O nosso corpo contém muitos exemplos de fractais, como a forma como os pulmões se expandem para preencher eficientemente o espaço. Tal como as funções caóticas, os fractais demonstram sensibilidade a mudanças pequenas nas condições iniciais e são usados para analisar sistemas caóticos, como a meteorologia.
O processamento da informação quântica é um dos campos mais recentes da mecânica quântica. Opera de um modo fundamentalmente diferente da computação convencional. O matemático russo-alemão Yuri Manin esteve entre os pioneiros do desenvolvimento da teoria.
O bit é o transportador fundamental da informação num computador e pode existir em dois estados: 0 e 1. A unidade fundamental de informação na computação quântica tem o nome de qubit. É composta por partículas subatómicas "presas" e também tem dois estados possíveis. Um eletrão, por exemplo, pode ser spin-up ou spin-down e os fotões de luz podem ser polarizados horizontal ou verticalmente. No entanto, a função de onda da mecânica quântica permite que os qubits existam numa sobreposição de ambos os estados, aumentando a quantidade de informação que podem transportar. A teoria quântica também permite que os qubits se "entrelacem", o que aumenta exponencialmente os dados transportados com cada qubit adicional. Este processamento paralelo poderia, teoricamente, produzir uma força computacional extraordinária.
Demonstrar a teoria
Na década de 1980, os computadores quânticos pareciam ser apenas teóricos. Mas foram já alcançados cálculos em sistemas com apenas alguns qubits. Para fornecer uma máquina útil, os computadores quânticos precisam de alcançar centenas ou milhares de qubits entrelaçados e existem problemas de escala para se chegar a esse tamanho. O trabalho para se resolver esses problemas prossegue.
A continuidade da vida — crescimento, reprodução e evolução dos organismos — é encarada como um processo vertical, conduzida por genes que passam dos pais para a sua prole. Mas, em 1985, Michael Syvanen propôs que, em vez de serem simplesmente passados para os filhos, os genes também serão passados horizontalmente, entre espécies, independentemente da reprodução, e que a transferência horizontal de genes (THG) desempenha um papel crucial na evolução.
Em 1928, Frederick Griffith estudava as bactérias relacionadas com a pneumonia quando descobriu que uma estirpe inofensiva se tornava perigosa misturando as suas células vivas com os restos mortais de uma bactéria virulenta, morta pelo calor. Atribuiu os seus resultados a um “princípio químico” transformador, que tinha passado das células mortas para as vivas. Um quarto de século antes de a estrutura do ADN ser desvendada por James Watson e Francis Crick, Griffith tinha encontrado a primeira prova de que o ADN podia passar horizontalmente entre células da mesma geração, assim como verticalmente entre gerações.
Em 1946, Joshua Lederberg e Edward Tatum demonstraram que as bactérias trocam material genético como parte do seu comportamento natural. Em 1959, uma equipa liderada por Tomoichiro Akiba e Kunitaro Ochia mostrou que este tipo de transferência de ADN explica como a resistência aos antibióticos se pode espalhar tão rapidamente pelas bactérias.
Transformar micróbios
As bactérias possuem pequenos anéis móveis de ADN, chamados plasmídeos, que passam de uma célula para outra quando em contato direto — e levando os seus genes com eles. Algumas bactérias possuem genes que as tornam resistentes à ação de determinados tipos de antibióticos. Os genes são copiados sempre que o ADN se replica e podem espalhar-se através de uma população de bactérias, à medida que o ADN é transferido. Este tipo de transferência horizontal de genes também pode acontecer através dos vírus, tal como Norton Zinder, um aluno de Lederberg, descobriu. Os vírus são ainda mais pequenos do que as bactérias e podem invadir células vivas — incluindo as bactérias. Podem interferir com os genes hospedeiros e, quando se deslocam de um hospedeiro para outro, podem levar esses genes com eles.
Genes para o desenvolvimento
A partir de meados da década de 1980, Syvanen colocou a THG num contexto mais alargado. Notou semelhanças na forma como o desenvolvimento dos embriões é geneticamente controlado ao nível celular — mesmo entre espécies de parentesco afastado — e atribuiu-o aos genes que se deslocam entre organismos diferentes ao longo da história evolutiva. Argumentou que o controlo genético do desenvolvimento animal tinha evoluído para ser semelhante em grupos diferentes porque isso maximizava as hipóteses de a troca de genes funcionar.
À medida que as sequências de genomas são completadas para mais espécies e os registos fósseis são reexaminados, as provas sugerem que a THG pode ocorrer não só em micróbios, mas também em organismos mais complexos, em plantas ou animais. A árvore da vida de Darwin pode parecer-se mais com uma rede, com múltiplos antepassados em vez de um último antepassado universal comum. Com implicações potenciais para a taxonomia, as doenças e o controlo de pestes e a engenharia genética, a importância completa da THG ainda está por revelar.
Durante mais de dois séculos, os cientistas pensaram que o carbono elementar (C) existia em apenas três formas, ou alótropos: diamante, grafite e carbono amorfo o constituinte principal da fuligem e do carvão vegetal. Isso mudou em 1985 com o trabalho do químico britânico Harry Kroto e dos seus colegas americanos Robert Curl e Richard Smalley. Os químicos vaporizaram grafite com um raio laser para produzir vários agrupamentos de carbono, formando moléculas com um número par de átomos de carbono. Os grupos mais abundantes tinham as fórmulas C60 e C70. Tratava-se de moléculas nunca antes vistas.
O C60 (ou carbono-60) depressa revelou propriedades notáveis. Os químicos perceberam que tinha uma estrutura semelhante a uma bola de futebol — uma gaiola esférica completa de átomos de carbono, cada um ligado a três outros de tal modo que todas as faces do poliedro são pentágonos ou hexágonos. O C70 é mais parecido com uma bola de råguebi; tem um anel adicional de átomos de carbono em volta do seu equador.
Tanto o C70 como o C60 lembraram a Kroto as cúpulas geodésicas futuristas desenhadas pelo arquiteto americano Buckminster Fuller, e assim deu aos compostos o nome de buckminsterfulereno, mas estes são também conhecidos por buckyballs ou fulerenos.
Propriedades dos buckyballs
A equipa descobriu que o composto C60 era estável e podia ser aquecido a temperaturas elevadas sem se decompor. Transformava-se num gás a cerca de 650° C. Era inodoro e insolúvel em água, mas ligeiramente solúvel em solventes orgânicos. O buckyball é também um dos maiores objetos já encontrados que apresenta as propriedades tanto de uma partícula como de uma onda. Em 1999, investigadores austríacos enviaram moléculas de C60 através de fendas estreitas e observaram o padrão de interferência do comportamento de tipo onda.
O Ceo sólido é tão suave como a grafite, mas quando altamente com- primido transforma-se num tipo de diamante superduro. A bola de fute- bol, ao que parece, é capaz de supor- tar bastante pressão.
O C60 puro é um semicondutor de eletricidade, o que significa que a sua condutividade está entre a de um isolante e a de um condutor. Mas quando lhe são adicionados átomos de metais alcalinos, como o sódio ou o potássio, torna-se um condutor e até mesmo um supercondutor a baixas temperaturas, conduzindo a eletricidade sem qualquer resistência.
O C60 também passa por uma grande variedade de reações químicas, resultando num grande número de produtos (substâncias químicas), cujas propriedades ainda estão a ser investigadas.
O mundo novo do nano
Embora o C60 tenha sido a primeira destas moléculas a ser investigada, a sua descoberta conduziu a um ramo novo da química — o estudo dos fulerenos. Foram feitos nanotubos — fulerenos cilíndricos de apenas alguns nanómetros de largura, mas com até vários milímetros de comprimento. São bons condutores de calor e eletricidade, quimicamente inativos e muito fortes, o que os torna bastante úteis para a engenharia.
Existem muitos outros que estão a ser investigados para tudo, desde propriedades elétricas a tratamentos médicos para o cancro e o VIH. O mais recente desenvolvimento dos fulerenos é o grafeno, uma folha plana de átomos de carbono como uma única camada de grafite. Esta substância tem propriedades notáveis.
O genoma humano — a totalidade da informação hereditária humana — é composto por cerca de 20 mil genes. Um gene é a unidade molecular da hereditariedade de um organismo vivo. No entanto, os genes falham frequentemente. Um gene defeituoso surge quando um gene normal não é copiado adequadamente e o “erro” é transmitido dos pais para a sua prole. Os sintomas que surgem destas doenças genéticas dependem do gene envolvido. Um gene atua controlando a produção de uma proteína — uma das muitas que desempenham uma vasta variedade de funções nos organismos vivos —, mas essa produção falha se houver um erro. Por exemplo, se um gene coagulante falha, o corpo para de produzir a proteína sanguínea que faz o sangue coagular, causando a doença da hemofilia.
As doenças genéticas não podem ser curadas por medicamentos convencionais e, durante bastante tempo, só era possível amenizar os sintomas e tornar a vida do paciente o mais confortável possível. Mas, na década de 1970, os cientistas começaram a considerar a possibilidade da “terapia genética” para curar as doenças — usando genes “saudáveis” para substituir ou anular os defeituosos.
Introduzir novos genes
Os genes podem ser introduzidos nas partes doentes do corpo através de um vetor — uma partícula que “transporta” o gene até à sua fonte. Os cientistas investigaram várias entidades possíveis que pudessem agir como um vetor — incluindo os vírus, mais habitualmente associados à causa da doença do que à sua cura. Os vírus invadem naturalmente as células vivas como parte do seu ciclo de infeção, mas será que poderiam talvez transportar os genes terapêuticos?
Na década de 1980, uma equipa de cientistas americanos, incluindo William French Anderson, conseguiu com sucesso usar vírus para introduzir genes em tecidos de cultura (produzidos em laboratório). Esta técnica foi testada em animais que sofriam de uma deficiência imunológica genética. O objetivo era levar o gene terapêutico até à medula óssea dos animais, a qual produziria depois glóbulos vermelhos saudáveis curando a deficiência. O teste não foi muito eficaz, embora o procedimento tivesse funcionado melhor quando o alvo foram os glóbulos brancos.
Em 1990, Anderson realizou o primeiro teste clínico, tratando duas meninas que sofriam da mesma deficiência imunológica, conhecida como “imunodeficiência combinada ligada ao X”. Os portadores dessa doença são tão suscetíveis a infeções que podem ter de passar a vida inteira num ambiente estéril, ou “bolha”.
A equipa de Anderson retirou algumas células das duas meninas, tratou-as com o vírus transportador do gene e depois recolocou-as de volta nas meninas. O tratamento foi repetido várias vezes ao longo de dois anos e funcionou. Contudo, os seus efeitos eram apenas temporários, já que as novas células produzidas pelo corpo continuavam a herdar o gene defeituoso. Este continua a ser o problema central para os investigadores da terapia genética atual.
Perspectivas futuras
Têm sido feitas descobertas notáveis no tratamento de outras doenças. Em 1989, cientistas a trabalhar nos EUA identificaram o gene que causa a fibrose cística. Nesta doença, as células defeituosas produzem um muco viscoso que entope os pulmões e o sistema digestivo. Cinco anos depois da identificação do gene defeituoso responsável, tinha sido desenvolvida uma técnica para o transporte de genes saudáveis usando lipossomas — um tipo de gotícula oleosa — como vetor. Os resultados do primeiro teste clínico saíram em 2014.
Ainda têm ser ultrapassados desafios consideráveis para se expandir a terapia genética. A fibrose cística é causada por um defeito num único gene. No entanto, muitas doenças com uma componente genética — como a doença de Alzheimer, as doenças do coração e a diabetes — são causadas pela interação de muitos genes diferentes. Tais doenças são muito mais difíceis de tratar e a busca por terapias genéticas seguras e bem-sucedidas prossegue.
Em maio de 2010, uma equipa liderada pelo biólogo Craig Venter, criou a primeira forma de vida inteiramente artificial. O organismo — uma bactéria unicelular — foi construído a partir dos seus componentes químicos básicos. O sonho de criar vida não é novo. Em 1771, Luigi Galvani usou a eletricidade para causar espasmos na perna de um sapo dissecado. Mas os cientistas perceberam gradualmente que a vida depende menos de uma “centelha” física e mais dos processos químicos que se realizam no interior das células.
Em meados da década de 1950, o verdadeiro segredo da vida tinha sido descoberto numa molécula chamada ácido desoxirribonucleico, ou ADN, existente no núcleo de todas as células. A longa corrente de componentes químicos construtores do ADN foi identificada como o código genético que controla o funcionamento da célula. Criar vida significaria criar ADN — e estabelecer com precisão exata a sequência de componentes construtores, chamados nucleótidos. Cada nucleótido tem apenas um de quatro tipos de base, mas combinam-se de modos incontáveis.
Fazer o ADN
A sequência de nucleótidos difere em cada organismo e resulta de milhões de anos de evolução. Uma sequência aleatória enviaria uma “mensagem” química absurda, que não conseguiria manter um ser vivo. Para criar vida, os cientistas teriam de copiar uma sequência de um organismo existente. Em 1990 estavam disponíveis novas tecnologias para se decifrar isto usando uma série de métodos complexos, e o Projeto do Genoma Humano foi lançado para se sequenciar a estrutura genética humana completa, ou genoma.
O primeiro organismo — uma bactéria — foi sequenciado em 1995. Três anos depois, frustrado com o ritmo lento do Projeto do Genoma Humano, Venter saiu para formar uma empresa privada, a Celera Genomics, para sequenciar mais rapidamente o genoma humano e lançar os dados no domínio público. Em 2007, a sua equipa anunciou que tinha feito um cromossoma artificial — uma cadeia completa de ADN — baseado no de uma bactéria do gênero Mycoplasma. Em 2010, a sua equipa inseriu um cromossoma artificial noutra bactéria, cujo material genético tinha sido removido, criando, de facto, uma nova forma de vida.
Vida gerada em computador
O genoma, até do ser vivo mais simples — como o Mycoplasma —, é composto por sequências de centenas de milhares de nucleótidos. Estes nucleótidos precisam de ser ligados artificialmente entre si segundo uma ordem específica, mas fazê-lo para um genoma inteiro é uma tarefa monstruosa. O processo é automatizado com a ajuda de tecnologia informática, em máquinas que conseguem agora descodificar o mapa genético de vida, identificar fatores genéticos em doenças e até servir para criar novas formas de vida.
A clonagem é a produção de um organismo novo, geneticamente idêntico, a partir de um outro. Isto ocorre na natureza quando, por exemplo, um morangueiro produz novos pés e a prole herda os seus genes assexuadamente. Mas a clonagem artificial é caprichosa, já que nem todas as células têm o potencial para se desenvolver como indivíduos completos e as células maduras podem ter dificuldade em fazê-lo. A primeira clonagem bem-sucedida de um organismo multicelular foi realizada em 1958 por F. C. Stewart, que cultivou um pé de cenoura a partir de uma única célula madura. A clonagem de animais provou-se mais difícil.
Clonar animais
Nos animais, os óvulos fertilizados e as células de um jovem embrião estão entre as poucas células totipotentes — células que podem crescer para formar um corpo completo. Na década de 1980, os cientistas conseguiam produzir clones separando células embrionárias jovens, mas era difícil. Em vez disso, Ian Wilmut e a sua equipa introduziram o núcleo de células do corpo em óvulos fertilizados aos quais tinha sido retirado o material genético — tornando-os, assim, totipotentes.
Usando células do úbere de ovelhas como fonte dos núcleos, a equipa introduziu os embriões resultantes em ovelhas para que se desenvolvessem. No total, 27 729 células cresceram e tornaram-se embriões e, em 1996, uma delas, chamada Dolly, nasceu e sobreviveu até à idade adulta. A investigação sobre clonagem para fins de agricultura, conservação e medicina continua, assim como o debate público sobre a ética desse procedimento.
Há muito que os astrônomos analisam a possibilidade de haver planetas a orbitar outras estrelas além do nosso Sol, mas, até há pouco tempo, a tecnologia limitava a nossa capacidade de os detectar. Os primeiros a serem encontrados foram planetas que orbitavam pulsares — estrelas de neutrões a girar a grande velocidade, cujos sinais de rádio variam ligeiramente à medida que os seus planetas as puxam. Então, em 1995, Michel Mayor e Didier Queloz descobriram o 51 Pegasi b — um planeta do tamanho de Júpiter, a orbitar uma estrela semelhante ao Sol, a cerca de 51 anos-luz da Terra. Desde então já foram confirmados mais de mil outros planetas extrassolares ou “exoplanetas”.
Caçador de planetas
O astrônomo Geoffrey Marcy, da Universidade da Califórnia, Berkeley, detém juntamente com a sua equipa o recorde do maior número de planetas descobertos por um observador humano, incluindo 70 dos primeiros 100.
Tais planetas distantes são demasiado indistintos para serem vistos diretamente, mas podem ser revelados indiretamente. O efeito da gravidade de um planeta na sua estrela hospedeira produz variações na velocidade radial da estrela — a velocidade a que esta se aproxima ou afasta da Terra — que podem ser medidas a partir das alterações na sua frequência de luz. Resta saber se algum exoplaneta contém vida.
Aceleração — A taxa de mudança da velocidade. A aceleração é causada por uma força que resulta numa mudança na direção e/ou velocidade de um objeto.
Ácido — Químico que, quando dissolvido em água, liberta iões de hidrogênio e torna o papel tornassol vermelho.
ADN — Ácido desoxirribonucleico. Uma molécula grande com a forma de uma hélice dupla, que transporta a informação genética num cromossoma.
Alcalino — Uma base que se dissolve em água e neutraliza ácidos.
Algoritmo — Em matemática e programação de computadores, um procedimento lógico para se fazer um cálculo.
Aminoácidos — Químicos orgânicos com moléculas que contêm grupos amina (NH₂) e grupos carboxil (COOH). As proteínas são compostas por aminoácidos. Cada proteína contém uma sequência específica de aminoácidos.
Antipartícula — Uma partícula semelhante a uma partícula normal, exceto pelo facto de ter uma carga elétrica oposta. Cada partícula tem uma antipartícula equivalente.
Átomo — A menor parte de um elemento com as propriedades químicas que o tornam esse elemento. Os átomos estão na menor parte da matéria; eles são constituídos por núcleos e muitas partículas subatômicas.
ATP — Adenosina trifosfato. Um químico que armazena e transporta energia através das células.
Base — Elemento químico que reage com um ácido para produzir água e um sal.
Big Bang — Teoria de que o Universo começou a partir da explosão de uma singularidade.
Bosão de Higgs — Partícula subatômica associada ao campo de Higgs, cuja interação com a matéria lhe dá a sua massa.
Bosões — Partículas subatômicas que transportam forças entre outras partículas.
Brana — Na teoria das cordas, um objeto que tem entre zero e nove dimensões.
Buraco negro — Objeto no espaço tão denso que a luz não consegue escapar do seu campo gravitacional.
Campo — A distribuição de uma força através do espaço-tempo, na qual pode ser atribuído um valor para essa força a cada ponto. Um campo gravitacional, por exemplo, é uma região no qual a força sentida num determinado ponto é inversamente proporcional ao quadrado da distância para a fonte da gravidade.
Carga de cor — Propriedade dos quarks através da qual são afetados pela força nuclear forte.
Carga elétrica — Propriedade das partículas subatômicas que faz com que elas sejam repelidas umas às outras ou atraídas.
Célula — A mais pequena unidade de um organismo que consegue sozinha realizar os processos da vida.
Cladística — Sistema de classificação da vida, que agrupa as espécies de acordo com os seus antepassados comuns mais próximos.
Corpo negro — Objeto teórico que absorve toda a radiação que recai sobre ele. Um corpo negro irradia energia conforme a sua temperatura, portanto, pode não parecer negro.
Corrente elétrica — Um fluxo de eletrões ou iões.
Cromossoma — Estrutura composta por ADN e proteína que contém a informação genética de uma célula.
Deriva continental — O movimento lento dos continentes em redor do globo ao longo de milhões de anos.
Desintegração beta — Uma forma de desintegração radioativa na qual um núcleo atómico emite partículas beta (eletrões ou positrões).
Desintegração gama — Uma forma de desintegração radioativa na qual um núcleo atómico emite radiação gama de elevada energia e comprimento de onda curto.
Desintegração radioativa — Processo pelo qual núcleos atômicos instáveis emitem partículas ou radiação eletromagnética.
Desvio para o vermelho — O esticar da luz de uma galáxia ou de outras fontes de radiação que se afastam de nós, no qual os comprimentos de onda da luz visível se deslocam para o extremo vermelho do espetro.
Difração — A curvatura das ondas em volta de obstáculos e a dispersão das mesmas após passarem por aberturas pequenas.
Ecologia — Estudo científico das relações entre organismos vivos e o seu ambiente.
Efeito de Doppler — Mudança na frequência de uma onda vivenciada por um observador em movimento relativo para com a fonte da onda.
Efeito fotoelétrico — A emissão de eletrões da superfície de determinadas substâncias quando atingidas pela luz.
Elemento — Substância que não pode ser decomposta noutras substâncias por meio de reações químicas.
Eletrodinâmica quântica (EDQ) — Teoria que explica a interação de partículas subatômicas em termos da troca de fotões.
Elétron — Partícula subatômica com carga elétrica negativa.
Eletrólise — Alteração química numa substância causada pela passagem de uma corrente elétrica através dela.
Endossimbiose — Relacionamento de benefício mútuo entre organismos no qual um vive dentro do outro ou nas células do outro organismo.
Energia — Capacidade de trabalho de um objeto ou sistema. A energia existe sob muitas formas, tais como energia cinética (movimento), energia potencial (armazenada), energia térmica (calor) e energia eletromagnética (luz). A energia nunca se cria nem se destrói, mas muda de uma forma para outra.
Energia escura — Força pouco compreendida que atua em direção oposta à gravidade, causando a expansão do Universo. Cerca de três quartos da massa-energia do Universo são energia escura.
Emaranhamento — Na física quântica, a ligação entre partículas de modo que uma mudança numa afeta a outra independentemente da sua distância no espaço.
Entropia — Medida da desordem de um sistema. A entropia é o número de modos específicos pelos quais um determinado sistema pode ser organizado.
Espaço-tempo — As três dimensões do espaço combinadas com uma dimensão do tempo para formar um contínuo único.
Espécie – Grupo de organismos semelhantes que se podem reproduzir entre si para produzir descendentes férteis.
Etologia — Estudo científico do comportamento animal.
Evolução — Processo através do qual as espécies mudam com o passar do tempo.
Exoplaneta — Planeta que orbita uma estrela que não é o nosso Sol.
Fermião — Partícula subatômica, como um elétron ou um quark, sujeita à exclusão de Pauli.
Força — Impulso ou tração, que move ou muda a forma de um objeto.
Força eletromagnética — Uma das quatro forças fundamentais da natureza. Envolve a transferência de fotões entre partículas.
Força nuclear forte — Uma das quatro forças fundamentais que agrupa os quarks para formar neutrões e protões.
Força nuclear fraca — Uma das quatro forças fundamentais que atua dentro de um núcleo atómico e é responsável pela desintegração beta.
Fotão — Partícula da luz que transfere a força eletromagnética de um lugar para outro.
Fotossíntese — Processo através do qual as plantas usam a energia do Sol para produzir alimento a partir da água e do dióxido de carbono.
Fractal — Padrão geométrico no qual formas semelhantes podem ser vistas em escalas diferentes.
Gases de efeito de estufa — Gases, como o dióxido de carbono e o metano, que absorvem a energia refletida pela superfície da Terra, impedindo que esta escape para o espaço.
Gene — Unidade básica de hereditariedade nos organismos vivos. Contém instruções codificadas para a formação de elementos químicos como as proteínas.
Geocentrismo — Modelo do Universo com a Terra no seu centro.
Gravidade — Força de atração entre objetos com massa. Os fotões sem massa também são afetados pela gravidade e, quando estão perto de um objeto massivo, são desviados pelo espaço-tempo.
Heliocentrismo — Modelo do Universo com o Sol no seu centro.
Hidrocarboneto — Elemento químico cujas moléculas contêm uma ou mais cadeias de carbono e átomos de hidrogénio.
Horizonte de eventos — Fronteira que rodeia um buraco negro dentro da qual a atração gravitacional do buraco negro é tão forte que a luz não consegue escapar. Nenhuma informação sobre o buraco negro consegue atravessar o seu horizonte de eventos.
Íon — Átomo ou grupo de átomos que perdeu ou ganhou um ou mais elétrons para se tornar eletricamente carregado.
Leptões — Fermiões que são afetados pelas quatro forças fundamentais, exceto a força nuclear forte.
Ligação covalente — Ligação entre dois átomos na qual eles compartilham elétrons.
Ligação iônica — Ligação entre dois átomos na qual eles trocam um elétron para se tornarem íons. A carga elétrica oposta dos íons faz com que se atraiam um ao outro.
Ligação pi — Ligação covalente na qual os lóbulos dos orbitais p ou d (ou mais elétrons) se sobrepõem lateralmente, em vez de diretamente, entre os átomos envolvidos.
Ligação sigma — Ligação covalente formada quando as orbitais dos elétrons se encontram frontalmente entre os átomos. É uma ligação relativamente forte.
Luz polarizada — Luz na qual todas as ondas oscilam em apenas um plano.
Magnetismo — Força de atração ou de repulsão exercida por ímãs. O magnetismo é produzido por campos magnéticos ou pela propriedade do momento magnético das partículas.
Massa — Propriedade de um objeto, que é uma medida da força necessária para o acelerar.
Matéria escura — Matéria invisível que só pode ser detectada pelo seu efeito gravitacional na matéria visível. A matéria escura mantém as galáxias unidas.
Mecânica clássica — Também conhecida como mecânica newtoniana. Conjunto de leis que descrevem o movimento dos corpos sob a ação de forças. A mecânica clássica fornece resultados precisos para objetos macroscópicos que não se deslocam perto da velocidade da luz.
Mecânica quântica — Ramo da física que estuda as interações das partículas subatômicas em termos de pacotes discretos, ou quanta, de energia.
Mitocôndrias — Estruturas dentro da célula que lhe fornecem energia.
Modelo-padrão — Enquadramento teórico da física de partículas no qual existem 12 fermiões básicos — seis quarks e seis leptões.
Molécula — A mais pequena unidade de um composto com as suas propriedades químicas, composta por dois ou mais átomos.
Momento — Medida da força necessária para parar um objeto em movimento. É igual ao produto da massa do objeto pela sua velocidade.
Momento cinético — Uma medida da rotação de um objeto, considerando a sua massa, forma e velocidade de spin.
Morte térmica — Um possível estado final do Universo no qual não existem diferenças de temperatura no espaço e nenhum trabalho pode ser realizado.
Multiverso — Conjunto hipotético de universos no qual ocorre todo tipo de eventos possíveis.
Neutrão — Partícula subatômica eletricamente neutra que compõe parte do núcleo de um átomo. O neutrão é composto por um quark up e dois quarks down.
Neutrino — Partícula subatômica eletricamente neutra com uma massa muito pequena. Os neutrinos podem atravessar a matéria sem ser detectados.
Núcleo — Parte central de um átomo, englobando protões e neutrões. O núcleo contém quase toda a massa de um átomo.
Número atômico — O número de protões no núcleo de um átomo. Cada elemento tem um número atômico diferente.
Onda — Oscilação que viaja pelo espaço, transferindo energia de um lugar para outro.
Ótica — Estudo da visão e do comportamento da luz.
Paralaxe — O movimento aparente de objetos a distâncias diferentes em relação uns aos outros quando um observador se move.
Partícula — Minúsculo fragmento de matéria que pode ter velocidade, posição, massa e carga.
Partícula alfa — Uma partícula composta por dois neutrões e dois protões, emitida durante uma forma de desintegração radioativa chamada desintegração alfa. Uma partícula alfa é igual ao núcleo de um átomo de hélio.
Pi (π) — O rácio entre a circunferência de um círculo e o seu diâmetro. É aproximadamente igual a 22/7 ou 3.14159.
Polímero — Substância cujas moléculas assumem a forma de longas cadeias.
Positrão — A contraparte antipartícula de um elétron, com a mesma massa, mas uma carga elétrica positiva.
Pressão — Força contínua contra um objeto. A pressão dos gases é causada pelo movimento das suas moléculas.
Princípio da exclusão de Pauli — Na física quântica, o princípio de que dois férmions (partículas com massa) não podem ter o mesmo estado quântico, no mesmo ponto, no espaço-tempo.
Princípio da incerteza — Propriedade da mecânica quântica que significa que quanto mais precisamente se mede determinada característica, menos se sabe sobre outras características, tal como o momento, menos se sabe sobre outras características como a posição, e vice-versa.
Protão — Partícula no núcleo de um átomo com carga positiva. Um protão contém dois quarks u e um quark d.
Quark — Partícula subatómica que compõe os protões e os neutrões.
Química orgânica — A química dos compostos que contêm carbono.
Radiação — Onda eletromagnética ou um feixe de partículas emitidas por uma fonte.
Radiação eletromagnética — Forma de energia que se desloca pelo espaço. É gerada quando eletrões se movem rapidamente, como os que circulam em antenas, que oscilam de forma a induzir a radiação eletromagnética.
Refração — Curvatura das ondas eletromagnéticas quando se deslocam de um meio para outro.
Relatividade especial — O resultado de se considerar que tanto a velocidade da luz como as leis da física são as mesmas para todos os observadores. A relatividade especial elimina a possibilidade de um tempo ou espaço absolutos.
Relatividade geral — Descrição teórica do espaço-tempo na qual Einstein concilia gravidade e teorias de aceleração. A relatividade geral fornece uma descrição da gravidade como sendo a distorção do espaço-tempo pela matéria. Muitas das suas predições foram demonstradas empiricamente.
Respiração — Processo pelo qual os organismos captam oxigênio e o utilizam para decompor os alimentos em energia e dióxido de carbono.
Sal — Composto formado pela reação de um ácido com uma base.
Seleção natural — Processo através do qual as características que aumentam as hipóteses de reprodução de um organismo são passadas adiante.
Singularidade — Ponto no espaço-tempo com comprimento zero.
Sistema caótico — Sistema cujo comportamento muda radicalmente com ligeiras mudanças nas condições iniciais, mesmo que pareça seguir uma condição final.
Sobreposição — Na física quântica, o princípio de que, até ser medida, uma partícula, tal como um elétron, pode existir em todos os seus estados possíveis.
Spin — Uma característica das partículas subatômicas análoga ao momento cinético.
Tabela periódica — Tabela contendo todos os elementos, dispostos segundo o seu número atômico.
Tectônica de placas — Estudo da deriva continental e do modo como o leito oceânico se afasta.
Teoria das cordas — Enquadramento teórico da física no qual partículas semelhantes a pontos são substituídas por cordas unidimensionais.
Teoria eletrofraca — Teoria que explica as forças eletromagnética e a nuclear fraca como sendo uma força eletrofraca.
Termodinâmica — Ramo da física que estuda o calor e a sua relação com a energia e o trabalho.
Transpiração — O processo pelo qual as plantas emitem vapor de água na superfície das suas folhas.
Uniformitarianismo — Pressuposição de que as mesmas leis da física atuam em todos os momentos em todos os lugares do Universo.
Valência — Número de ligações químicas que um átomo pode constituir com outros átomos.
Velocidade — Medida da rapidez e da direção de um objeto.
Vitalismo — Doutrina segundo a qual a matéria é insuficiente para gerar o diferente da vida atual e universal. A vida orgânica deriva fundamentalmente de uma força vital não identificada. Atualmente, é rejeitada pela ciência convencional.
Zero absoluto — A temperatura mais baixa possível: 0 K ou −273,15 ºC.