Fisica
Física é a ciência que estuda os fenômenos naturais, ou seja, tudo o que ocorre ao nosso redor. Trata dos componentes fundamentais do Universo, as forças que eles exercem e os resultados destas forças. O termo vem do grego φύσις (physis), que significa natureza, pois nos seus primórdios ela estudava, indistintamente, muitos aspectos do mundo natural. A Física difere da Química, ao lidar menos com substâncias específicas e mais com a matéria exata em geral, embora existam áreas que se cruzem, como a Físico-química (intimidade da matéria). Dessa forma, os físicos estudam uma vasta gama de fenômenos físicos, em diversas escalas de comprimento: das partículas subatômicas, das quais toda a matéria é originada, até o comportamento do universo material como um todo (Cosmologia).
A Física é uma das mais antigas disciplinas acadêmicas, talvez a mais velha de todas através da sua inclusão na astronomia.[1] Ao longo dos dois últimos milênios, a física foi considerada sinônimo de filosofia, química e certos ramos da matemática e biologia mas durante a Revolução Científica no século XVI, ela tornou-se uma ciência única e moderna por mérito próprio. Contudo, em algumas áreas como a física matemática e a química quântica, as fronteiras da física mantêm-se difíceis de distinguir.
Em física clássica, a força (F) é aquilo que pode alterar (num mesmo referencial assumido inercial) o estado de repouso ou de movimento de um corpo, ou de deformá-lo. Esta definição não pode ser desvinculada da Terceira Lei de Newton (que "afirma" que a força é a expressão física para a interação entre dois entes físicos [ou entre duas partes de um mesmo ente], definindo então a direção, o sentido e a igualdade dos módulos das forças de um par acão-reação), e da Segunda Lei de Newton (que define o módulo da força baseando-se na definição de aceleração e do quilograma-padrão [massa]).
Detectamos uma força através de seus efeitos. Estes podem ser: a variação no módulo da velocidade do corpo (por exemplo, quando se dá um chute numa bola em repouso); uma alteração na direcção e sentido do movimento do corpo (no Movimento Circular Uniforme ou no "efeito" no voo de uma bola); ou pode haver uma deformação no corpo em que é aplicada a força (e.g. a deformação momentânea da bola quando é chutada).
Isaac Newton, a partir de suas reflexões e análises, enunciou as três leis básicas do movimento que herdaram o seu nome, em homenagem.
Primeira Lei de Newton
Esta lei responde à pergunta sobre o que é Referencial inercial, e remove a ideia aristotélica de que é necessária a presença de uma força para que um corpo permaneça em movimento. As definições de Inércia e de referencial inercial fundamentam-se na ideia de força conforme definido (como a expressão física da interação entre DOIS entes físicos), e assim o conceito de força é primordial dentro das leis da mecânica.
Segunda Lei de Newton
Esta lei pode ser assim enunciada: a força que atua em um corpo é diretamente proporcional à aceleração que ele apresenta, e a constante de proporcionalidade é a massa do corpo. Repare que a Segunda Lei completa (baseada na Terceira Lei e na Primeira Lei) é a definição de força, estabelecendo ela o módulo e também a unidade desta. A unidade de força deriva de unidades pré-estabelecidas: a unidade de aceleração (m/s²) e a de massa (Kg - vide quilograma-padrão).
Quando uma força é aplicada, esta produz trabalho e transfere ou remove energia do objeto sobre o qual atua, desde que o objeto se mova de forma paralela à força aplicada.
As pseudo-forças ou forças inerciais "transformam", imaginariamente, um referencial não inercial em inercial, permitindo que as previsões decorrentes do uso das Leis de Newton nas referências não inerciais concordem com o que é observado a partir destes referenciais. Sem estas correções, as previsões e as observações não concordariam. O nome força inercial dado às estas pseudo-forças é portanto bem sugestivo.
Terceira Lei de Newton
Esta lei refere-se à força como expressão física da interação entre DOIS objetos. Segundo esta Lei, para haver força, ou melhor: forças (uma vez que sempre aparecem aos pares), devemos ser capaz de encontrar DOIS entes físicos em interação. Se não formos capazes de identificar os dois objetos ou entes, e acharmos que existe uma força sobre um único objeto do universo, então estaremos diante do que se chama em física de pseudo-força (falsa força) ou força inercial, e não de uma força em sua definição formal. O exemplo mais preciso é o do movimento circular, onde há uma força centrípeta (real), mas não há uma força (na definição do termo) centrífuga. A força centrífuga não existe como força real e sim como uma pseudo-força (uma falsa força) observada em referenciais NÃO inerciais.
A Terceira Lei pode ser assim enunciada: se um corpo "A" aplicar uma força sobre um corpo "B", este último aplicará sobre "A" outra força da mesma intensidade e mesma direção, mas no sentido contrário.
Há quatro formas de interação básicas entre dois entes físicos: a nuclear forte, a nuclear fraca, a eletromagnética e a gravitacional.
Excetuando-se a força da gravidade, toda interação observada no dia-a-dia tem natureza eletromagnética (incluindo-se a força de atrito e de contato).
A força da gravidade representa a interação entre dois objetos em virtude de suas massas (de repouso), e portanto afeta todos os objetos que existem na superfície da Terra, e também no universo. A força de gravidade é o peso.
Na Terra, a aceleração da gravidade vale aproximadamente g=9,8 m/s² , e o peso dos objetos pode ser calculado por . A força de reação do peso de qualquer objeto em relação à Terra está sempre na própria Terra.
Diz-se que o movimento de um ponto é uniforme em relação a um referencial S, quando nesse mesmo referencial o ponto se move com velocidade constante ou, equivalentemente, se a sua aceleração é nula.
A função horária do movimento uniforme é uma função do 1º grau em t. , v é diferente de zero.
Por: Fernando Iazzetta
Quando uma fonte sonora ou seu receptor estão se movendo ocorre uma alteração aparente na frequência percebida do som que é denominada Efeito Doppler.
Suponhamos que uma fonte A emite 100 ondas por segundo. Um observador O perceberá a passagem de 100 ondas a cada segundo. Entretanto, se o observador se move na direção da fonte A, o número de ondas que ele encontra a cada segundo aumenta proporcionalmente à sua velocidade e a frequência aparente será dada por:
onde ƒA é a frequência da fonte, vo a velocidade do observador, e v a velocidade do som. Assim a frequência aparentemente aumenta enquanto o observador se move em direção à fonte. Quando o observador passa pela fonte A, a frequência cai abruptamente, já que a ele passa a se afastar da fonte (nesse caso, vo deve ser subtraida de v).
O mesmo efeito ocorre se a fonte estiver em movimento, como no caso de uma ambulância que passa com a sirene ligada por um observador. A figura abaixo mostra que as ondas produzidas se assemelham a esferas cujos centros se deslocam na direção do movimento da fonte.
Neste caso a frequência aparente será:
Albert Einstein há quase um século, e que ele chamava de átomos assombrados - um átomo, separado de outro por qualquer distância, pode "sentir" uma alteração no primeiro e reagir instantaneamente.
Há, no entanto, um procedimento que garante a presença de medições quânticas verdadeiramente aleatórias, geradas apenas em um local e hora definidos - e totalmente exclusivas para esse espaço e tempo em particular. É o que poderia chamar de "aleatoriedade privada".
Esse procedimento foi inventado pelo físico John Bell em 1964 para testar a hipótese central da mecânica quântica: a de que dois objetos - átomos ou fótons, por exemplo - podem entrar num estado exótico chamado entrelaçamento quântico.
Nesse fenômeno, que Einstein chamava de átomos assombrados, os estados de duas partículas quânticas tornam-se tão completamente interdependentes que, se uma medida for realizada para determinar a propriedade de um (o que, evidentemente, será um valor aleatório), a propriedade correspondente do outro é imediatamente determinada também, mesmo se os dois objetos já estiverem separados por distâncias tão grandes que nenhuma informação puder ser trocada entre eles depois que a medição for feita sobre o primeiro objeto - um deles pode ter ido para o outro lado da galáxia, por exemplo.
Então Bell inventou um método revolucionário que contava as correlações entre as medições feitas nos dois objetos à medida que os dispositivos de medição eram posicionados em várias orientações diferentes.
Bell demonstrou matematicamente que, se os objetos não estivessem entrelaçados, suas correlações teriam de ser menores do que um determinado valor, expresso como uma "desigualdade". Se eles estivessem entrelaçados, contudo, a taxa de correlação poderia ser maior, "violando" a desigualdade.
Vários tipos de testes de Bell realizados ao longo das últimas décadas em sistemas entrelaçados têm demonstrado essa violação da desigualdade e, assim, confirmado a não-localidade da mecânica quântica. Ou seja, os átomos entrelaçados de fato "agem" simultaneamente em resposta a uma medição em um deles, mesmo se eles estiverem separados por uma distância que impossibilite a troca de informações - algo "assombroso," como de fato disse Einstein.
Teoria da Relatividade
A Teoria da Relatividade é a denominação dada ao conjunto de duas teorias científicas: Relatividade restrita (ou Especial) e Relatividade geral.
O princípio da relatividade foi surgindo ao longo da história da filosofia e da ciência como consequência da compreensão progressiva de que dois referenciais diferentes oferecem visões perfeitamente plausíveis, ainda que diferentes, de um mesmo efeito.
Em Física, a relatividade geral é a generalização da Teoria da gravitação de Newton, publicada em 1915 por Albert Einstein e cuja base matemática foi desenvolvida pelo cientista francês Henri Poincaré. A nova teoria leva em consideração as ideias descobertas na Relatividade restrita sobre o espaço e o tempo e propõe a generalização do princípio da relatividade do movimento de referenciais em movimento uniforme para a relatividade do movimento mesmo entre referenciais em movimento acelerado. Esta generalização tem implicações profundas no nosso conhecimento do espaço-tempo, levando, entre outras conclusões, à de que a matéria (energia) curva o espaço e o tempo à sua volta. Isto é, a gravitação é um efeito da geometria do espaço-tempo.
Tempo e gravidade
Proposta por Einstein em 1916, a Teoria Geral da Relatividade afirma que o tempo e a gravidade são interdependentes, de forma que o tempo flui de forma mais lenta quando o objeto medido é submetido a intensa gravidade. A teoria gravitacional também propõe que a gravidade se propaga através das ondas. Essas ondas, entretanto, são tão tênues que só podem ser detectadas em sistemas em que há intensa interação gravitacional entre seus componentes, tais como os pulsares binários.
Modelo padrão
O modelo padrão da física de partículas é uma teoria que descreve as forças fundamentais fortes, fracas, e eletromagnéticas, bem como as partículas fundamentais que constituem toda a matéria. Desenvolvida entre 1970 e 1973, é uma teoria quântica de campos, consistente com a mecânica quântica e a relatividade especial. Para demonstrar sua importância, quase todos os testes experimentais das três forças descritas pelo modelo padrão concordaram com as suas predições. Entretanto, o modelo padrão não é uma teoria completa das interações fundamentais, primeiramente porque não descreve a gravidade.
O modelo padrão descreve dois tipos de partículas fundamentais: férmions e bósons.
Os férmions são as partículas que possuem o spin semi-inteiro e obedecem o princípio de exclusão de Pauli, que diz que férmions idênticos não podem compartilhar do mesmo estado quântico.
Os bósons possuem o spin inteiro e não obedecem o princípio de exclusão de Pauli.
Informalmente falando, os férmions são as partículas que constituem a matéria e os bósons são as partículas que transmitem as forças. Para uma descrição detalhada das diferenças entre férmions e bósons, veja o artigo de partículas idênticas.
A QED é a teoria dos elétrons e dos fótons. O elétron é um férmion de carga negativa. O fóton é um bóson e é elétricamente neutro. Segundo a eletrodinâmica quântica, as forças eletromagnéticas entre dois elétrons surgem pela emissão dde um fóton por um dos elétrons e a sua absorção por outro elétron.
Você poderá objetar: se um elétron emite um fóton, isso significa a violação do princípio da conservação das energias ou da conservação dos momentos; o mesmo vale para a absorção de um fóton. Todavia, pela a mecânica quântica, a conservação de energia não é necessariamente válida em pequenos intervalos de tempo. O sistema pode "pedir emprestado" alguma energia para o elétron emitir o fóton; a energia é devolvida quando o outro elétron absorve o fóton. Este processo é chamado de "troca virtual de um fóton entre elétrons". Este fenômeno é representado pelo esquema abaixo (chamado diagrama de Feynman).
Neste processo, chamado de espalhamento de elétrons, ocorrem mudanças na trajetória dos elétrons pela simples "troca de um fóton". Esta é a idéia básica da QED.
Cromodinâmica Quântica. QCD.
Durante muito tempo pensou-se que entre as partículas da lista dos férmions fundamentais estariam o próton e o nêutron. Mas isso se revelou falso: os prótons e os nêutrons são formados por partículas mais básicas - os quarks.
Os prótons são formados por dois quarks up e um quark down, enquanto os nêutrons são formados por um quark up e dois quarks down. Os quarks up têm carga elétrica +2/3 enquanto os down têm carga -1/3.
Assim como a força entre os elétrons se dá através da troca virtual de fótons, os quarks estão ligados por uma força que surge da troca de glúons. Os glúons são indiferentes ao sabor, mais muito sensíveis à cor. Os glúons interagem com a cor assim como os fótons interagem com o sabor. Note que existem vários tipos de glúons, um para cada situação de cor
Existem quatro forças (interações) fundamentais. São elas a gravitação, o eletromagnetismo, a força forte e a força fraca. A seguir, produrarei fazer uma introdução ao assunto força fraca.
Se você já leu sobre a cromodinâmica quântica, sabe que o quark u tem no quark d o seu parceiro em "sabor". Da mesma forma, o elétron tem no neutrino tipo elétron o seu parceiro em sabor. Mais abaixo vão alguns diagramas de Feynman, mas antes, vamos estudar essa interessante entidade que é o neutrino.
O neutrino é eletricamente neutro, por isso, além de ignorar a força nuclear (como o elétron) ignora a força eletromagnética. Ele pode atravessar a Terra e dificilmente vai interagir. No entanto, existe como detectá-los. Como pode-se detectá-los se são insensíveis à força nuclear e ao eletromagnetismo? A responsável é a chamada interação fraca. A interação fraca dá origem a reações como as que se seguem:
1. Um elétron trnasforma-se em um neutrino tipo elétron enquanto um próton se transforma em um nêutron
2. O processo inverso, onde um elétron se transforma em um neutrino do tipo elétron enquanto um nêutron se transforma em um próton.
Vale ressaltar que quando eu digo que um próton se transforma em um nêutron, deve-se entender o que isso significa num nível mais básico: significa que um quark u se transformou em um quark d.
Como em qualquer processo na teoria quântica de campos que envolve mudança de sabor, essas reações envolvem a troca de um quantum. Para cada uma das reações há duas versões do diagrama de Feynman, uma envolvendo a troca de um quantum positivo e outra de um quantum negativo.
É bom lembrar que existem seis léptons, correspondendo aos seis quarks. Os léptons se dividem em três dubletos (me , e-), (mn , n), (mt , t).
Órbita Geoestacionária
O satélite geoestacionário é um satélite equatorial que fica permanentemente sobre a linha do equador a uma altitude de cerca de 35800 km. Apresenta o período de rotação coincidente com o período sideral de rotação da Terra, portanto, gira com a mesma velocidade de rotação da Terra. Como tem o mesmo sentido de rotação que o da Terra e excentricidade da órbita nula, sempre permanece acima de um ponto e à mesma distância da Terra.
Na órbita geoestacionária o satélite pode observar uma região circular com um raio aproximado de até 70° de latitude. Entretanto, devido às deformações relacionadas à curvatura da superfície terrestre, a área de observação é limitada. Habitualmente, na prática das análises numéricas, os dados dos satélites geoestacionários se restringem àqueles de uma área limitada por um círculo com raio de até 55° de latitude, com o centro no ponto subsatélite, e com raio de até 65° de latitude nas analises qualitativas (não-numérica).
Na realidade, o satélite geoestacionário não é 'estacionário' em relação à Terra no sentido estrito, porque praticamente não fica por um longo tempo em um único ponto. Move-se variando a posição em relação à Terra e com movimentos vinculados a diferentes fatores. Além disso, visto que o campo gravitacional terrestre não é homogêneo, o satélite fica sujeito ao gradiente da força da gravitação ao longo da trajetória orbital, por isso se move no sentido do ponto em que a força da gravitação tem valor máximo em sua órbita. O deslocamento do satélite, devido ao efeito gravitacional, é de aproximadamente 1° de longitude por mês. Na prática, para compensar esse efeito, a estação de comando e de controle do satélite faz a correção orbital a cada 4 a 6 semanas. Além desse efeito, o outro se deve à radiação solar que exerce uma pressão sobre o satélite. O resultado dessa pressão é um desvio da posição orbital do satélite em relação ao plano equatorial da Terra. A pressão da radiação solar induz um giro na órbita do satélite em 0,8° por ano (em relação ao plano equatorial). Para compensar esse efeito, também é feita a correção da órbita na freqüência de 3 a 4 vezes por ano.
Pelas razões descritas, é muito importante proceder e controlar a posição e a altitude dos satélites. Para esse propósito são aplicados dois métodos básicos de controle:
a. O método da "triangulação". O centro de controle e comando envia um sinal de comando (sinal de controle) para o satélite. Ao receber o sinal, o satélite imediatamente responde através de seu retransmissor para duas outras estações de controle que ficam em lados opostos em relação ao da linha do equador. Usando as diferenças de tempos entre o instante do sinal enviado e o instante de recepção do sinal retransmitido pelo satélite para os três pontos de controle, calcula-se a posição do satélite e a altura de sua órbita através da técnica de triangulação.
b. No outro método procede-se o monitoramento de diferentes pontos de referência fixos e localizados em regiões especiais na superfície da Terra. Quando o satélite geoestacionário muda a posição em relação à Terra, devido a agentes e forças externas, os pontos de referência e orientação também mudam suas posições na imagem (proporcionada pelo satélite) da Terra. Assim, com uma seqüência de imagens pode-se estimar o movimento do satélite.
Catalisadores são materiais responsáveis pela decomposição do combustível. A maior parte dos satélites em órbita utiliza o sistema de propulsão a propelente líquido para operações de correção de órbita e posicionamento.
Foi em 1962 que o físico norte americano Philip Warren Anderson desenvolveu um modelo não relativístico, hoje conhecido como mecanismo de Anderson, que esclarecia como as partículas adquiriam massa. Foram necessários dois anos para que François Englert e Robert Brout (em agosto), Peter Higgs (em outubro) e Gerald Guralnik, C.R. Hagen e Tom Kibble (em novembro) publicassem seus artigos onde desenvolviam o trabalho de Anderson para um modelo completo e relativístico. Esses trabalhos que foram desenvolvidos pelos três grupos de forma independente e quase simultânea são hoje conhecidos como “Os artigos de quebra de simetria de 1964”.
Apesar de serem igualmente importantes, o trabalho de Peter Higgs se destacou dos demais ao propor um mecanismo responsável a atribuir massa a todas as partículas conhecidas e até ao próprio bóson de Higgs, chamado de mecanismo de Higgs. Graças à estes importantíssimos trabalhos os físicos passaram a ter conhecimento sobre os mecanismos que agem sobre as partículas elementares garantindo-as massa. Os seis cientistas ganharam o Prêmio Sakurai em 2010, que é concedido anualmente pela Sociedade Americana de Física.
Antes de tudo cabe esclarecermos o mal entendido que ocorre em relação ao nome desta partícula em especial. O bóson de Higgs é muitas vezes chamado de “A partícula de Deus”. Contudo esta partícula nada tem haver com Deus ou qualquer crença religiosa. O termo “partícula de Deus” surge do livro “The God Particle: If the Universe Is the Answer, What Is the Question?” publicado por Leon Lederman, ganhador do prêmio Nobel. Contudo o título original deste livro seria “The Goddman Particle”, ou seja, a “partícula maldita” devido a sua dificuldade em ser encontrada experimentalmente. Como os editores acharam o título muito forte, ele foi alterado para “The God Particle” e assim começou toda a polêmica que conhecemos.
Pensamos na massa como uma propriedade intrínseca da matéria mas, na física de partículas não é bem assim. Não há porque a massa existir naturalmente para as partículas. É necessário que exista um mecanismo que lhes conceda massa, caso contrário, elas não a possuirão. Atualmente o mecanismo que melhor explica como as partículas elementares adquirem massa é conhecido como mecanismo de Higgs.
Sabemos hoje que no universo parecem atuar somente quatro forças: gravidade, eletromagnetismo, força nuclear forte e força nuclear fraca. Os físicos foram capazes de um grande feito: unificar a força eletromagnética com a força nuclear fraca graças a uma simetria que existe entre essas forças. Disto nasceu a teoria das interações eletrofracas, que juntamente com a cromodinâmica quântica formam as bases do modelo padrão. Contudo uma pergunta ainda não podia ser respondida: por que a maioria dessas partículas possui massa?
A simetria existente na teoria eletrofraca requer explicitamente que os bósons não possuam massa. O fóton, bóson mediador da força eletromagnética não possui massa e por isso se encaixa na teoria contudo os bósons Z e W, responsáveis por mediar a força fraca possuem massa. Isso quebra a simetria que possibilitou a unificação.
Muitos físicos então se propuseram a criar um mecanismo (de quebra espontânea da simetria eletrofraca) que explicasse como os bósons Z e W possuem massa, ou seja, um mecanismo que explicasse a quebra da simetria eletrofraca. Foi então que, em 1964 o físico Peter Higgs propôs seu mecanismo que se tornaria a chave para solucionar o problema.
O mecanismo de Higgs adiciona um campo extra às Teorias de Gauge, classe de teorias focadas em transformações de simetria. Este é o campo de Higgs que possui valor diferente de zero em seus todos os pontos e isto quebra espontaneamente a simetria da teoria eletrofraca o que dá massa aos bósons Z e W. Além disso, o mecanismo de Higgs explica também como os bósons de gauge adquirem massa fazendo com que seu mecanismo seja ainda mais impressionante.
Basicamente o que o mecanismo de Higgs faz é criar um campo que preenche o universo assim como água preenche uma piscina. Este campo, chamado de campo de Higgs, é intermediado pelo bóson de Higgs, assim como o campo eletromagnético é intermediado pelo fóton. O campo de Higgs oferece uma certa resistência ao movimento das partículas assim como a água oferece resistência aos nossos movimentos. Essa resistência resulta da interação entre o campo de Higgs e as partículas. Quanto maior for essa interação, maior será sua massa. De forma equivalente, quanto menor sua interação, menor sua massa. Há ainda aquelas partículas que, como o fóton, não interagem com o campo de Higgs de forma alguma e por isso não possuem massa.
De acordo com os modelos teóricos atuais, o campo de Higgs se desenvolveu nos primeiros milissegundos após o big bang. As partículas então começaram a ser desaceleradas pelo campo e com isso ganharam massa. Dessa forma sua energia foi convertida em massa de acordo com a equivalência massa-energia. Desta forma o mecanismo de Higgs consegue explicar de forma satisfatória tudo que lhe é proposto. Ele é também compatível com diversas teorias amplamente aceitas como a do big bang. Agora com uma possível confirmação experimental fornecida pelo LHC, o bóson de Higgs se torna uma das mais importantes peças da física de partículas constituindo uma parte fundamental do conhecimento da natureza.
This is the first laser spectrum from the Chemistry and Camera (ChemCam) instrument on NASA's Curiosity rover
Particulas elementares
http://www.sprace.org.br/SPRACE/sprace-game
Sistema Solar
Sol
Foto por http://sdo.gsfc.nasa.gov/
Fisica on-line
http://efisica.if.usp.br/livros/
Escala espacial - http://www.primaxstudio.com/stuff/scale_of_universe/scale-of-universe-v1.swf