A Ciência atua do muito pequeno ao muito grande.

A Ciência atua do muito pequeno ao muito grande.
Powered By Blogger

Seja Bem-Vindo

Este blog é de conteúdo totalmente científico e educativo. É constituído por artigos científicos ou relacionados à variados campos do saber (como política, filosofia ou sociologia, entre outros) que têm como objetivo a divulgação do conhecimento.


"O poder da humanidade que criou este imenso campo do saber há de ter forças para levá-lo ao bom caminho". (Bertrand Russel, filósofo e matemático inglês do século XX)



quarta-feira, 31 de março de 2010

Teorema de Steiner







O Teorema de Steiner, em homenagem ao grande matemático suíço Jacob Steiner (1796-1863) (retratado na fotografia acima), ou Teorema dos Eixos Paralelos é uma fórmula que permite-nos calcular o momento da inércia de um sólido rígido relativo a um eixo de rotação que passa por um ponto O, quando conhecemos o momento da inércia relativo a um eixo paralelo ao interior e que passa pelo centro das massas e a distância entre os eixos.

Considerando-se, por exemplo, Imc como o momento da inércia do corpo sobre o centro da massa, M como a massa do respectivo corpo e d a distância perpendicular entre dois eixos, o momento da inércia sobre um novo eixo z é dado por Iz = Icm + Md². Esta regra pode ser aplicada com a chamada regra de estiramento e o Teorema dos Eixos Perpendiculares para encontrar momentos de inércia para uma variedade de formatos.

A regra dos eixos paralelos também aplica-se ao segundo momento de área (momento de inércia de área), calculado pela equação Iz = Ix + Ad², onde Iz é o momento da inércia de área através do eixo paralelo, Ix é o momento de inércia de área através do centro de massa da área, A é a medida de superfície da área e d é a distância do novo eixo z ao centro de gravidade da área.

Em Mecânica Clássica, o teorema dos eixos paralelos (também conhecido como Teorema de Huyghens-Steiner) pode ser generalizado para calcular um novo tensor de inércia Jij de um tensor de inércia sobre um centro de massa Iij quando o ponto pivô é um deslocamento a do centro de massa.

terça-feira, 30 de março de 2010

Os Aceleradores de Partículas







Desde o início do século XX, as experiências do físico britânico Charles Glover Barkla (1877-1944) sobre a absorção de raios X, e a teoria de espalhamento, do célebre físico, também britânico, Sir Josef John Thomson (1856-1940), permitiram penetrar no segredo da estrutura atômica, determinando o número de elétrons presentes em cada átomo. As pesquisas iniciais estavam dirigidos para o átomo de carbono (C - 12), porém, logo generalizou-se o conceito de que número atômico - definido como o número de ordem do elemento na tabela periódica - corresponde ao número de elétrons presente na eletrosfera de um átomo neutro do elemento.

As pesquisas de Thomson, levados a efeito com raios X, permitiram elaborar um dos primeiros modelos para o núcleo atômico. Segundo tal modelo, cada átomo seria constituído por uma espécie de "bola" de carga positiva, apresentando os elétrons, de carga negativa, uniformemente distribuídos em seu interior - como passas em um pudim. Por tal motivo, "pudim de passas" é o nome pelo qual o modelo atômico de Thomson passou a ser conhecido.


Todavia, é importante salientar que os projéteis empregados por Thomson para estudar o edifício atômico só permitiram entender, de forma significativa, o que acontecia com os elétrons, frisando-se, pois, que sendo grande a massa associada às cargas positivas, a interação destas últimas com raios X era desprezível, impedindo a obtenção de dados relevantes a seu respeito.


Procurando obter informações específicas sobre as cargas positivas do átomo, o renomado físico neo-zelandês Ernest Rutherford (1871-1937), em 1911, bombardeou finas placas de ouro (Au) com partículas alfa obtidas durante o decaimento de alguns tipos de elementos químicos. As partículas alfa (que depois foram identificadas com núcleos atômicos idênticos ao do núcleo de hélio - 4) possuem energias de ordem de alguns milhões de elétrons-volt (eV) (1 eV = 1,6 . 10-¹9 Joules). Os resultados de Rutherford foram surpreendentes: quando esperava-se que as colisões das partículas alfa com os átomos de ouro fossem em grande número, apenas uma pequena parcela de tais partículas teve sua direção modificada. Tais resultados experimentais apenas podiam ser explicados admitindo-se que, em relação às proporções das partículas alfa, a lâmina de ouro apresentava enormes vazios. Por conseqüência, quase toda a sua massa estaria concentrada em uma diminuta porção dos próprios átomos. Entretanto, em decorrência dos projéteis usados, não se foi possível além dessa informação: o átomo dispõe de um núcleo no qual concentra-se sua carga elétrica positiva. Isso, porque uma partícula apenas pode penetrar a fundo em um átomo quando dispõe de suficiente energia para vencer o campo de forças que estabelece-se ao redor do núcleo.


Para compreender as razões pelas quais são necessárias altas doses de energia para levar uma partícula até o núcleo atômico basta lembrar que ela deve vencer o intenso campo de forças, que é tanto maior quanto maior for o número de prótons presentes no núcleo do átomo-alvo.


Daí tem-se o papel do aceleradores de partículas, que são instrumentos capazes de comunicar ás partículas atômicas a energia necessária para levá-las a vencer tal campo de forças e chegar até o núcleo dos átomos. A princípio, a energia dispensada era apenas alguns MeV (mega elétron-volt). Atualmente existem máquinas capazes de acelerar partículas a energia de 300 GeV (giga elétron-volt) - 300 milhões de MeV. E essas partículas podem ser, dependendo da máquina, elétrons, prótons, nêutrons, dêuterons, partículas alfa e núcleos atômicos de alguns elementos pesados.

A Origem da Genética











A hereditariedade, ou seja, a transmissão das características ao longo das gerações, sempre despertou grande curiosidade de leigos e cientistas. A Ciência da Hereditariedade, mais conhecida como Genética, surgiu no início do século XX com o reconhecimento e celebração dos trabalhos do monge agostiniano, botânico e meteorologista austríaco Gregor Mendel (1822-1884) (retratado na fotografia acima).


A peculiar e interessante ideia de herança biológica está cunhada em todos nós, seres vivos. Ninguém questiona de que uma vaca grávida terá bezerros, ou que uma mulher grávida dará à luz uma criança. As vacas, os seres humanos, as plantas e os demais seres vivos transmitem a seus descendentes as características próprias de sua espécie, além de peculiaridades familiares.


A questão é: como ocorre ou qual é o processo que rege a transmissão de características dos pais aos filhos? Tal questão constituiu um desafio imenso para os cientistas durante grande período de tempo. Desde as primeiras hipóteses, entre elas a curiosa explicação de que óvulos ou espermatozóides continham pequenos indivíduos semi-formados em seu interior, o conhecimento sobre a herança biológica evoluiu consideravelmente. Atualmente sabemos que o que transmite-se de uma geração para outra não são as características propriamente ditas, como olhos verdes, por exemplo, mas sim as instruções de como produzir tais características. Partindo dessas instruções biológicas, que os cientistas criaram o conceito de genes, o novo indivíduo constituirá todas as partes de sua organização corporal, que serão semelhantes às de seus ancestrais. Foi do termo "genes" que deu origem ao termo "genética".


Atualmente sabemos que as características hereditárias de qualquer ser vivo são regidas pelas instruções inscritas do DNA (ácido desoxirribonucleico) dos cromossomos, os chamados genes, que cada indivíduo recebe de seus pais.

domingo, 28 de março de 2010

Pauling e as Estruturas Cristalinas







Logo após a descoberta da difração dos raios X, no ano de 1912, os pesquisadores passaram a dispor de importante método para determinar as estruturas de muitas substâncias, iniciando pelas que apresentam-se na forma cristalina. Os cristais, com átomos distribuídos de forma regular, ordenada e distanciados por o valor de alguns angstrons, difratam os raios X. Explorando assiduamente tal propriedade, foi possível esclarecer a ordenação cristalina.


O método começou a ser aplicado, com imenso êxito, por sinal, pelo físico e químico britânico Sir William Henry Bragg (1862-1942) e por seu filho, também físico, William Lawrence bragg (1890-1971). A tal estudo, também dedicou o grande bioquímico e químico quântico norte-americano Linus Carl Pauling (1901-1994) (retratado na fotografia acima) os primeiros anos da pesquisa.


Por volta do ano de 1926, já haviam sido determinadas as estruturas cristalinas da maioria dos elementos químicos, de vários sais simples e de um pequeno número de substâncias complexas, incluindo um ou dois compostos orgânicos. Chocava-se, todavia, com a dificuldade de encontrarem-se outras substâncias cujas estruturas pudessem ser analisadas pelas técnicas de difração de raios X. No ano de 1928, Linus Carl Pauling resolve com sucesso a divergência. Em um renomado trabalho, intitulado A Teoria da Coordenação da Estrutura de Cristais Iônicos, afirma: "No estudo da estrutura de um cristal por meio dos raios X, vários pesquisadores, especialmente dos Estados Unidos, têm-se esforçado por eliminar rigorosamente todos os possíveis arranjos atômicos, com exceção daquele formado pela unidade estrutural permitida pelos dados experimentais, sem levar em conta o fato de essas estruturas serem ou não quimicamente admissíveis ou estarem ou não de acordo com as distâncias interatômicas admitidas. A importância deste processo provém da certeza com que seus resultados podem ser aceitos (...). Mas, infelizmente, o trabalho envolvido em sua aplicação a cristais complexos é insuperável. (...) Os cristais complexos, entretanto, são de grande interesse, e é de se desejar que a determinação de suas estruturas possa ser feita mesmo com o sacrifício do rigor do método. Procede-se então da seguinte maneira: dentre todos os arranjos atômicos possíveis, escolhe-se um e examina-se sua concordância com os dados experimentais. Se a concordância for completa e extensa, admite-se que a estrutura escolhida é a correta. A principal dificuldade enfrentada nessa tratamento é a seleção da estrutura a ser testada". Como resultado de tais investigações, Pauling formula cinco regras, das quais a primeira estabelece que "ao redor de cada cátion forma-se, por coordenação, um poliedro de ânions, no qual a distância entre o cátion e o ânion é determinada pela soma dos raios, sendo o número de coordenação do cátion fornecido pela relação dos raios".

quarta-feira, 24 de março de 2010

A Conjectura de Poincaré













Uma conjectura é uma ideia, fórmula ou frase, a qual não foi provada ser verdadeira. A Conjectura de Poincaré, proposta pelo grande matemático, físico e filósofo da ciência francês Jules Henri Poincaré (1854-1912), foi uma das maiores questões da Matemática de todos os tempos. Atualmente sabemos que a Conjectura de Poincaré afirma que qualquer variedade tridimensional fechada e com grupo fundamental trivial é homeomorfa (noção principal de igualdade topológica) a uma esfera. Isto significa que em um espaço com três dimensões (tridimensional) fechado, sem, dizendo coloquialmente, "buracos",deve ter a forma de uma esfera.

Esta conjectura surgiu na seqüência de uma outra conjectura formulada por Poincaré em 1900, que afirmava que qualquer variedade tridimensional fechada e com homologia (isto é, topologia algébrica) trivial (denominada esfera homológica) era homeomorfa a uma esfera. Na verdade esta conjectura foi refutada pelo próprio Poincaré em 1904, que forneceu o primeiro exemplo de uma esfera de homologia não homeomorfa a uma esfera.

Em 2003, o matemático russo Grigory Parelman (nasc. 1966) (retratado na fotografia acima) anunciou uma solução positiva para o problema, recusando, não sabe-se por qual razão, o Prêmio Clay no valor de um milhão de dólares. Parelman também recusou-se a receber a Medalha Fields. Diversos matemáticos do MIT (Massachusets Institute of Technology) debruçam-se sobre o teorema criado por Parelman, na tentativa de verificar com precisão seus cálculos. O matemático Tomasz Mrowka, do MIT, afirmou recentemente: "Estamos desesperadamente tentando entender o que ele fez"(!!!).

terça-feira, 23 de março de 2010

Einstein Contra a Mecânica Quântica







Atualmente a Mecânica Quântica (ramo da física que estuda sistemas físicos com extensões em escala atômica ou subatômica) tem imenso prestígio e êxito em toda a comunidade científica. Ela possibilita a compreensão do mundo microscópico, acarretando em uma visão geral do microcosmo ao macrocosmo. É interessante pensar que um dos maiores físicos de todos os tempos, o alemão Albert Einstein (1879-1955), tenha discordado e lutado contra tal estudo. A seguir, apresentarei qual foi razão pela qual Einstein criticou tanto a Mecânica Quântica.



Em 1905 Einstein publicara três trabalhos científico, no qual apresentava sua descrição sobre o movimento browniano, o efeito fotoelétrico e mostrava sua Teoria da Relatividade Restrita. No trabalho onde ele apresentava o efeito fotoelétrico, ele propunha que a energia da luz era quantizada em pacotes discretas, os quais ele denominou quanta (do latim quantidade). O quanta da luz seria o chamado fóton. Atualmente sabemos que o fóton é uma partícula do tipo bóson. Einstein não se dava conta, mas com isso ele havia inaugurado a Mecânica Quântica.



Einstein, homem que por sinal tinha grande crença na existência de Deus, acreditava que nós, seres humanos, poderíamos prever as atitudes de Deus sobre a natureza por meio da Matemática. Ele pensava que qualquer fenômeno natural poderia ser quantificado e qualificado, tendo sempre como ferramenta a Matemática. O problema era o seguinte: toda a Mecânica Quântica é probabilística (!). Para se ter uma ideia, uma das principais leis que regem os fenômenos quânticos é o chamado Princípio da Incerteza (ou Princípio de Heisenberg), formulado pelo grande físico alemão Werner Karl Heisenberg (1901-1976) em 1927, que afirma que é impossível medir simultâneamente a posição x e a velocidade v de uma partícula confinada, com grande exatidão. Você terá uma probabilidade P para o cálculo da velocidade e a posição. Einstein não aceitava isso.


Para ser contra a Mecânica Quântica, ele tentou elaborar, sem sucesso, uma teoria que unificava o campo gravitacional dos corpos com seu campo eletromagnético. Essa teoria ficou conhecida como Teoria do campo Unificado e, supostamente, poderia-se com ela calcular, por meio de uma única equação todos os fenômenos físicos (ou melhor, todos os fenômenos que seguissem as leis e as constantes físicas do nosso Universo). Atualmente esta teoria pode ser considerada como a Teoria das Cordas, que tenta unificar as quatro principais forças do Universo: força gravitacional, força eletromagnética, força nuclear forte e força nuclear fraca.

É interessante que em um debate com o grande físico dinamarquês Niels Bohr (1885-1962) (retratado na fotografia acima sentado ao lado de Einstein), grande ícone da Mecânica Quântica, Einstein teria dito a seguinte afirmação contra a Mecânica Quântica: "Deus de fato não joga dados". E Niels Bohr respondeu com certo tom humorístico: "Einstein, pára de dizer o que Deus tem que fazer!".

Einstein perdeu a guerra contra a Mecânica Quântica, sendo até considerado, naquela época pelos cientistas simpatizantes da Mecânica Quântica, como um cientista ilustre, porém, do século XIX. Einstein faleceu (ao que consta, com um aneurisma na aorta abdominal) e, infelizmente, não conseguiu concluir a Teoria do Campo Unificado.



domingo, 21 de março de 2010

Os Íons Agem Independentemente







No final do ano de 1886, enquanto ainda trabalhava com o químico e filósofo alemão Friedrich Wilhelm Ostwald (1853-1932), o grande químico sueco Svante August Arrhenius (1859-1927) (retratado na fotografia acima) teve conhecimento da importante descoberta de um químico alemão da cidade de Würzburg, chamado Friedrich Wilhelm Georg Kohlrausch (1840-1910). Segundo observara este cientista, soluções igualmente diluídas de cloreto de ferro II (FeCl2), cloreto de sódio (NaCl), sulfato de ferro II (FeSO4) e sulfato de sódio (Na2SO4) não têm condutibilidades elétricas iguais. Todavia, a diferença entre as condutibilidades dos dois cloretos é igual à existente entre os dois sulfatos; o mesmo podendo ser observado, nas mesmas condições, com quaisquer outros sais.


A teoria de Arrhenius podia interpretar tal fato, afirmando que a única peculiaridade entre as duas soluções de cloretos - ambas com a mesma quantidade de ânions cloro - é que apresentam cátions diferentes: uma tem íons ferro e a outra, íons sódio. Nas outras duas soluções, a única diferença também advém da presença do íon ferro em um e do íon sódio em outra. Como a facilidade com que essas soluções conduzem eletricidade só depende dos íons que elas contêm, e como a diferença de composição dos dois cloretos é a mesma dos dois sulfatos, pode-se prever que as diferenças entre suas condutibilidades elétricas sejam iguais. Sem aceitar a hipótese da dissociação iônica, seria muito díficil explicar tal resultado. Essa ideia de independência de ação dos diferentes íons de uma solução levou Arrhenius (após uma consulta pessoal com Kohlrausch) a imaginar que as características comuns a todos os ácidos advinham da existência de um mesmo tipo de íon ativo em todos eles - os cátions de hidrogênio (H+). Seriam eles responsáveis por todas as reações ácidas. Soluções que apresentam concentrações iguais desse íon comportam-se como se fossem de ácidos idênticos, independentemente dos outros íons presentes. Da mesma maneira, as bases caracterizam-se pela presença de ânions hidroxila(OH-): o outro íon é capaz de produzir efeitos de base.


Embora essa definição de ácidos e bases, derivada da teoria da dissociação iônica, só aplique-se às soluções, ela é muito importante, sendo bastante utilizada atualmente.

sábado, 20 de março de 2010

A Moderna Teoria Cinética da Matéria







Considerando o Universo (apenas o nosso Universo e não todo o Multiverso) um sistema fechado, é muito fácil enunciar, como fizeram os grandes físicos do século XIX, que sua energia total é invariável e jamais (e jamais mesmo!) pode ser criada ou destruída. A física do século passado também estabeleceu dois peculiares conceitos - o de matéria e o de energia -, ambos obedecendo à lei da conservação, isto é, a de que um sistema isolado não pode se alterar, tanto em massa quanto energia (daí vem a Lei da Conservação da Massa e a Lei da Conservação da Energia). Essas ideias só foram modificadas no século XX, pela Teoria da Relatividade do grande físico alemão Albert Einstein (1879-1955). As explosões de bombas atômicas são comprovações dramáticas da equivalência entre massa e energia.

Os grandes resultados da Mecânica Clássica haviam levado os cientistas a acreditar que os conceitos do grande físico, matemático e astrônomo inglês Sir Isaac Newton (1642-1727) poderiam ser entendidos a todos os ramos da Física, isto é, que todos os fenômenos podiam ser explicados pela ação de forças atuando sobre partículas imutáveis, dependendo apenas da distância que as separa. Era um, muito interessante, por sinal, engano.


Embora o conceito mecânico explicasse bem fenômenos como o calor, não era aplicável a campos como o elétrico e o ótico. Uma carga elétrica em movimento, por exemplo, age sobre uma agulha magnética. Essa força, entretanto, não depende apenas da distância, mas também da velocidade da carga. Assim, um conceito teve de ser introduzido em Física: o campo. E, a partir de problemas por ele sugeridos, desenvolveu-se uma nove teoria: a da Relatividade. O Homem, então, passou a compreender não somente o calor, mas também a energia em geral e suas relações com a matéria.

Luz Polarizada







Desde 1905, quando Albert Einstein publicou seus trabalhos sobre o efeito fotoelétrico, podemos estudar a luz como onda eletromagnética ou como constituída por partículas, isto é, como matéria. Esta duplicidade corresponde ao que os textos didáticos chamam de dualidade da luz ou natureza dual da luz.

Analisada do ponto de vista material, a luz é composta por partículas, os fótons, e se propaga em linha reta. Os fótons são o que podemos classificar como a unidade de energia da luz. São partículas do tipo bóson e sua energia pode ser calculada pela equação E = hf, onde E é a energia do respectivo fóton, h é a constante de Planck que tem o valor h = 6,625 . 10-³4 J . s e f é a freqüência da luz. Os fótons vibram em direções perpendiculares à direção de propagação. Na luz natural, como a proveniente do Sol, ou artificial, como aquela das lâmpadas incandescentes ou fluorescentes, os fótons vibram em todas as direções, perpendiculares à direção de propagação. Após atravessar certos meios materiais, denominados polarizadores, os fótons passam a vibrar em uma única direção, também perpendicular à direção de propagação da luz. Essas duas direções - a de vibração e a de propagação - definem um plano de polarização (ou de vibração) da luz.


Quando a luz é encarada como radiação eletromagnética, salienta-se que estão associados a ela dois vetores - um vetor campo elétrico e um vetor campo magnético - reciprocamente perpendiculares entre si e à direção de propagação. À medida que a luz se propaga, a variação simultânea dos dois vetores é senoidal. Na luz natural, todas as direções do vetor campo elétrico (e conseqüentemente do vetor campo magnético) são igualmente prováveis. Após passar por um polarizador, apenas uma direção do vetor campo elétrico (e, portanto, do campo magnético) passa a existir. Fica assim definido um plano que contém o vetor campo elétrico e a direção de propagação, que é chamado de plano de polarização. É importante salientar que a melhor expressão é "plano de polarização", já que quando fala-se em "plano de vibração" está referindo-se aos fótons.


Certas substâncias, denominadas opticamente ativas, têm a capacidade de desviar o plano de polarização da luz. Essa interessante propriedade só pode ser observada quando átomos do respectivo composto estão arranjados de tal maneira a formar uma molécula cuja imagem especular não lhe é superponível.