TEORIAS E FILOSOFIAS DE GRACELI 111

 


sábado, 10 de novembro de 2018

A Interpretação da Função de Onda de Schrödinger no sistema categorial Graceli.

[pitG] = POTENCIAL DE INTERAÇÕES E TRANSFORMAÇÕES GRACELI.

matriz categorial Graceli.
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl





x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

nestes termos temos uma função de ondas num sistema dinâmico, transcendente, indeterminado e categorial, ou seja, varia, existe e se comporta como e em função das categorias de Graceli.

o mesmo se encaixa para átomo estático de Bohr.


    exp [- (i/) E t], 
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




 -
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



A Interpretação da Função de Onda de Schrödinger.

Em verbetes desta série, vimos que o físico austríaco Erwin Schrödinger (1887-1961; PNF, 1933), em vários artigos escritos em 1926 (Annales de Physique Leipzig 79, p. 361; 489; 734; 747; 80, p. 437; e 81, p. 136), desenvolveu a hoje conhecida Mecânica Quântica Ondulatória, traduzida pela Equação de Schrödinger (ES):
onde  é a função de onda de Schrödinger ou campo escalar é o operador laplaciano, é o operador Hamiltonianoé um dado potencial e = h/2, sendo h a constante de Planck.
Depois da proposta dessa equação, procurou-se saber o significado de , pois, sendo a ES uma equação de onda, surgiu a seguinte questão. Ora, toda onda tem um suporte no qual ela se propaga: a onda sonora, é o ar; a onda elástica, é o meio material; e a onda eletromagnética, é o vácuo. Por outro lado, a sua solução geral envolve uma função complexa, ou seja:  =   exp [- (i/) E t], solução essa chamada de estacionária, porque a energia (E) é bem definida.
A primeira tentativa de dar uma interpretação para a  foi apresentada pelo próprio Schrödinger, ao interpretar os elétrons como pacotes de onda deslocando-se no espaço como se fossem partículas clássicas. Essa tentativa malogrou, pois logo ficou demonstrado que o “pacote” abria no decorre do tempo [ver qualquer texto sobre Mecânica Quântica, como, por exemplo: A. S. DavydovQuantum Mechanics (Pergamon Press, 1965)]. De outra feita, ainda Schrödingerpropôs que seu campo escalar poderia medir a espessura da camada formada pelo elétron “espraiado” ou “derramado”, sem, no entanto, obter êxito. A interpretação que hoje é aceita foi a formulada pelo físico alemão Max Born (1882-1970; PNF, 1954), também em 1926 (Zeitschrift für Physik 3738, p. 863; 803), que a considerou como uma amplitude de probabilidade. Vejamos como ele chegou a essa interpretação.
Nessa época, Born discutiu sua ideia com um jovem físico norte-americano Julius Robert Oppenheimer (1904-1967), explicando-lhe que baseou sua hipótese nos fenômenos físicos de dispersão, pois, ao estudar a dispersão de elétrons (representado por uma onda deBroglieana) por um átomo, verificou que o número de elétrons difundidos poderia ser calculado por intermédio de uma certa expressão quadrática, construída a partir da amplitude da onda esférica secundária, onda essa gerada pelo átomo espalhador do feixe eletrônico incidente. Hoje, essa expressão quadrática -  = - é denominada de probabilidade de encontrar o elétron em uma posição () estacionária. É oportuno destacar que Born e Oppenheimer, em 1927 (Annalender Physik 84, p. 457), desenvolveram o célebre Método de Born-Oppenheimer para estudar, quanticamente, os espectros eletrônico, vibracional e rotacional das moléculas.                    
A essa interpretação de Born sobrepôs-se uma outra relevante questão. Será sempre possível observar uma grandeza física? A resposta a essa pergunta foi dada pelo físico alemão Werner Karl Heisenberg (1901-1976; PNF, 1932), ao apresentar, em 1927 (Zeitschrift für Physik 43, p. 172), o seu famoso Princípio da IncertezaÉ impossível obter exatamente os valores simultâneos de duas variáveis, a não ser dentro de um limite mínimo de exatidão. Para o caso em que essas duas variáveis sejam (px) (componente do momento linear na direção x) e essa posição (x), aquele princípio apresenta a seguinte forma: <x2> <p2x> = (1/4) , com < > significando o valor médio.     
                   É interessante ressaltar que a interpretação probabilística de Born e o Princípio da Incerteza de Heisenberg, levaram à interpretação da Mecânica Quântica pela Escola de Copenhague, sob a liderança do físico dinamarquês Niels Henrik David Bohr (1885-1962; PNF, 1922). Tal interpretação – a famosa Interpretação de Copenhague – ainda hoje é polêmica no mundo científico, por ser considerada uma interpretação idealista (Davydov, op. cit.). Mais detalhes sobre essa polêmicaverGennaro AulettaFoundations and Interpretation of Quantum Mechanics: In the Light of a Critical-Historical Analysis of the Problems and of a Synthesis of the Results (World Scientific, 2001).



[pitG] = POTENCIAL DE INTERAÇÕES E TRANSFORMAÇÕES GRACELI.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



X = k w (a/), [pitG]
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


S = k w (a/) = X = I. [pitG]
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

V = (1/g) (L/A) I.[pitG]
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

I = E/(R + r),[pitG]
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



Leis de Ohm.

O físico alemão Georg Simon Ohm (1787-1854) ao tomar conhecimento do livro ThéorieAnalytique de la Chaleur (“Teoria Analítica do Calor”) escrito pelo físico e matemático francês Jean-Baptiste-Joseph, Barão de Fourier (1768-1830) e publicado em 1822 (vide verbete nesta série), procurou aplicá-lo ao fluxo da carga elétrica em um condutor. Para isso, fez uma série de experiências em 1825 e 1826. Com efeito, de janeiro a julho de 1825, Ohm realizou experiências com circuitos elétricos cuja fonte era uma bateria de pilhas voltaicas (vide verbete nesta série). Inicialmente, entre os polos da bateria, ligou sucessivamente condutores metálicos de mesmo diâmetro, porém de comprimentos diferentes. Para medir a quantidade de eletricidade que passava na secção reta dos condutores e na unidade de tempo – denominado por ele de intensidade da corrente elétrica (I) – Ohm utilizou uma balança de torção de Coulomb (1784) montada em um galvanômetro [aparelho que havia sido inventado pelo físico francês André Marie Ampère (1775-1836), ainda em 1825], uma vez que o ângulo de torção registrado pela balança era proporcional à intensidade I. Nessa série de experiências, Ohm observou que o comprimento do condutor era responsável pela “perda de força” (Kraftverlust) (v) em relação a uma situação em que a bateria estava ligada a um condutor curto e grosso. Em seguida, Ohm tomou condutores de vários comprimentos e demonstrou que, em certas condições (por exemplo, dimensões não muito grandes dos condutores), existia uma relação entre v e o comprimento (x) dos condutores: = 0,41 log (1 + x). Ohm conseguiu publicar seus resultados experimentais, em maio de 1825, no Journal fürChemie und Physik 44, p. 110, e no Annalen der Physik und Chemie 4, p. 79. [Kenneth L. CanevaGeorg OhmINDicionário de Biografias Científicas, Volume III (Contraponto, 2007).] É interessante ressaltar que, em termos da intensidade I, Ohm definia a “perda de força” como sendo dada pela relação (I – I0)/I0, onde I representa a intensidade da corrente que circula num condutor de certo comprimento e I0, a intensidade da corrente que circula em um condutor curto e grosso, escolhido como padrão. Ressalte-se, também, que Ohm observou que a “perda de força” ainda dependia dos parâmetros que se relacionavam com a geometria e com o tipo de material nos condutores, denominado por Ohm de resistência elétrica (R). (Pierre LucieContacto - Ciências 35, 1980.)
                   Apesar da publicação do trabalho de Ohm no Annalen, o editor dessa Revista, o físico alemão Johann Christian Poggendorff (1796-1877), fez-lhe uma sugestão. Com efeito, nesse trabalho, Ohm afirmara que a diminuição da “perda de força” era devida a uma possível variação na solução salina da pilha “hidroelétrica” que usura. Poggendorffem Nota Editorial, sugeriu que Ohm refizesse suas experiências com uma pilha mais estável, indicando, então, o termopar que havia sido inventado pelo físico russo-alemão Thomas Johann Seebeck (1770-1831), em 1821 (vide verbete nesta série).
                   Em dezembro de 1825, Ohm começou a realizar novas experiências com circuitos elétricos, usando um termopar de cobre (Cu) – bismuto (Bi) em lugar da pilha voltaica que usara antes. Desse modo, na primeira metade de 1826, Ohm publicou quatro importantes artigos que tratavam de novos aspectos de sua teoria da eletricidade galvânica. No primeiro deles (Journal fürChemie und Physik 46, p. 137), procurou determinar uma relação entre a força eletromagnética da corrente e o comprimento total do fio de ligação. Assim, depois de uma série de experimentos, Ohm observou que os dados de cada série podiam ser descritos pela expressão: X = a/(b + x), onde X é a intensidade do efeito eletromagnético – que tomou como sendo I – de um condutor de comprimento x sobre a agulha magnética de uma balança de torção de Coulomb, e onde a e b são constantes cuja natureza exata ele se propôs a determinar por meio de outros experimentos. Além disso, ao observar que b permanecia constante em todas as séries de experimentos, e que a variava com a temperatura, levou Ohm a concluir que a só dependia da força eletromotriz [“erregende Kraft”] da pilha termoelétrica e b só da resistência [“Leitungswiderstand” (resistência de condução) ou “Widerstandlänge” (comprimento de resistência)] da porção restante do circuito, em particular a da própria pilha. Observou, ainda, que a força eletromotriz da pilha parecia ser proporcional à diferença de temperatura nas extremidades. Essas observações podem ser resumidas pela seguinte lei: - força eletromotriz (E) atuando entre as extremidades de qualquer parte de um circuito é o produto da intensidade da corrente (I) e da resistência (R) daquela parte do circuito: E = RI. Esclareça-se que Ohm introduziu o conceito de força eletromotriz para substituir e aclarar a ideia de tensão que o cientista e estadista norte-americano Benjamin Franklin (1706-1790) havia conceituado em seus trabalhos sobre fluido elétrico, realizados entre 1747 e 1749 (vide verbete nesta série e Caneva, op. cit.; Lucie, op. cit.)
                   Nos outros três artigos (Annalen der Physik und Chemie 6, p. 459; 7, p. 45; 117), Ohm desenvolveu uma ampla teoria da eletricidade galvânica baseada no fato de que o contato de corpos heterogêneos produzia e mantinha uma tensão (“Spannung”) constante. Como resultado de seus experimentos, Ohm apresentou a seguinte expressão:

X = k w (a/),

onde X é a intensidade da corrente elétrica (I), conforme vimos acima, k, w e  são, respectivamente, a condutibilidade (“Leitungsvermögen”), a secção reta e o comprimento de um condutor; e a é a tensão elétrica (“força eletroscópica” ou “força eletromotriz”) entre os extremos do condutor.
                   É interessante registrar que Ohm media a tensão de uma pilha conectando um terminal a terra e o outro terminal a um eletroscópio. Quando ele queria saber as condições elétricas de um dado corpo A, ele o deslocava em relação a um eletroscópio, que era então atraído ou repelido pelo corpo eletrizado, por intermédio de uma “força eletroscópica”, como ele a denominou. [Sir Edmund Whittaker, A History of the Theories Aether and Electricity: The Classical Theories (Thomas Nelson and Sons Ltd., 1951).]
                   Na continuação de seus trabalhos sobre uma teoria matemática da eletricidade galvânica, Ohm observou que a quantidade de carga elétrica (S) que passa através de uma dada secção reta (w) de um condutor de condutibilidade (k) na unidade de tempo, é dada pela expressão: S = k w du/dx, onde u é a “força eletroscópica” em um ponto variável x do condutor. Como também demonstrou que du = (a/)d x é fácil ver como ele chegou à expressão:

S = k w (a/) = X = I.

Registre-se que Ohm reuniu os resultados de seus trabalhos sobre a matemática da eletricidade galvânica em um livro intitulado Die Galvanische Kette Mathematisch Bearbeitet (“O Circuito Galvânico Matematicamente Analisado”), publicado em 1827. Nesse livro, além dos resultados obtidos em 1825 e 1826, Ohm descreveu novas experiências nas quais estudou a condutividade dos condutores, assim como as relações entre correntes e resistências associadas em série e em paralelo, e suas famosas leis.
                   Antes de apresentar as leis de Ohm em sua forma moderna, é oportuno destacar que Ohm usou o conceito de tensão elétrica e não o de potencial eletrostático, que só foi definido pelo matemático inglês George Green (1793-1841), em 1828, em uma brochura, de divulgação privada, intitulada An Essay on the Application of Mathematical Analysis to the Theories ofElectricity and Magnetism (“Um Ensaio sobre a Aplicação da Análise Matemática às Teorias da Eletricidade e do Magnetismo”). Aliás, o conceito geral de função potencial (V) já havia sido apresentado pelo matemático e astrônomo Pierre Simon, Marquês de Laplace (1749-1827), no primeiro volume de sua Mécanique Celeste (“Mecânica Celeste”), publicado em 1799, função essa que satisfaz a célebre equação de LaplaceV = 0.
                   Agora, vejamos as leis de Ohm na linguagem atual, envolvendo valores constantes. Para um condutor de comprimento (L), de secção reta (A) e condutividade (g), a diferença de potencial (V) entre seus extremos é dada por: V = E L, onde E é a intensidade do campo elétrico (). Por outro lado, a densidade de corrente elétrica () nesse condutor percorrido por uma corrente elétrica de intensidade (I), tem a seguinte expressão (em módulo): J = I/A. Adaptando os termos usados por Ohm a essa nova nomenclatura, sua expressão vista acima:

S = k w (a/) = X = I,

 transforma-se na equação:

I = g A (V/L)  I/A = J = g E, ou na linguagem vetorial:  = g .

Esta é a famosa lei de Ohm. Ela, no entanto, pode ser assim escrita:

V = (1/g) (L/A) I.

Definindo-se:  = 1/g, como a resistividade e R =  L/A, como a resistência elétrica, virá: V = I R. É oportuno destacar que essa expressão para R é também conhecida como a segunda lei de Ohm
                   Por fim, registre-se que as descobertas de Ohm foram bastante estudadas por vários pesquisadores, como, por exemplo, pelo físico e filósofo alemão Gustav Theodor Fechner (1801-1887) – um dos principais pesquisadores da psicofísica – em seu livro intitulado Maassbestimmumgen über die Galvanische Kette (“Determinação da Massa do Circuito Galvânico”), em 1831. Por sua vez, em 1833/1834 (Mémoires de l´Académie Impériale desSciences de Saint-Petersbourg 2, p. 427; Annalen der Physik und Chemie 31, p. 483), o físico germano-russo Heinrich Friedrich Emil Lenz (1804-1865), descobriu que a resistência de um fio metálico cresce quando aumenta a sua temperatura.
                   As leis de Ohm foram redescobertas pelo físico francês Claude Servais Mathias Pouillet (1790-1868), em 1839, ao realizar experiências com circuitos elétricos, nas quais usou novas técnicas, envolvendo galvanômetros do tipo “tangente” e “seno”, que lhe permitiram medir correntes elétricas fracas. Por essa razão, o cálculo da corrente elétrica (I) em um circuito de resistência elétrica externa (R),.que é alimentado por um gerador de força eletromotriz (E) e resistência interna (r), dada pela expressão:

I = E/(R + r),

é também conhecida como lei de Ohm-Pouillet(René TatonINDictionary of Scientific Biography, op. cit.)
                   Por fim, é ainda oportuno registrar que o físico inglês Sir Charles Wheatstone (1802-1875), em 1843 (Philosophical Transactions of the Royal Society of London 133, p. 303), apresentou a verificação experimental da lei de Ohm e, desse modo, tornou-a conhecida na Inglaterra. Para essa verificação, desenvolveu novos modos de medir resistências e correntes elétricas, com um dispositivo hoje conhecido como ponte de Wheatstone. (Sigalia DostrovskyIN:Dictionary of Scientific Biography, op. cit.)

terça-feira, 23 de outubro de 2018

matriz do sistema categorial Graceli no
 Efeito Kerr (Efeito Eletro-Óptico)

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação, temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.


 = 2BE2

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Efeito Kerr (Efeito Eletro-Óptico) e Efeito Pockels (Efeito Eletro-Óptico Linear).

Em 1875 (Philosophical Magazine 50, p. 337), o físico escocês John Kerr (1824-1907) observou que o vidro tornara-se birrefringente sob a ação de um intenso campo elétrico.  Com efeito, ele tomou um pedaço de vidro de duas polegadas de espessura e fez dois buracos em suas extremidades, nos quais colocou dois eletrodos, aplicando neles um forte campo elétrico estático. Continuando com essas experiências relacionadas com esse efeito eletro-ópticoKerr observou que a dupla refração induzida pelo campo elétrico era muito mais forte no nitrobenzeno (C6H5NO2) líquido do que no vidro. Nessas experiências, Kerr encontrou que o tamanho do efeito era proporcional ao quadrado do campo elétrico [B. S. FinnINDictionary of Scientific Biography (Charles Scribner´s Sons, 1981)]. Na linguagem atual, esse efeito é traduzido pela seguinte expressão:  = 2BE2, onde  é a diferença de fase entre os dois raios luminosos, B (também conhecido como K) é denominado coeficiente de Kerr, característica de cada material,  é o comprimento do caminho óptico no meio, e E é a intensidade do campo elétrico estático.
                       É oportuno destacar que, em 1876 [Philosophical Magazine 5, p. 321 (1877)] Kerr anunciou em uma reunião da British Association em Glasgow que um feixe de luz plano-polarizada havia se tornado elipticamente polarizado ao incidir no polo de um eletro-ímã. Observara, então, um novo aspecto do efeito magneto-óptico, efeito esse que já havia sido tratado pelo físico e químico inglês Michael Faraday (1791-1867), em 1845 (vide verbete nesta série). Destaque-se, também, que os efeitos observados por Kerr [eletro-óptico (Efeito Kerr) magneto-óptico (Efeito Faraday)] foram estudados matematicamente pelo físico irlandês George Francis Fitzgerald (1851-1901), em 1880 (Philosophical Transactions of the Royal Society 171, p. 691).
                   Em 1893, o físico alemão Friedrich Carl Alwin Pockels (1865-1913) descobriu que, em certos cristais que não possuem nenhum ponto central, cada átomo não pode refletir-se em um átomo idêntico. Esse Efeito Pockels (EP), contudo, é um efeito eletro-óptico linear, pois ele depende apenas da intensidade do campo elétrico e não de seu quadrado, como no caso do Efeito Kerr (EK). É oportuno destacar que, tomando com base o EK e o EP, foram construídos células (``cells’’) e obturadores (``shutters’’) que são utilizados em experiências envolvendo a propagação da luz, principalmente na determinação de sua velocidade. [E. Hecht e A. ZajacOptics (Addison-Wesley Publishing Company, 1979).]
                   Em 1941 (Journal of the Optical Society of América 31, p. 286), o físico norte-americano Hans Mueller mostrou que o efeito observado por Kerr, em 1875, conforme vimos acima, é um milhão de vezes mais forte na bentonita (mistura de argilas) do que no nitrobenzeno líquido. [John Strong, Concepts of Classical Optics (W. H. Freeman and Company, 1958).]
A cor do céu: Einstein versus Smoluchowski no sistema categorial Graceli.


Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação, temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de supercondutividade no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG].






T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl






,.
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl







(TC), ], 
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




A cor do céu: Einstein versus Smoluchowski.
Provavelmente, uma das mais antigas questões que intrigou o homem foi a razão do céu ser azul e, também, ser avermelhado o nascer e o por do Sol. Muitos cientistas tentaram explicá-los. O artista, inventor e cientista italiano Leonardo da Vinci (1452-1519), por volta de 1500, e o poeta e filósofo alemão Johann Wolfgang von Goethe (1749-1832), em torno de 1810, chegaram a observar certo azulamento na fumaça. Uma primeira explicação para tal percepção foi tentada pelo físico e matemático inglês Sir Isaac Newton (1642-1727), em seu livro Optics, publicado em 1704, ao atribuir os fenômenos de interferência (em primeira ordem), como sendo responsáveis pelo azul do céu. No entanto, tal explicação foi contestada pelo fisiologista alemão Ernst Wilhelm Brücke (1819-1892) - o introdutor dos métodos físicos e químicos na pesquisa em Medicina - ao observar que uma coloração azul nos hidrosóis (colóides solúveis na água) não poderia ser explicada como devido ao fenômeno de interferência em primeira ordem (como Newton havia suposto), já que esta ocorre em substâncias não-saturadas.O primeiro passo importante para a explicação do azul do céu foi dado pelo físico inglês John Tyndall (1820-1893), em 1869 [Philosophical Magazine 37(250); 38(253), pgs. 384; 156] e 1870 (Philosophical Transactions of Royal Society of London 160), ao estudar o espalhamento de um feixe de luz por um meio contendo pequenas partículas suspensas. Ele observou que uma sala cheia de fumaça ou de poeira torna visível um feixe de luz que, repentinamente, nela penetre. Ao notar um azulamento em um feixe de luz que atravessou um nevoeiro ("smog") formado por uma reação fotoquímica que estava realizando, escreveu em seu Caderno de Notas: Associo este azul com a cor do céu. A partir daí suas pesquisas sempre procuravam uma associação entre qualquer coloração azul em nevoeiros e a cor do céu. Essa observação de Tyndall, hoje conhecida como efeito Tyndall, fez com que o mundo científico o considere como o cientista que demonstrou a razão do azul do céu.
Como a explicação dada por Tyndall sobre a cor azul do céu era apenas qualitativa, outros físicos procuraram uma explicação quantitativa desse fenômeno, o que foi imediatamente conseguida pelo físico inglês John William Strutt, Lord Rayleigh (1842-1919; PNF, 1904), em 1871 [Philosophical Magazine41(4), p. 107]. Em sua explicação, o descobridor do argônio (A), demonstrou que a intensidade (I) da luz espalhada por gases é proporcional à quarta potência da freqüência (n) da luz considerada [ou inversamente proporcional à quarta potência do comprimento de onda (l), pois ln = c, onde c é a velocidade da luz no vácuo], e assim, explicou de uma só vez a cor azul do céu e o vermelho do por e do nascer do Sol. Com efeito, como o azul tem uma das maiores freqüências das cores do espectro luminoso, a atmosfera terrestre espalha mais azul do que as demais cores do espectro luminoso. (Aqui cabe uma observação, pois a cor de maior freqüência daquele espectro é o violeta, porém, como nosso órgão visual á mais sensível ao azul do que ao violeta, vemos apenas o azul.) No caso do nascer e do por do Sol, sua cor avermelhada decorre do fato de que, nessas duas situações, os raios solares incidem tangencialmente à superfície de nosso planeta, então as cores de maior freqüência são bastante espalhadas para cima do horizonte ficando, deste modo, apenas a vermelha, que é a cor de menor freqüência do espectro luminoso.
Rayleigh chegou ao resultado indicado acima usando a Análise Dimensional. Vejamos como. Partiu da hipótese de que a amplitude E da luz espalhada por uma molécula de ar a uma distância r desta, é proporcional à amplitude E0 da luz incidente, ao inverso de r, ao comprimento de onda l, a c e ao volume esférico (4pR3/3) da molécula de ar de raio r, ou seja:

Ora, como E, E0 não dependem do tempo (t), então a Análise Dimensional indica que b = 0. Por outro lado, fazendo-se o balanceamento dos expoentes da dimensão comprimento (r, R, l), ainda essa Análise nos mostra que a = -2. Por fim, como a intensidade (I) da luz é proporcional ao quadrado de sua amplitude, a expressão acima mostra que , conforme registramos acima. [É oportuno observar que o físico sino-norte-americano Tsung-Dao Lee (1926- ; PNF, 1957), em seu livro intitulado Particle Physics and Introduction to Field Theory (World Scientific, 1981), usou argumentos da Análise Dimensional para obter ordens de grandeza de vários parâmetros físicos, tais como: o raio do átomo, o tamanho dos hádrons, e as secções de choque de interações fortes, fracas e eletromagnéticas.]
Vejamos mais alguns fatos relacionados com a explicação do azul do céu. Em 1874 (Annalen der Physik und Chemie 151, p. 306), M. Avenarius demonstrou que quando a luz branca passa por um vapor próximo de seu ponto crítico, há o aparecimento de uma opalescência azulada. Por sua vez, o físico e químico escocês Sir James Dewar (1842-1923; PNQ, 1904) - o inventor da garrafa térmica, em 20 de janeiro de 1893, e, também, o primeiro a liquefazer e a solidificar o hidrogênio (H), em 1898 e 1899, respectivamente -, ao descobrir a cor azul do oxigênio (O) líquido, afirmou que a cor azul do céu se devia à presença desse elemento químico na atmosfera. Em 1908 (Annalen der Physik 25, p. 205), o físico polonês Marian von Smolan-Smoluchowski (1872-1917), explicou a observação de Avenarius como sendo devida às flutuações da densidade do meio considerado e, com isso, o azul do céu. Em 1910 (Annalen der Physik 33, p. 1275), o físico germano-norte-americano Albert Einstein (1879-1955; PNF, 1921) estudou o espalhamento da luz de comprimento de onda l em um meio gasoso (de volume V, pressão P e temperatura absoluta T), ocasião em que demonstrou que:

,.
onde r representa a razão entre as intensidades espalhada e incidente da luz considerada e kT é a compressibilidade isotérmica do meio. Ora, como kT atinge o valor infinito no ponto crítico [lembrar que o químico irlandês Thomas Andrews (1813-1885) havia demonstrado em 1869 que, no ponto crítico (TC), ], então, para Einstein esse resultado, que concordava com o obtido por Rayleigh, em 1871, representava uma explicação satisfatória para a opalescência crítica. Em vista disso, concluiu: O azul do céu é devido à opalescência crítica. Por sua vez, em 1911 (Bulletin International de l´Académie de Sciences et Lettres de Cracovie, p. 493), retomando seu trabalho de 1908, Smoluchowski demonstrou que: O azul do céu é conseqüência de dois fatores: espalhamento da luz pelas moléculas do ar e espalhamento devido às flutuações da densidade do ar. Em vista desse impasse, em 27 de novembro de 1911, Einstein escreveu uma carta a Smoluchowski dizendo-lhe que só havia uma única causa para o azul do céu: a opalescência crítica. Em sua argumentação, afirmou que a coincidência entre o resultado obtido por Rayleigh, em 1871, e o obtido por ele, em 1910, não era um mero acidente. Em 12 de dezembro de 1911, Smoluchowski respondeu à carta de Einstein, dizendo-lhe: Você está completamente certo. Em 1916 (Bulletin International de l´Académie de Sciences et Lettres de Cracovie, p. 218), Smoluchowski apresentou o resultado de uma experiência na qual tentou reproduzir o azul do céu, baseado na opalescência crítica. Embora os primeiros resultados fossem promissores, sua morte em 1917 o impediu de levar a cabo seu projeto.
Cremos ser oportuno registrar que o cosmonauta soviético Yury Alekseyevich Gagarin (1934-1968), além de ser o primeiro homem colocado em órbita em torno da Terra, no dia 12 de abril de 1961, foi, também, o primeiro terrestre a ver o azul do céu, fora da Terra, pois, naquela ocasião, pronunciou a célebre frase: A Terra é azul!

terça-feira, 23 de outubro de 2018

matriz do sistema categorial Graceli no
 Efeito Kerr (Efeito Eletro-Óptico)

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação, temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.


 = 2BE2

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Efeito Kerr (Efeito Eletro-Óptico) e Efeito Pockels (Efeito Eletro-Óptico Linear).

Em 1875 (Philosophical Magazine 50, p. 337), o físico escocês John Kerr (1824-1907) observou que o vidro tornara-se birrefringente sob a ação de um intenso campo elétrico.  Com efeito, ele tomou um pedaço de vidro de duas polegadas de espessura e fez dois buracos em suas extremidades, nos quais colocou dois eletrodos, aplicando neles um forte campo elétrico estático. Continuando com essas experiências relacionadas com esse efeito eletro-ópticoKerr observou que a dupla refração induzida pelo campo elétrico era muito mais forte no nitrobenzeno (C6H5NO2) líquido do que no vidro. Nessas experiências, Kerr encontrou que o tamanho do efeito era proporcional ao quadrado do campo elétrico [B. S. FinnINDictionary of Scientific Biography (Charles Scribner´s Sons, 1981)]. Na linguagem atual, esse efeito é traduzido pela seguinte expressão:  = 2BE2, onde  é a diferença de fase entre os dois raios luminosos, B (também conhecido como K) é denominado coeficiente de Kerr, característica de cada material,  é o comprimento do caminho óptico no meio, e E é a intensidade do campo elétrico estático.
                       É oportuno destacar que, em 1876 [Philosophical Magazine 5, p. 321 (1877)] Kerr anunciou em uma reunião da British Association em Glasgow que um feixe de luz plano-polarizada havia se tornado elipticamente polarizado ao incidir no polo de um eletro-ímã. Observara, então, um novo aspecto do efeito magneto-óptico, efeito esse que já havia sido tratado pelo físico e químico inglês Michael Faraday (1791-1867), em 1845 (vide verbete nesta série). Destaque-se, também, que os efeitos observados por Kerr [eletro-óptico (Efeito Kerr) magneto-óptico (Efeito Faraday)] foram estudados matematicamente pelo físico irlandês George Francis Fitzgerald (1851-1901), em 1880 (Philosophical Transactions of the Royal Society 171, p. 691).
                   Em 1893, o físico alemão Friedrich Carl Alwin Pockels (1865-1913) descobriu que, em certos cristais que não possuem nenhum ponto central, cada átomo não pode refletir-se em um átomo idêntico. Esse Efeito Pockels (EP), contudo, é um efeito eletro-óptico linear, pois ele depende apenas da intensidade do campo elétrico e não de seu quadrado, como no caso do Efeito Kerr (EK). É oportuno destacar que, tomando com base o EK e o EP, foram construídos células (``cells’’) e obturadores (``shutters’’) que são utilizados em experiências envolvendo a propagação da luz, principalmente na determinação de sua velocidade. [E. Hecht e A. ZajacOptics (Addison-Wesley Publishing Company, 1979).]
                   Em 1941 (Journal of the Optical Society of América 31, p. 286), o físico norte-americano Hans Mueller mostrou que o efeito observado por Kerr, em 1875, conforme vimos acima, é um milhão de vezes mais forte na bentonita (mistura de argilas) do que no nitrobenzeno líquido. [John Strong, Concepts of Classical Optics (W. H. Freeman and Company, 1958).]
A cor do céu: Einstein versus Smoluchowski no sistema categorial Graceli.


Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação, temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de supercondutividade no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG].






T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl






,.
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl







(TC), ], 
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




A cor do céu: Einstein versus Smoluchowski.
Provavelmente, uma das mais antigas questões que intrigou o homem foi a razão do céu ser azul e, também, ser avermelhado o nascer e o por do Sol. Muitos cientistas tentaram explicá-los. O artista, inventor e cientista italiano Leonardo da Vinci (1452-1519), por volta de 1500, e o poeta e filósofo alemão Johann Wolfgang von Goethe (1749-1832), em torno de 1810, chegaram a observar certo azulamento na fumaça. Uma primeira explicação para tal percepção foi tentada pelo físico e matemático inglês Sir Isaac Newton (1642-1727), em seu livro Optics, publicado em 1704, ao atribuir os fenômenos de interferência (em primeira ordem), como sendo responsáveis pelo azul do céu. No entanto, tal explicação foi contestada pelo fisiologista alemão Ernst Wilhelm Brücke (1819-1892) - o introdutor dos métodos físicos e químicos na pesquisa em Medicina - ao observar que uma coloração azul nos hidrosóis (colóides solúveis na água) não poderia ser explicada como devido ao fenômeno de interferência em primeira ordem (como Newton havia suposto), já que esta ocorre em substâncias não-saturadas.O primeiro passo importante para a explicação do azul do céu foi dado pelo físico inglês John Tyndall (1820-1893), em 1869 [Philosophical Magazine 37(250); 38(253), pgs. 384; 156] e 1870 (Philosophical Transactions of Royal Society of London 160), ao estudar o espalhamento de um feixe de luz por um meio contendo pequenas partículas suspensas. Ele observou que uma sala cheia de fumaça ou de poeira torna visível um feixe de luz que, repentinamente, nela penetre. Ao notar um azulamento em um feixe de luz que atravessou um nevoeiro ("smog") formado por uma reação fotoquímica que estava realizando, escreveu em seu Caderno de Notas: Associo este azul com a cor do céu. A partir daí suas pesquisas sempre procuravam uma associação entre qualquer coloração azul em nevoeiros e a cor do céu. Essa observação de Tyndall, hoje conhecida como efeito Tyndall, fez com que o mundo científico o considere como o cientista que demonstrou a razão do azul do céu.
Como a explicação dada por Tyndall sobre a cor azul do céu era apenas qualitativa, outros físicos procuraram uma explicação quantitativa desse fenômeno, o que foi imediatamente conseguida pelo físico inglês John William Strutt, Lord Rayleigh (1842-1919; PNF, 1904), em 1871 [Philosophical Magazine41(4), p. 107]. Em sua explicação, o descobridor do argônio (A), demonstrou que a intensidade (I) da luz espalhada por gases é proporcional à quarta potência da freqüência (n) da luz considerada [ou inversamente proporcional à quarta potência do comprimento de onda (l), pois ln = c, onde c é a velocidade da luz no vácuo], e assim, explicou de uma só vez a cor azul do céu e o vermelho do por e do nascer do Sol. Com efeito, como o azul tem uma das maiores freqüências das cores do espectro luminoso, a atmosfera terrestre espalha mais azul do que as demais cores do espectro luminoso. (Aqui cabe uma observação, pois a cor de maior freqüência daquele espectro é o violeta, porém, como nosso órgão visual á mais sensível ao azul do que ao violeta, vemos apenas o azul.) No caso do nascer e do por do Sol, sua cor avermelhada decorre do fato de que, nessas duas situações, os raios solares incidem tangencialmente à superfície de nosso planeta, então as cores de maior freqüência são bastante espalhadas para cima do horizonte ficando, deste modo, apenas a vermelha, que é a cor de menor freqüência do espectro luminoso.
Rayleigh chegou ao resultado indicado acima usando a Análise Dimensional. Vejamos como. Partiu da hipótese de que a amplitude E da luz espalhada por uma molécula de ar a uma distância r desta, é proporcional à amplitude E0 da luz incidente, ao inverso de r, ao comprimento de onda l, a c e ao volume esférico (4pR3/3) da molécula de ar de raio r, ou seja:

Ora, como E, E0 não dependem do tempo (t), então a Análise Dimensional indica que b = 0. Por outro lado, fazendo-se o balanceamento dos expoentes da dimensão comprimento (r, R, l), ainda essa Análise nos mostra que a = -2. Por fim, como a intensidade (I) da luz é proporcional ao quadrado de sua amplitude, a expressão acima mostra que , conforme registramos acima. [É oportuno observar que o físico sino-norte-americano Tsung-Dao Lee (1926- ; PNF, 1957), em seu livro intitulado Particle Physics and Introduction to Field Theory (World Scientific, 1981), usou argumentos da Análise Dimensional para obter ordens de grandeza de vários parâmetros físicos, tais como: o raio do átomo, o tamanho dos hádrons, e as secções de choque de interações fortes, fracas e eletromagnéticas.]
Vejamos mais alguns fatos relacionados com a explicação do azul do céu. Em 1874 (Annalen der Physik und Chemie 151, p. 306), M. Avenarius demonstrou que quando a luz branca passa por um vapor próximo de seu ponto crítico, há o aparecimento de uma opalescência azulada. Por sua vez, o físico e químico escocês Sir James Dewar (1842-1923; PNQ, 1904) - o inventor da garrafa térmica, em 20 de janeiro de 1893, e, também, o primeiro a liquefazer e a solidificar o hidrogênio (H), em 1898 e 1899, respectivamente -, ao descobrir a cor azul do oxigênio (O) líquido, afirmou que a cor azul do céu se devia à presença desse elemento químico na atmosfera. Em 1908 (Annalen der Physik 25, p. 205), o físico polonês Marian von Smolan-Smoluchowski (1872-1917), explicou a observação de Avenarius como sendo devida às flutuações da densidade do meio considerado e, com isso, o azul do céu. Em 1910 (Annalen der Physik 33, p. 1275), o físico germano-norte-americano Albert Einstein (1879-1955; PNF, 1921) estudou o espalhamento da luz de comprimento de onda l em um meio gasoso (de volume V, pressão P e temperatura absoluta T), ocasião em que demonstrou que:

,.
onde r representa a razão entre as intensidades espalhada e incidente da luz considerada e kT é a compressibilidade isotérmica do meio. Ora, como kT atinge o valor infinito no ponto crítico [lembrar que o químico irlandês Thomas Andrews (1813-1885) havia demonstrado em 1869 que, no ponto crítico (TC), ], então, para Einstein esse resultado, que concordava com o obtido por Rayleigh, em 1871, representava uma explicação satisfatória para a opalescência crítica. Em vista disso, concluiu: O azul do céu é devido à opalescência crítica. Por sua vez, em 1911 (Bulletin International de l´Académie de Sciences et Lettres de Cracovie, p. 493), retomando seu trabalho de 1908, Smoluchowski demonstrou que: O azul do céu é conseqüência de dois fatores: espalhamento da luz pelas moléculas do ar e espalhamento devido às flutuações da densidade do ar. Em vista desse impasse, em 27 de novembro de 1911, Einstein escreveu uma carta a Smoluchowski dizendo-lhe que só havia uma única causa para o azul do céu: a opalescência crítica. Em sua argumentação, afirmou que a coincidência entre o resultado obtido por Rayleigh, em 1871, e o obtido por ele, em 1910, não era um mero acidente. Em 12 de dezembro de 1911, Smoluchowski respondeu à carta de Einstein, dizendo-lhe: Você está completamente certo. Em 1916 (Bulletin International de l´Académie de Sciences et Lettres de Cracovie, p. 218), Smoluchowski apresentou o resultado de uma experiência na qual tentou reproduzir o azul do céu, baseado na opalescência crítica. Embora os primeiros resultados fossem promissores, sua morte em 1917 o impediu de levar a cabo seu projeto.
Cremos ser oportuno registrar que o cosmonauta soviético Yury Alekseyevich Gagarin (1934-1968), além de ser o primeiro homem colocado em órbita em torno da Terra, no dia 12 de abril de 1961, foi, também, o primeiro terrestre a ver o azul do céu, fora da Terra, pois, naquela ocasião, pronunciou a célebre frase: A Terra é azul!

sexta-feira, 16 de novembro de 2018

a Emissão Estimulada e o Princípio do Laser no sistema categorial Graceli.



Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação, temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de supercondutividade no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG].



I(, T) = C1 -5 exp [- C2 /( T)],
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


I (, T) = 1 T -4 exp [- C2 /( T)],
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


I (, T) = C1 -5 exp [C2 /( T) + 1],
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



.
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Bmn = Bnm ;  Amn = (8  h f3/c3Bmn ,
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


 = (Amn/Bnm) / [exp (h f/kT) -1],
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


a Emissão Estimulada e o Princípio do Laser.  


no final do Século 20, a radiação térmica do corpo negro era explicada pela fórmula de Wien-Paschen:

I(, T) = C1 -5 exp [- C2 /( T)],

onde  representa o comprimento de onda da radiação térmica emitida pelo corpo negro [substância que absorve toda a radiação recebida, conforme conceituou o físico alemão Gustav Robert Kircchoff(1824-1887), em 1860] na temperatura absoluta T. Ela foi obtida, em 1896, em trabalhos independentes dos físicos alemães Louis Carl Henrich Friedrich Paschen (1865-1940) (Annalen der Physik 58, p. 455) e Wilhelm Carl Werner Otto Fritz Franz Wien (1864-1928; PNF, 1911) (Annalen der Physik 58, p. 662).
                   Contudo, em junho de 1900 (Philosophical Magazine 49, p. 98; 539), o físico inglês John William StruttLord Rayleigh (1842-1919; PNF, 1904) observou que ela só se aplicava a pequenos  (altas frequências ). Assim, ao considerar a intensidade da radiação térmica como sendo proporcional aos tons normais de vibração dos osciladores moleculares, Rayleigh obteve, uma nova expressão:

I (, T) = 1 T -4 exp [- C2 /( T)],

conhecida como fórmula de Rayleigh.
                   Por sua vez, usando argumentos físicos diferentes dos usados por Wien, ou seja, considerando a entropia dos osciladores harmônicos, o físico alemão Max Planck (1858-1847; PNF, 1918) re-obteve a fórmula de Wien-Paschen. No entanto, experiências realizadas pelos físicos alemães Heinrich Rubens (1865-1922) e Ferdinand Kurlbaum (1857-1927), em outubro de 1900 (Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften zu Berlin 25, p. 929), mostraram que essa expressão falhava quando  T >> 1, enquanto as mesmas se ajustavam à fórmula de Rayleigh. Inteirando-se desse resultado, Planck, em 19 de outubro de 1900 (Verhandlungen der Deutschen Physikalischen Gesellschaft 2, p. 202), apresentou à Sociedade Física de Berlim um trabalho no qual, ao fazer uma interpolação entre essas duas fórmulas, chegou, euristicamente, a uma nova expressão:

I (, T) = C1 -5 exp [C2 /( T) + 1],

que se reduzia àquelas mesmas fórmulas, quando se fizesse  T << 1 (Wien-Paschen).e  T >> 1 (Rayleigh).
                   Planck tentou deduzir teoricamente essa sua expressão usando todos os recursos da Termodinâmica até então conhecida. No entanto, como não encontrou nenhum erro nos cálculos de Rayleigh, Planck utilizou então a interpretação probabilística proposta pelo físico austríaco Ludwig Boltzmann (1844-1906), em 1877 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zuWien 7576, p. 373; 62), para o cálculo da entropia dos osciladores moleculares, de frequência . Porém, para fazer esse cálculo, teve de admitir a hipótese (parece, sugerido pelo próprio Boltzmann) de que a energia () dos osciladores variava discretamente, ou seja:  = h . Planck, contudo, esperava que essa hipótese fosse apenas um artifício de cálculo e que no final do mesmo pudesse fazer h  0. No entanto, para que os seus resultados combinassem com os experimentais era necessário que h tivesse um valor finito. Assim, no dia 14 de dezembro de 1900 (Verhandlungen der DeutschenPhysikalischen Gesellschaft 2, p. 237), Planck apresentou, também, à mesma Sociedade Física de Berlim, um trabalho no qual demonstrou a hoje famosa fórmula de Planck vista acima, assim como apresentou o valor de h = 6,55  10-27 erg.s e que, mais tarde, recebeu o nome de constante de Planck
                   Em 1916 (Verhandlungen der Deutschen Physikalischen Gesellschaft 18, p. 318; Mitteilungender Physikalischen Gesellschaft zur Zürich 16, p. 47) e 1917 (Physikalische Zeitschrift 18, p. 121), o físico germano-suíço-norte-americano Albert Einstein (1879-1955; PNF, 1922) realizou trabalhos nos quais tratou a radiação eletromagnética sob o ponto de vista mecânico-estatístico. Nesses trabalhos, ele examinou um corpo negro em equilíbrio térmico contendo, além da radiação, átomos simples com apenas dois níveis de energia (En, Em), sendo que a passagem de um nível para o outro seria por intermédio da emissão (m  n) ou da absorção (n  m) de um quantum de luz (“lichtquantum”) de frequência dada por: . Além do mais, considerou ainda Einstein que o átomo e a radiação se mantinham em equilíbrio estatístico, quando o número de átomos que passa de um nível para o outro permanece o mesmo. Desse modo, ele obteve relações importantes entre as probabilidades de emissão e de absorção de radiação de densidade , ocasião em que introduziu as famosas constantes Amn e Bmn (Bnm), sendo Amn relativa à emissão espontâneaBnm relacionada com a absorção e Bmn com a emissão de radiação, sendo que estas duas últimas são radiações estimuladas. Usando essas definições e considerando que:

Bmn = Bnm ;  Amn = (8  h f3/c3Bmn ,

Einstein demonstrou a hoje conhecida equação de Planck-Einstein:

 = (Amn/Bnm) / [exp (h f/kT) -1],

com  k sendo a constante de Boltzmann. Este era um resultado teórico em busca de uma aplicação prática, que somente aconteceu na década de 1950 (ver verbete nesta série). [Abraham Pais‘Subtle is the Lord... The Science and the Life of Albert Einstein (Oxford University Press, 1983)].

quarta-feira, 31 de outubro de 2018

the atomic model of Graceli.



is based on types of structures [waves and particles], potential transitions of states, energies, phenomena, phenomenal dimensions of Graceli, and categories present in the Graceli categorical matrix.

modelo atômico de Graceli.

se fundamenta em tipos de estruturas [ondas e partículas], potenciais de transições de estados, energias, fenômenos, dimensões fenomênicas de Graceli, e categorias presentes na matriz categorial Graceli.


Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação [categorias de Graceli], temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de TUNELAMENTO no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG]..



Modelo atômico de Schrödinger

Com a efervescência das duas primeiras décadas do século XX, físicos e químicos discutiam a natureza do átomo, dos elétrons e da eletrosfera. Já em 1916 Sommerfeldpropusera uma mudança no entendimento das variáveis quânticas do modelo atômico de Rutherford – Bohr.
Louis de Broglie, já em meados da década de 1920, propôs a extensão da dualidade “onda-partícula” ao elétron. Para Broglie, o elétron apresentava comportamento de partícula e de onda, e por este motivo elétrons poderiam apresentar propriedades da mecânica ondulatória. De Broglie postulara o enunciado de que “a todo elétron em movimento está associada uma onda característica”, admitindo este comportamento dualístico e chocando-se diretamente com as proposições anteriores, que afirmavam que o elétron descrevia órbitas circulares ao redor do núcleo.
Esta afirmação foi bastante contestada pelos cientistas contemporâneos de Louis de Broglie, porém experimentos realizados à época comprovaram a tese de que elétrons poderiam apresentar e obedecer à preceitos das leis ondulatórias, como se fossem ondas luminosas.
Seguindo este pressuposto, as órbitas defendidas por Bohr e Sommerfeld não poderiam corresponder à realidade, uma vez que o elétron descreveria o comportamento de uma onda ao redor do núcleo. A figura a seguir demonstra, de maneira bastante simples, como poderia ser descrita a órbita em forma de ondas ao redor do núcleo e o modelo anterior.
Eletrosferas distintas – Modelo de Bohr e a sugestão de Louis de Broglie
Questões acerca do modelo atômico apresentaram novas discussões quando fora enunciado o princípio da incerteza, por Werner Heisenberg (*1901 – †1967), que afirmava “não ser possível determinar, simultaneamente, a posição e a velocidade de uma partícula em um mesmo instante”. Tal princípio trazia um questionamento aos recentes acontecimentos sobre a eletrosfera: não é possível determinar a posição e velocidades exatas de um elétron.
Este fato trouxe uma nova perspectiva à questão, uma vez que não fazia sentido tentar descrever valores tão exatos dos elétrons. Como definir questões tão intrínsecas ao átomo? Utilizando-se dos conhecimentos da Mecânica ondulatória, diria Erwin Schrödinger.
Erwin Schrödinger (*1887 – †1961) determinou, através de uma infinidade de operações matemáticas (cálculos e equações do movimento de ondas e plotagem dos dados em plano cartesiano), as regiões no espaço que apresentariam máxima probabilidade de se encontrar um elétron. A esta altura a utilização do termo órbita já estava em desuso, pois não se poderia prever, pelo princípio da incerteza de Heisenberg, a posição e velocidade de um elétron. Logo, determinou-se orbital a região que apresentaria máxima probabilidade de localização dos elétrons e, portanto, orbitais se assemelhariam, grosso modo, a nuvens eletrônicas.
Schrödinger, ao propor o modelo de orbitais atômicos, conciliou os postulados teóricos de De Broglie e Heisenberg, formalizando a ideia de que o elétron apresenta comportamento dual (onda – partícula). O modelo atômico de Schrödinger apresentou um modelo de orbital tridimensional para cada um dos subníveis de energia e possibilitou a compreensão do fenômeno da hibridação em átomos de carbono, permitindo a determinação da geometria molecular de diversas substâncias químicas. A geometria molecular, por sua vez permite a previsão de propriedades físicas e químicas de diversos compostos.
O modelo quântico ondulatório ou modelo de orbital obedece à dinâmica dos números quânticos (principal, secundário, magnético e de spin), tendo status de modelo vigente, e sendo válido desde 1923 até os dias atuais.


Quadro contendo representações de orbitais.

sexta-feira, 2 de novembro de 2018




teorema H e categorias de Graceli



Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação [categorias de Graceli], temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de TUNELAMENTO no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG]..



X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



 dH/dt ≤ 0 
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


,
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

O Tempo na Termodinâmica.

Neste verbete, abordaremos a questão de reversibilidade ou irreversibilidade do tempo, questão essa que só foi evidenciada por ocasião da Segunda Lei da Termodinâmica, que surge a partir do estudo das máquinas a vapor ou máquinas térmicas, e que tem como base a expansão térmica dos gases (ver verbetes nesta série). .    
                   A expansão térmica dos gases já era conhecida no mundo antigo. Porém, sua primeira aplicação prática deve-se ao físico francês Denis Papin (1647-1712) ao descobrir, em 1698, que a água fervida ao ser colocada em um tubo oco faria com que o vapor resultante deslocasse uma espécie de êmbulo colocado na outra extremidade desse tubo. Nesse mesmo ano de 1698, o engenheiro inglês Thomas Savery (c.1650-1715) inventou um dispositivo que produzia vácuo pela condensação do vapor d´água. Assim, quando adaptado à extremidade de um tubo longo, este poderia aspirar água de qualquer reservatório. No entanto, essa máquina a vapor apresentava muitas limitações, principalmente quando eram utilizadas altas pressões (acima de 8 a 10 atmosferas).
                   A máquina a vapor de Savery foi aperfeiçoada pelo engenheiro inglês Thomas Newcomen (1663-1729), em 1705, ao construir cilindros nos quais os êmbulos (pistões) se ajustavam. O movimento de vaivém desses pistões devia-se, respectivamente, à expansão e ao resfriamento do vapor. No entanto, como a água destinada a condensar o vapor esfriava também os pistões, desse modo, grande quantidade de calor era desperdiçada. Para contornar essa dificuldade, o engenheiro escocês James Watt (1736-1819), em 1765, inventou o condensador, separado, para esfriar o vapor sem, contudo, esfriar os pistões.
                   Em verbete desta série, vimos que a eficiência das máquinas a vapor é bastante baixa, cerca de 5% a 7%; em vista disso, o físico francês Nicolas Leonard Sadi Carnot (1796-1832) procurou melhorá-la. Assim, em 1824, em seu livro Réflexions sur la Puissance Motrice du Feu et sur les Machines Propres à Developper cette Puissance (“Reflexões sobre a Potência Motriz do Fogo e sobre as Máquinas próprias para Desenvolver essa Potência”), Carnot descreveu uma máquina ideal sem atrito, que realiza um ciclo completo de modo que a substância usada – vapor ou ar atmosférico – é levada de volta ao seu estado inicial. Carnot concluiu seu estudo dizendo: - A potência motriz do calor é independente dos agentes empregados para produzi-la e sua quantidade só depende das temperaturas inicial e final desses agentes.
                   A máquina de Carnot foi estudada pelo físico francês Emile Clapeyron (1799-1864), em 1834, ocasião em que o ciclo de Carnot foi pela primeira vez representado graficamente [hoje esse gráfico é conhecido como diagrama P-V  pressão-volume)] por duas transformações adiabáticas (quantidade de calor constante) e duas isotérmicas (temperatura constante). Com isso, Clapeyron demonstrou que a produção de trabalho nessa máquina dependia somente da diferença de temperatura entre os reservatórios térmicos (fontes quente e fria) considerados por Carnot. Em 1848, o físico inglês William Thomson, Lord Kelvin (1824-1907) estudando o ciclo de Carnot-Clapeyron, propôs o conceito de temperatura absoluta (T). Por sua vez, em 1850, o físico alemão Rudolf Emmanuel Clausius (1822-1888) demonstrou que a produção de trabalho nas máquinas térmicas não resultava simplesmente do deslocamento do calor da fonte quente para a fonte fria e sim, também, por consumo de calor. Assim, escreveu que: - É impossível realizar um processo cíclico cujo efeito único seja transferir calor de um corpo mais frio para um mais quente. Esta afirmação ficou mais tarde conhecida como a Segunda Lei da Termodinâmica. Note que esta lei foi reinterpretada por Kelvin, em 1851, no trabalho intitulado On the Dynamical Theory of Heat (“Sobre a Teoria Dinâmica do Calor”), por intermédio da tese de irreversibilidade e dissipação do calor.
                   Ao formular sua lei, Clausius preocupou-se, basicamente, com a direcionalidade do fluxo do calor, isto é, com a tendência do calor fluir de uma fonte quente para uma fonte fria. Assim, a partir de 1854, começou a pensar que a transformação de calor em alta temperatura para calor em baixa temperatura deveriam ser equivalentes. Em vista disso, introduziu o conceito de valor de equivalência de uma transformação térmica e que era medido pela relação entre a quantidade de calor (ΔQ) e a temperatura (T) na qual ocorre essa transformação. Por intermédio desse novo conceito físico [o qual denominou de entropia (S) (do grego que significação transformação), em 1865], pôde Clausius fazer a distinção entre processos reversíveis e irreversíveis. É oportuno registrar que o engenheiro escocês William John Macquorn Rankine (1820-1872) propôs um conceito similar a esse de Clausius, para o qual denominou de função termodinâmica, porém não o aplicou a processos irreversíveis [P. M. Harman, Energy, Force, and Matter (Cambridge University Press, 1985)]. Desse modo, considerando um ciclo qualquer como uma sucessão de ciclos infinitesimais de Carnot, ainda em 1865, Clausius apresentou seu célebre Teorema:

,

onde o sinal de menor (<) ocorre para as transformações irreversíveis e o sinal de igualdade (=), para as reversíveis. [Note que esse Teorema de Clausius foi generalizado pelo físico, matemático e filósofo Jules Henri Poincaré (1854-1912), conforme se pode ver em seu livro Thermodinamique (“Termodinâmica”), de 1908].                  Adotando o termo energia (que havia sido universalizado por Kelvin e por Rankine), Clausius resumiu, ainda em 1865, o resultado de suas pesquisas sobre a teoria do calor, nas hoje conhecidas: Primeira Lei da Termodinâmica – A energia (E) do Universo é constanteSegunda Lei da Termodinâmica – A entropia (S) do Universo tende para um máximo.
                   Considerando que o calor tinha uma base mecânica, os físicos passaram então a explicar mecanicamente as grandezas físicas (temperatura T, entropia S e quantidade de calor ΔQ) inerentes aos processos caloríficos, bem como distinguindo, também mecanicamente, os processos reversíveis e irreversíveis. Desse modo, institucionalizou-se a disciplina Termodinâmica. Assim, entre 1868 e 1872, o físico austríaco Ludwig Edward Boltzmann (1844-1906) realizou vários trabalhos usando a visão mecânica do calor. Nesses trabalhos, além de encontrar uma expressão analítica para S, ele definiu, em 1872, a função H(t) = ∫∫∫f(, t) log f(, t) d3, que satisfaz á expressão dH/dt ≤ 0 – o célebre Teorema H– cujo principal resultado é o de que a entropia cresce nos processos irreversíveis. Note que f(, t) d3representa o número de moléculas que tem a velocidade () entre  e  + d. [Sílvio Roberto de Azevedo Salinas, Cadernos de História e Filosofia da Ciência 3, p. 28, CLEHC/UNICAMP (1982); Kerson Huang, Statistical Mechanics (John Wiley and Sons, Inc., 1963); Ryogo Kubo, Statistical Mechanics, (North-Holland Publishing Co., 1971).
                   No entanto, conforme vimos em verbete desta série, em 1876, o químico austríaco Johann Joseph Loschmidt (1821-1895) criticou os trabalhos de Boltzmann, usando o seguinte argumento (mais tarde denominado paradoxo da irreversibilidade): - Sendo as leis da Mecânica reversíveis no tempo (de acordo com a Segunda Lei de Newtonelas, portanto, não poderão descrever uma função tipo entropia e nem os processos irreversíveis que ela descreve. Para responder a esse argumento, Boltzmann adotou então a interpretação probabilística da entropia, apresentando em 1877, aseguinte expressão: S = k n Ω, onde k foi mais tarde chamada de constante de Boltzmann e Ω é o número de configurações possíveis de um sistema. [Enrico Fermi, Termodinámica, (Livraria Almedina, 1973)]. Essa equação significa que a entropia mede a desordem molecular. A partir daí, a disciplina Termodinâmica deu lugar à Mecânica Estatística e a Segunda Lei da Termodinâmica passou a ser escrita como: - A entropia do Universo cresce, que passou a significar que o tempo é irreversível e que, portanto, não se pode inverter a flecha do tempo, expressão essa que foi cunhada pelo astrônomo, físico e matemático inglês Sir Arthur Stanley Eddington (1882-1944), apresentada em seu livro The Nature of the Physical World (MacMillan, 1928). A irreversibilidade temporal tratada acima traduz o aspecto do tempo termodinâmico.


Em 1850 (Annalen der Physik und Chimie 79, p. 368; 500), o físico alemão Rudolf Julius Emmanuel Clausius (1822-1888) afirmou que a produção de trabalho nas máquinas térmicas não resultava meramente do deslocamento do calor da fonte quente para a fonte fria e sim, também, por consumo de calor. Afirmou mais ainda que o calor poderia ser produzido às expensas de trabalho mecânico e que, portanto, era impossível realizar um processo cíclico cujo único efeito seja o de transferir calor de um corpo mais frio para um corpo mais quente. Essas afirmações se constituem na primeira idéia do que hoje se conhece como Segunda Lei da Termodinâmica. Em 1851 (Transactions of the Royal Society of Edinburgh 20, p. 261), o físico inglês William Thomson, Lord Kelvin (1824-1907) apresentou uma nova versão para essa lei da Termodinâmica, baseada na tese da irreversibilidade e dissipação do calor. Em 1854 (Annalen der Physik und Chimie 93, p. 481), Clausius começou a pensar que a transformação de calor em trabalho e a transformação de calor em alta temperatura para calor em baixa temperatura poderia ser equivalentes. Em vista disso, propôs que o fluxo de calor de um corpo quente para um corpo frio (com a conseqüente transformação de calor em trabalho) deveria ser compensado pela conservação de trabalho em calor, de modo que o calor deveria fluir do corpo frio para o corpo quente. Desse modo, Clausius introduziu o conceito de valor de equivalência de uma transformação térmica e que era medido pela relação entre a quantidade de calor () e a temperatura (T) na qual ocorre a transformação. Por intermédio desse novo conceito físico, Clausius pôde fazer a distinção entre processos reversíveis e irreversíveis. Assim, assumindo arbitrariamente que a transformação de calor de um corpo quente para um frio tivesse um "valor de equivalência" positivo, ele apresentou uma nova versão para a Segunda Lei da TermodinâmicaA soma algébrica de todas as transformações ocorrendo em um processo circular somente pode ser positiva.Foi somente em 1865 (Annalen der Physik und Chimie 125, p. 353) que Clausius propôs o termo entropia (do grego, que significa transformação), denotando-o por S, em lugar do termo valor de equivalência. Nesse trabalho, ao retomar suas idéias sobre esse novo conceito físico, Clausius considerou um ciclo qualquer como constituído de uma sucessão de ciclos infinitesimais de Carnot e chegou ao seu célebre teorema:

onde o sinal de menor (<) ocorre para as transformações irreversíveis e o sinal de igualdade (=), para as reversíveis. Ainda nesse trabalho, Clausius resumiu as Leis da Termodinâmica nas expressões: Primeira Lei da Termodinâmica A energia do Universo é constanteSegunda Lei da Termodinâmica - A entropia do Universo tende para um máximo.
É oportuno destacar que, em 1824, o físico francês Nicolas Sadi Carnot (1796-1832) publicou seu famoso livro Reflexions sur la Puissance Motrice du Feu et sur les Machines Propres à Developper cette Puissance, no qual descreveu sua máquina de calor como uma máquina ideal sem atrito, que realiza um ciclo completo, de modo que a substância usada - vapor, gás ou outra qualquer - é levada de volta ao seu estado inicial. Esse ciclo, mais tarde conhecido como ciclo de Carnot, é composto de duas transformações adiabáticas (troca de calor constante) e duas transformações isotérmicas (temperatura constante).
O caráter probabilístico da Segunda Lei da Termodinâmica foi sugerido pelo físico e matemático escocês James Clerk Maxwell (1831-1879) em uma carta que escreveu, em dezembro de 1867, para o físico inglês Peter Guthrie Tait (1831-1901). Nessa carta, apresentou o seguinte exemplo. Seja um recipiente contendo um gás a uma temperatura fixa; suponhamos que no meio desse recipiente exista uma parede contendo uma janela que poderá ser manejada por um doorkeep very inteligent and exceedingly quick microscopic eyes ("porteiro muito inteligente e que tem olhos microscópicos e extremamente rápidos"). Este porteiro deixava passar, através dessa janela, partículas que tivessem velocidades altas e impediria a passagem das que tivessem velocidades baixas, já que, segundo sua distribuição de velocidades (distribuição essa que Maxwell havia proposto em 1860), num gás em equilíbrio, as partículas se distribuem com as mais variadas velocidades. Desse modo e por ação desse "demônio", depois de um certo tempo, um lado do recipiente estaria mais quente que o outro, mostrando, assim, que o fluxo de calor poderia ser em dois sentidos, e não em apenas um, conforme indicava aquela Lei Termodinâmica. Registre-se que, conforme nos conta o físico e historiador da ciência, o holandês Abraham Pais (1918-2000) em seu livro 'Subtle is the Lord...' The Science and the Life of Albert Einstein (Oxford University Press, 1983), quando Tait mostrou a carta para Kelvin, este chamou de demônio de Maxwell ao "porteiro" considerado por Maxwell. É oportuno também registrar que esse "demônio" foi "exorcizado", em 1951 (Journal of Applied Physics 22, p. 334), quando o físico francês Léon Nicolas Brillouin (1889-1969) demonstrou que o decréscimo de entropia resultante das ações do "demônio de Maxwell" poderia ser superado pelo aumento da entropia na escolha entre as velocidades baixas e altas.
Um outro aspecto da necessidade do raciocínio probabilístico para o entendimento da entropia foi apresentado pelo físico e químico austríaco Johann Joseph Loschmidt (1821-1895), em 1876 (Sitzungsberichte der Akademie der Wissenschaften zu Wien 73, p. 128; 336), por meio do seguinte argumento - mais tarde denominado de paradoxo da irreversibilidadeSendo as leis da Mecânica reversíveis no tempo (por exemplo, no caso unidimensional), , não poderão, portanto, descrever uma função do tipo entropia e os processos irreversíveis que ela descreve. Por exemplo, argüiu Loschmidt, em todo processo no qual a entropia cresce, existe um processo análogo, com as velocidades das partículas, em que a entropia diminui, significando isso dizer que o aumento ou a diminuição da entropia depende apenas das condições iniciais do sistema físico em consideração. Tal afirmação ia de encontro a Segunda Lei da Termodinâmica. Note-se que um interessante estudo sobre o paradoxo da irreversibilidade pode ser encontrado no artigo escrito pelos historiadores da ciência, os brasileiros S. B. Volchan e Antonio Augusto Passos Videira, Revista Brasileira de Ensino de Física 23, p. 19 (2001).
O raciocínio probabilístico foi introduzido formalmente na Segunda Lei da Termodinâmica, pelo físico austríaco Ludwig Edward Boltzmann (1844-1906). Vejamos como. Em 1866 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zu Wien 53, p 195), Boltzmann formulou um modelo mecânico no qual considerou que as partículas de um gás se moviam em órbitas periódicas e, com isso, deduziu uma expressão analítica para a entropia que dependia do período das partículas em suas órbitas, e que aumentava com o tempo. Contudo, esse modelo de Boltzmann foi muito criticado, inclusive por Clausius. Em vista disso, em 1868 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zu Wien 58, p. 517), Boltzmann apresentou um novo tratamento (ainda mecânico) para a entropia ao admitir que em um gás ideal, composto de um grande número (N) de moléculas, as interações entre elas poderiam ser negligenciadas. Isso significava considerar que as colisões entre as moléculas eram binárias e supor que suas velocidades são não-correlacionadas [hipótese essa conhecida como caos molecular("Stosszahlansatz")] e que já havia sido considerada por Maxwell e Clausius. Assim, para Boltzmann, a energia total (E) nas N moléculas é constante e pode ser distribuída de diversas maneiras, nos chamadosmicroestados.
Apesar dessa nova tentativa de Boltzmann, esse seu novo modelo mecânico não explicou o paradoxo da irreversibilidade que Loschmidt havia apresentado em 1876, conforme vimos acima. Em vista disso, Boltzmann passou a considerar o raciocínio probabilístico, em trabalhos que publicou em 1877 (Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften zu Wien 75; 76, p. 75; 373). Nesses trabalhos, considerou que todos os "microestados" [aos quais denominou de complexions (configurações)] têm a mesma probabilidade P. Além disso, chamou de macroestado ao estado no qual uma molécula específica tem energia . Desse modo, concluiu que a  de um "macroestado" é proporcional ao número de microestados nos quais a energia remanescente  é distribuída entre as N - 1 moléculas restantes, isto é: . É oportuno registrar que foi o próprio Boltzmann que, em 1876, generalizou a lei de distribuição de velocidades Maxwelliana, ao considerar a energia total (energia cinética mais energia potencial), e não a energia cinética, como admitido por Maxwell, no argumento da exponencial (vide expressão anterior) representativa daquela lei.
Boltzmann considerou o número W (inicial da palavra alemã Wahrscheinlichkeit, que significa probabilidade) de configurações ('complexions') distintas de um macroestado envolvendo suas N () moléculas, onde no representa o número de moléculas com energia(), n1 representa o número de moléculas com energia n2 representa o número de moléculas com energia(), ... e nr com energia () onde e é uma constante positiva e  e, pelo princípio da conservação do número de partículas e da energia, deveremos ter:  e . Para calcular W, Boltzmann usou o raciocínio combinatório, ou seja, considerou que:  e, desse modo, usando a hipótese das probabilidades iguais, escreveu que a probabilidade  de ocorrência de uma configuração pertencente ao conjunto definido pelos "números de ocupação" () é dado por: P = CW, onde C é uma constante. Ora, como a entropia do sistema considerado é igual a soma das entropias de seus componentes, como as probabilidades das 'complexions' do mesmo sistema devem ser multiplicadas, e considerando que o logaritmo do produto de números é igual a soma dos logaritmos dos fatores, é fácil ver como Boltzmann chegou à sua célebre expressão da entropia: , onde k é uma constante. É oportuno observar que, embora essa expressão esteja gravada no túmulo de Boltzmann, no Cemitério Central de Viena, ela só foi escrita dessa maneira pelo físico alemão Max Karl Ernst Planck (1858-1947; PNF, 1918) que, por sua vez, introduziu k, denominada por ele de constante de Boltzmann, pela primeira vez em sua célebre fórmula de 1900, sobre a distribuição de equilíbrio térmico da radiação (de freqüência v) do corpo negro, que considera a energia quantizada, ou seja: .


Teorema H

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegaçãoSaltar para a pesquisa
Neste modelo mecânico de um gás, o movimento das moléculas parece muito desordenado. Boltzmann mostrou que, assumindo que cada configuração de colisão em um gás é verdadeiramente aleatória e independente, o gás converge para a distribuição de velocidade de Maxwell, mesmo que não tenha começado dessa maneira..
Em mecânica estatística clássica, o teorema H, introduzido por Ludwig Boltzmann em 1872, descreve a tendência para diminuir a quantidade H em um gás quase-ideal de moléculas[1]. Como essa quantidade H deveria representar a entropia da termodinâmica, o teorema H foi uma demonstração inicial do poder da mecânica estatística, já que afirmava derivar a segunda lei da termodinâmica - uma declaração sobre processos fundamentalmente irreversíveis - da mecânica microscópica reversível. O teorema H é uma conseqüência natural da equação cinética derivada por Boltzmann que passou a ser conhecida como equação de Boltzmann.[2][3][4]

Definição e significado do H de Boltzmann[editar | editar código-fonte]

O valor H é determinado a partir da função f(EtdE, que é a função de distribuição de energia das moléculas no tempo t. O valor f(EtdE dE é o número de moléculas que possuem energia cinética entre E e E + dE. O próprio H é definido como
Para um gás ideal isolado (com energia total fixa e número total fixo de partículas), a função H é mínima quando as partículas possuem uma distribuição de Maxwell-Boltzmann; se as moléculas do gás ideal forem distribuídas de alguma outra maneira (por exemplo, todas com a mesma energia cinética), então o valor de H será maior. O teorema H de Boltzmann demonstra que quando as colisões entre moléculas são permitidas, essas distribuições são instáveis e tendem a procurar irreversivelmente o valor mínimo de H (para a distribuição de Maxwell-Boltzmann)

teorema H e categorias de Graceli



Matriz categorial de Graceli.


T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


Tipos, níveis, potenciais, tempo de ação [categorias de Graceli], temperatura, eletricidade, magnetismo, radioatividade, luminescências, dinâmicas, estruturas, fenômenos, transições de fenômenos e estados físicos, e estados de energias, dimensões fenomênicas de Graceli.
trans-intermecânica de TUNELAMENTO no sistema categorial de Graceli.

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.

[pTFE] = POTENCIAL DE TRANSIÇÕES DE FASES DE ESTADOS FÍSICOS E DE ENERGIAS E FANÔMENOS [TRANSIÇÕES DE GRACELI]

, [pTEMRLD] [hc] [pI] [PF] [pIT][pTFE] [CG]..



X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



 dH/dt ≤ 0 
X
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


O Tempo na Termodinâmica.

Neste verbete, abordaremos a questão de reversibilidade ou irreversibilidade do tempo, questão essa que só foi evidenciada por ocasião da Segunda Lei da Termodinâmica, que surge a partir do estudo das máquinas a vapor ou máquinas térmicas, e que tem como base a expansão térmica dos gases (ver verbetes nesta série). .    
                   A expansão térmica dos gases já era conhecida no mundo antigo. Porém, sua primeira aplicação prática deve-se ao físico francês Denis Papin (1647-1712) ao descobrir, em 1698, que a água fervida ao ser colocada em um tubo oco faria com que o vapor resultante deslocasse uma espécie de êmbulo colocado na outra extremidade desse tubo. Nesse mesmo ano de 1698, o engenheiro inglês Thomas Savery (c.1650-1715) inventou um dispositivo que produzia vácuo pela condensação do vapor d´água. Assim, quando adaptado à extremidade de um tubo longo, este poderia aspirar água de qualquer reservatório. No entanto, essa máquina a vapor apresentava muitas limitações, principalmente quando eram utilizadas altas pressões (acima de 8 a 10 atmosferas).
                   A máquina a vapor de Savery foi aperfeiçoada pelo engenheiro inglês Thomas Newcomen (1663-1729), em 1705, ao construir cilindros nos quais os êmbulos (pistões) se ajustavam. O movimento de vaivém desses pistões devia-se, respectivamente, à expansão e ao resfriamento do vapor. No entanto, como a água destinada a condensar o vapor esfriava também os pistões, desse modo, grande quantidade de calor era desperdiçada. Para contornar essa dificuldade, o engenheiro escocês James Watt (1736-1819), em 1765, inventou o condensador, separado, para esfriar o vapor sem, contudo, esfriar os pistões.
                   Em verbete desta série, vimos que a eficiência das máquinas a vapor é bastante baixa, cerca de 5% a 7%; em vista disso, o físico francês Nicolas Leonard Sadi Carnot (1796-1832) procurou melhorá-la. Assim, em 1824, em seu livro Réflexions sur la Puissance Motrice du Feu et sur les Machines Propres à Developper cette Puissance (“Reflexões sobre a Potência Motriz do Fogo e sobre as Máquinas próprias para Desenvolver essa Potência”), Carnot descreveu uma máquina ideal sem atrito, que realiza um ciclo completo de modo que a substância usada – vapor ou ar atmosférico – é levada de volta ao seu estado inicial. Carnot concluiu seu estudo dizendo: - A potência motriz do calor é independente dos agentes empregados para produzi-la e sua quantidade só depende das temperaturas inicial e final desses agentes.
                   A máquina de Carnot foi estudada pelo físico francês Emile Clapeyron (1799-1864), em 1834, ocasião em que o ciclo de Carnot foi pela primeira vez representado graficamente [hoje esse gráfico é conhecido como diagrama P-V  pressão-volume)] por duas transformações adiabáticas (quantidade de calor constante) e duas isotérmicas (temperatura constante). Com isso, Clapeyron demonstrou que a produção de trabalho nessa máquina dependia somente da diferença de temperatura entre os reservatórios térmicos (fontes quente e fria) considerados por Carnot. Em 1848, o físico inglês William Thomson, Lord Kelvin (1824-1907) estudando o ciclo de Carnot-Clapeyron, propôs o conceito de temperatura absoluta (T). Por sua vez, em 1850, o físico alemão Rudolf Emmanuel Clausius (1822-1888) demonstrou que a produção de trabalho nas máquinas térmicas não resultava simplesmente do deslocamento do calor da fonte quente para a fonte fria e sim, também, por consumo de calor. Assim, escreveu que: - É impossível realizar um processo cíclico cujo efeito único seja transferir calor de um corpo mais frio para um mais quente. Esta afirmação ficou mais tarde conhecida como a Segunda Lei da Termodinâmica. Note que esta lei foi reinterpretada por Kelvin, em 1851, no trabalho intitulado On the Dynamical Theory of Heat (“Sobre a Teoria Dinâmica do Calor”), por intermédio da tese de irreversibilidade e dissipação do calor.
                   Ao formular sua lei, Clausius preocupou-se, basicamente, com a direcionalidade do fluxo do calor, isto é, com a tendência do calor fluir de uma fonte quente para uma fonte fria. Assim, a partir de 1854, começou a pensar que a transformação de calor em alta temperatura para calor em baixa temperatura deveriam ser equivalentes. Em vista disso, introduziu o conceito de valor de equivalência de uma transformação térmica e que era medido pela relação entre a quantidade de calor (ΔQ) e a temperatura (T) na qual ocorre essa transformação. Por intermédio desse novo conceito físico [o qual denominou de entropia (S) (do grego que significação transformação), em 1865], pôde Clausius fazer a distinção entre processos reversíveis e irreversíveis. É oportuno registrar que o engenheiro escocês William John Macquorn Rankine (1820-1872) propôs um conceito similar a esse de Clausius, para o qual denominou de função termodinâmica, porém não o aplicou a processos irreversíveis [P. M. Harman, Energy, Force, and Matter (Cambridge University Press, 1985)]. Desse modo, considerando um ciclo qualquer como uma sucessão de ciclos infinitesimais de Carnot, ainda em 1865, Clausius apresentou seu célebre Teorema:

,

onde o sinal de menor (<) ocorre para as transformações irreversíveis e o sinal de igualdade (=), para as reversíveis. [Note que esse Teorema de Clausius foi generalizado pelo físico, matemático e filósofo Jules Henri Poincaré (1854-1912), conforme se pode ver em seu livro Thermodinamique (“Termodinâmica”), de 1908].                  Adotando o termo energia (que havia sido universalizado por Kelvin e por Rankine), Clausius resumiu, ainda em 1865, o resultado de suas pesquisas sobre a teoria do calor, nas hoje conhecidas: Primeira Lei da Termodinâmica – A energia (E) do Universo é constanteSegunda Lei da Termodinâmica – A entropia (S) do Universo tende para um máximo.
                   Considerando que o calor tinha uma base mecânica, os físicos passaram então a explicar mecanicamente as grandezas físicas (temperatura T, entropia S e quantidade de calor ΔQ) inerentes aos processos caloríficos, bem como distinguindo, também mecanicamente, os processos reversíveis e irreversíveis. Desse modo, institucionalizou-se a disciplina Termodinâmica. Assim, entre 1868 e 1872, o físico austríaco Ludwig Edward Boltzmann (1844-1906) realizou vários trabalhos usando a visão mecânica do calor. Nesses trabalhos, além de encontrar uma expressão analítica para S, ele definiu, em 1872, a função H(t) = ∫∫∫f(, t) log f(, t) d3, que satisfaz á expressão dH/dt ≤ 0 – o célebre Teorema H– cujo principal resultado é o de que a entropia cresce nos processos irreversíveis. Note que f(, t) d3representa o número de moléculas que tem a velocidade () entre  e  + d. [Sílvio Roberto de Azevedo Salinas, Cadernos de História e Filosofia da Ciência 3, p. 28, CLEHC/UNICAMP (1982); Kerson Huang, Statistical Mechanics (John Wiley and Sons, Inc., 1963); Ryogo Kubo, Statistical Mechanics, (North-Holland Publishing Co., 1971).
                   No entanto, conforme vimos em verbete desta série, em 1876, o químico austríaco Johann Joseph Loschmidt (1821-1895) criticou os trabalhos de Boltzmann, usando o seguinte argumento (mais tarde denominado paradoxo da irreversibilidade): - Sendo as leis da Mecânica reversíveis no tempo (de acordo com a Segunda Lei de Newtonelas, portanto, não poderão descrever uma função tipo entropia e nem os processos irreversíveis que ela descreve. Para responder a esse argumento, Boltzmann adotou então a interpretação probabilística da entropia, apresentando em 1877, aseguinte expressão: S = k n Ω, onde k foi mais tarde chamada de constante de Boltzmann e Ω é o número de configurações possíveis de um sistema. [Enrico Fermi, Termodinámica, (Livraria Almedina, 1973)]. Essa equação significa que a entropia mede a desordem molecular. A partir daí, a disciplina Termodinâmica deu lugar à Mecânica Estatística e a Segunda Lei da Termodinâmica passou a ser escrita como: - A entropia do Universo cresce, que passou a significar que o tempo é irreversível e que, portanto, não se pode inverter a flecha do tempo, expressão essa que foi cunhada pelo astrônomo, físico e matemático inglês Sir Arthur Stanley Eddington (1882-1944), apresentada em seu livro The Nature of the Physical World (MacMillan, 1928). A irreversibilidade temporal tratada acima traduz o aspecto do tempo termodinâmico.



Teorema H

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegaçãoSaltar para a pesquisa
Neste modelo mecânico de um gás, o movimento das moléculas parece muito desordenado. Boltzmann mostrou que, assumindo que cada configuração de colisão em um gás é verdadeiramente aleatória e independente, o gás converge para a distribuição de velocidade de Maxwell, mesmo que não tenha começado dessa maneira..
Em mecânica estatística clássica, o teorema H, introduzido por Ludwig Boltzmann em 1872, descreve a tendência para diminuir a quantidade H em um gás quase-ideal de moléculas[1]. Como essa quantidade H deveria representar a entropia da termodinâmica, o teorema H foi uma demonstração inicial do poder da mecânica estatística, já que afirmava derivar a segunda lei da termodinâmica - uma declaração sobre processos fundamentalmente irreversíveis - da mecânica microscópica reversível. O teorema H é uma conseqüência natural da equação cinética derivada por Boltzmann que passou a ser conhecida como equação de Boltzmann.[2][3][4]

Definição e significado do H de Boltzmann[editar | editar código-fonte]

O valor H é determinado a partir da função f(EtdE, que é a função de distribuição de energia das moléculas no tempo t. O valor f(EtdE dE é o número de moléculas que possuem energia cinética entre E e E + dE. O próprio H é definido como
Para um gás ideal isolado (com energia total fixa e número total fixo de partículas), a função H é mínima quando as partículas possuem uma distribuição de Maxwell-Boltzmann; se as moléculas do gás ideal forem distribuídas de alguma outra maneira (por exemplo, todas com a mesma energia cinética), então o valor de H será maior. O teorema H de Boltzmann demonstra que quando as colisões entre moléculas são permitidas, essas distribuições são instáveis e tendem a procurar irreversivelmente o valor mínimo de H (para a distribuição de Maxwell-Boltzmann)

sexta-feira, 19 de outubro de 2018


Comprimento de Onda Compton no sistema categorial Graceli.


, [pTEMR1D] [pI] [PF] [pIT] [CG].


E = h   [pTEMR1D] [pI] [PF] [pIT] [CG].


  [pTEMR1D] [pI] [PF] [pIT] [CG].


  [pTEMR1D] [pI] [PF] [pIT] [CG].

(p = m0 v)  [pTEMR1D] [pI] [PF] [pIT] [CG].


 = h/(m0c)   [pTEMR1D] [pI] [PF] [pIT] [CG].


   [pTEMR1D] [pI] [PF] [pIT] [CG].


   [pTEMR1D] [pI] [PF] [pIT] [CG].


()   [pTEMR1D] [pI] [PF] [pIT] [CG].


= c/= h/p= h/m0c =   [pTEMR1D] [pI] [PF] [pIT] [CG].



  [pTEMR1D] [pI] [PF] [pIT] [CG].




 em 1905 (Annalen der Physik 17, p. 132), o físico germano-suíço-norte-americano Albert Einstein (1879-1955; PNF, 1921) propôs que a luz, no vácuo, com velocidade c e freqüência  (e comprimento de onda ), se comporta como um “pacote (quantum) de energia” dado por: E = h , onde h é a constante de Planck. Ainda em 1905 (Annalen der Physik 17; 18, pgs. 891; 639), Einstein demonstrou que a energia total de um corpo (E), de massa de repouso (m0), é dada por E = m c2, onde é a massa inercial. Essa expressão da energia, que também pode ser escrita na forma: E2 = p2c2 + (m0c2)2, com p = m v, mostra que um corpo em  repouso, em que sua velocidade é nula (v = 0), tem energia dada por E0 = m0c2, conhecida como energia de repouso. Mais tarde, em 1909, em trabalhos independentes, Einstein (Physikalische Zeitschrift 10, p. 185) e o físico alemão Johannes Stark (1874-1957; PNF, 1919) (Physikalische Zeitschrift 10, p. 902), propuseram as primeiras idéias de que o quantum de luz Einsteiniano apresentava um caráter dual “onda-partícula”, dado por: , com p = mc.  É oportuno registrar que, como a luz tem velocidade c, a expressão para m vista acima adquire o valor infinito, a menos que m0 = 0, para a luz. Portanto, para a luz, a sua massa m é sempre inercial. Registre-se que, ainda em 1909 (Philosophical Magazine 18, p. 510), os físicos químicos norte-americanos Gilbert Newton Lewis (1875-1946) e Richard Chase Tolman (1881-1948) deduziram as expressões relativistas para a energia () e momento linear  () de uma partícula de massa relativista ( ), partindo da suposição de que as leis de conservação dessas grandezas físicas se conservam em todos os referenciais inerciais.
                   Por sua vez, em 1923 (Physical Review 21, p. 483), o físico norte-americano Arthur Holly Compton (1892-1962; PNF, 1927) estudou o espalhamento de raios-X pela matéria, ocasião em que demonstrou a seguinte expressão: , onde   e  representam, respectivamente, os comprimentos de onda dos raios-X , antes e depois de serem espalhados por elétrons de massa de repouso m0 é o ângulo de espalhamento e  = h/(m0c) significa o  comprimento de onda Compton. Ainda em 1923 (Comptes Rendus de l´Academie des Sciences de Paris 177, pgs. 507; 548; 630), o físico francês, o Príncipe Louis Victor Pierre Raymond de Broglie (1892-1987; PNF, 1929) propôs que o movimento do elétron de massa de repouso m0 e velocidade v, em uma órbita circular atômica é guiado por uma onda-piloto, cujo comprimento de onda  se relaciona com o seu momento linear (p = m0 v) por intermédio da expressão:   = h/p. A partir dessa proposta de Broglie do caráter dual do elétron, que foi confirmada nas célebres experiências realizadas, em 1927 (Nature 119, p. 558; Physical Review 30, p. 705), pelos físicos norte-americanos Clinton Joseph Davisson (1881-1958; PNF, 1937) e Lester Halbert Germer (1896-1971) ao observaram a difração de elétrons em cristais de níquel (Ni), a dualidade onda-partícula foi estendida para toda a matéria, com a luz incluída.
                   Em vista dos resultados apresentados acima, os físicos brasileiros Benedito Tadeu Ferreira de Moraes (n.1963) e José Maria Filardo Bassalo (n.1935), escreveram o trabalho intitulado A Obtenção do Comprimento de Onda Compton por Intermédio de uma Interpretação Quantum-Relativística das Partículas em Repouso (Preprint, 2008), no qual demonstram que a energia relativista das partículas (E), com velocidade v e massa inercial m, pode ser escrita na  forma: , onde o primeiro termo do lado direito representa a energia cinética e o segundo termo, a energia de repouso, e  (definido acima) é o fator de correção relativístico. Da expressão acima segue que, para baixas velocidades, em que , tem-se: . Além disso e ainda no trabalho referido acima, apresentamos a conjectura de que uma partícula (p.e.: elétron) em repouso, possui as seguintes características: energia de repouso E0 = m0c2 = (m0c) c; momentum de repouso p= m0c; comprimento de onda de repouso ; e freqüência de repouso (), relacionados pelas seguintes expressões: = c/= h/p= h/m0c =  e  , com .  
                   Em vista da conjectura proposta , pode-se concluir que: 1) o comprimento de onda Compton () pode ser interpretado como o comprimento de onda associado a uma partícula em repouso (), e que é algo inerente à matéria; 2) há sempre uma onda associada a uma partícula, quer ela esteja em repouso, quer ela esteja em movimento.






Condução Térmica nos Sólidos no sistema categorial Graceli.


EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.



, [pTEMR1D] [pI] [PF] [pIT] [CG].








d2T – k T dx  , [pTEMR1D] [pI] [PF] [pIT] [CG].



(x) = (1/2 +

+ (1/,, [pTEMR1D] [pI] [PF] [pIT] [CG].



f(x) = (1/ , [pTEMR1D] [pI] [PF] [pIT] [CG].




 [ + (1/k) t]  , [pTEMR1D] [pI] [PF] [pIT] [CG].


onde se forma com isto uma trans-intermecânica categorial Graceli, transcendente e indeterminada.






Em 1804 (Journal de Mines 17, p. 203), o físico francês Jean-Baptiste Biot (1774-1862), foi um dos primeiros a apresentar uma expressão matemática para estudar a condução do calor nas barras metálicas, ocasião em que fez a distinção entre condução interna e radiação externa. Sua expressão (representada pela equação diferencial: d2T – k T dx = 0, onde T é a temperatura, k a condutividade térmica, e x a posição), contudo, apresentava uma grande dificuldade, pois não levava em consideração o tempo (t), parâmetro fundamental para tratar a condução térmica.
                   Mais tarde, em 1807, o matemático francês Jean-Baptiste-Joseph Fourier (1768-1830) comunicou à Academia Francesa de Ciências (AFC) uma memória que continha uma expressão matemática para explicar a difusão do calor em corpos de formas especiais (retângulo, anel, esfera, cilindro e prisma), e que contornava a dificuldade da equação de Biot, pois sua expressão envolvia o tempo (t). Os examinadores desse trabalho de Fourier designados pela AFC, foram os matemáticos franceses Gaspard Monge (1746-1818), Sylvestre François Lacroix (1765-1843), Pierre Simon, Marquês de Laplace (1749-1827) e Joseph Louis, Conde de Lagrange (1736-1813); os três primeiros foram favoráveis à publicação, porém, Lagrange foi contra. O argumento usado por este famoso matemático foi o de simplesmente rejeitar a função apresentada por Fourier para expressar a condição inicial da temperatura (a hoje famosa série de Fourier):

(x) = (1/2 +

+ (1/,


por não acreditar que tais funções pudessem ser representadas por séries trigonométricas (seno e cosseno). Lagrange mantinha essa opinião desde a década de 1750, quando trabalhou no problema da corda vibrante. Em vista disso, em 1810, a AFC ofereceu um prêmio a quem resolvesse o problema da condução do calor.     
                Logo em 1811, Fourier preparou um trabalho para concorrer a esse prêmio. Nesse trabalho (uma versão revisada do de 1807), Fourier estudou a difusão do calor em corpos infinitos. No entanto, como nesses casos a periodicidade das séries de Fourier não era capaz de representar as condições iniciais do problema, Fourier substituiu-as por uma integral (mais tarde conhecida como integral de Fourier):

f(x) = (1/ .

Nesse trabalho, as suas últimas seções foram dedicadas aos aspectos físicos do calor, principalmente o problema da intensidade de sua radiação. Ele ganhou o prêmio, porém, o júri – provavelmente por insistência de Lagrange – fez críticas quanto à sua “precisão e generalidade”, consideradas por Fourier como uma repreensão injustificada. [Jerome R. Ravetz and I. Grattan-GuinnessINDictionary of Scientific Biography (Charles Scribner´s Sons, 1981).] É interessante destacar que somente em 1824, esse trabalho de Fourier foi então publicado nas Mémoires de l´Academie des Sciences de l´Institut de France (1819-1820).
                   Apesar dessa proposta, hoje inquestionável, ela não foi imediatamente aceita, tanto que, em 1815, Biot propôs uma nova equação para representar a perda de calor t por um corpo: t = a T + b T3, onde T é a diferença de temperatura entre o corpo quente e o ambiente que o envolve, e a e b são duas constantes. Em 1816, Biot mediu o fluxo de calor em barras metálicas. (M. P. Crosland, INDictionary of Scientific Biography, op. cit.)  
                   Foi somente em 1822, que Fourier publicou seu famoso livro intitulado ThéorieAnalytique de la Chaleur, no qual demonstrou que a condução do calor em um sólido homogêneo e isotrópico satisfaz a seguinte equação diferencial (em notação atual): [ + (1/k) t]  = 0, onde  é o operador Laplaciano que, em coordenadas cartesianas, é igual a:  + . Essa equação é hoje conhecida como equação da difusão ou equação de Fourier. É oportuno destacar que o trabalho de Fourier, exposto nesse livro, apresenta dois pioneiros aspectos históricos. Com efeito, pela primeira vez uma equação foi examinada sob o ponto de vista da consistência das unidades físicas das grandezas evolvidas nelas, podendo então Fourier ser considerado o iniciador da Análise Dimensional; e, também, pela primeira vez, um fenômeno físico foi estudado no âmbito matemático, o mais geral possível, por intermédio de uma equação diferencial parcial [Armand GibertOrigens Históricas da Física Moderna (Fundação Calouste Gulbenkian, 1982)]. Esse livro de Fourier foi importante para estudar o comportamento dos condutores percorridos por uma corrente elétrica.

sexta-feira, 26 de outubro de 2018

theory of potential vectors of Graceli.



that is, as the magnetic potential vector, there are others, but only that they vary in relation to the types, levels, potentials and time of isotope actions.



with this has a potential vector of interactions of energies, electrons, ions, charges, transformations, tunnels, and yellowing, conductivity, entropies and enthalpies, electrostatic potential, diffractions, refractions, deflections, reflections, radiations, luminescences, and others.





and which vary according to the categories and matrix of Graceli.

teoria de potenciais vetores de Graceli.

ou seja, como o vetor potencial magnético, existem outros, mas só que variam em relação aos tipos, níveis, potenciais e tempo de ações dos isótopos.

com isto tem potencial vetor de interações de energias, elétrons, íons, cargas, transformações, tunelamentos, e amaranhamentos, condutividade, entropias e entalpias, potencial eletrostático, difrações, refrações, deflexões, reflexões, radiações, luminescências, e outros.


e que variam conforme as categorias e matriz de Graceli.
Aharonov-Bohm Graceli Effect







the interference figure resulting from the diffraction of an electron beam passing through a screen with two slits [Young type experiment] can be displaced as long as, between the slits and behind the slits, concentrating a magnetic field such that it is null in the region of the "trajectory" of the electron beam after being diffracted by the two slits. This can be achieved, according to these physicists, with a long solenoid of transverse microscopic dimensions.




and it has variations according to temperature intensities, types of radioactive isotopes found in cracks, electric potential, luminescent, refractory potential, dynamical and quantum momentum, and media tunnels, electrostatic potential, conductivities, ion and charge interactions, transformations, entanglements, and others.

Efeito Aharonov-Bohm Graceli 



a figura de interferência decorrente da difração de um feixe de elétrons que atravessa um anteparo com duas fendas [experiência ``tipo Young’’ (vide verbete nesta série)] pode ser deslocada desde que, entre as fendas e por trás delas, se possa concentrar um campo magnético, de tal modo que este seja nulo na região da ``trajetória’’ do feixe de elétrons depois de difratado pelas duas fendas. Isto pode ser conseguido, segundo esses físicos, com um solenóide longo de dimensões transversais microscópicas. 

sendo que tem  variações conforme intensidades de temperaturas, tipos de isótopos radioativos que se encontra as fendas, potencial elétrico, luminescente, refratário, potencial momentum dinãmico e quãntico,  e tunelamentos de meios, potencial eletrostático, condutividades, interações de íons e cargas, transformações, emaranhamentos, e outros.

Efeito Aharonov-Bohm no sistema categorial Graceli.

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




 
X

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl





X

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



, com 

X

T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



Efeito Aharonov-Bohm. As primeiras idéias sobre o potencial vetor  foram apresentadas pelo físico alemão Franz Ernst Neumann (1798-1895), entre 1845 e 1847, quando analisou o processo de indução magnética em um circuito devido ao movimento relativo de magnetos ou circuitos próximos. A idéia da existência desse potencial também foi trabalhada pelos físicos alemães Wilhelm Eduard Weber (1804-1891), em 1848, e Gustav Robert Kirchhoff (1824-1887), em 1857. Apesar desses físicos apresentarem expressões analíticas para representar , foi o físico e matemático escocês James Clerk Maxwell (1831-1879) quem o conceituou, em 1865. Trabalhos formais com esse potencial também foram realizados pelos físicos, o dinamarquês Ludwig Valentin Lorenz (1829-1891), em 1863, e o holandês Hendrik Antoon Lorentz (1853-1928; PNF, 1902), em 1895. Muito embora esses físicos hajam trabalhado formalmente com , não existia uma interpretação física para ele. Foi o físico inglês Paul Adrien Maurice Dirac (1902-1984; PNF, 1933), em 1931, o primeiro a vislumbrar a importância física de  fazendo previsões sobre monopolos magnéticos, usando, contudo, a Mecânica Quântica. Mais tarde, em 1949, W. Eherenberg e R. S. Siday discutiram os efeitos dos potenciais eletromagnéticos na Mecânica Quântica (sobre este parágrafo, vide verbete nesta série).
Foi somente em 1959 (Physical Review 115, p. 485) que os físicos, o israelense Yakir Aharonov (n.1932) e o norte-americano David Joseph Bohm (1917-1992), publicaram um artigo no qual apresentaram claramente a importância física de  por intermédio de um fenômeno quântico de interferência, depois conhecido como efeito Aharonov-Bohm (EA-B). Nesse artigo, eles mostraram que a figura de interferência decorrente da difração de um feixe de elétrons que atravessa um anteparo com duas fendas [experiência ``tipo Young’’ (vide verbete nesta série)] pode ser deslocada desde que, entre as fendas e por trás delas, se possa concentrar um campo magnético, de tal modo que este seja nulo na região da ``trajetória’’ do feixe de elétrons depois de difratado pelas duas fendas. Isto pode ser conseguido, segundo esses físicos, com um solenóide longo de dimensões transversais microscópicas. Assim, uma corrente estacionária no solenóide gera um fluxo  dado pela expressão: , onde é qualquer circuito envolvendo o solenóide. Embora o campo de indução magnética  seja nulo fora do solenóide, o potencial vetor , que satisfaz a expressão acima, deve permanecer finito em algum lugar ao longo do circuito , qualquer que seja o ‘gauge’ escolhido, isto é: , onde  é uma função escalar. Vê-se que, com essa transformação, o fluxo definido acima fica invariante.
O experimento proposto por Aharonov e Bohm mostra que, embora o campo  seja nulo [e, portanto, também será nula a parte magnética da força de Lorentz ( ) correspondente, pois: ] ao longo da trajetória do feixe de elétrons (de carga  e velocidade ), ele implica um significado quântico especial para o potencial  que transcende seu ``papel clássico’’ como mero artifício matemático para o cálculo desse potencial, conforme Maxwell considerou. Registre-se que esse tipo de experimento foi realizado por R. G. Chambers, em 1960 (Physical Review Letters 5, p. 3), e por H. A. Fowler, L. Marton, J. A. Simpson e J. A. Suddeth, em 1961 (Journal of Applied Physics 32, p. 1153), usando “whiskers”, isto é, cristais de ferro que crescem na forma de microscópicos finos filamentos, e que, quando magnetizados, comportam-se como solenóides. [Richard Phillips Feynman, Robert Benjamin Leighton e M. Sands, The Feynman: Lectures on Physics, Volume II (Addison-Wesley, 1965).] É oportuno destacar que, antes, em 1956 (Zeitschrift für Physik 145, p. 377), G. Mollenstedt e H. Dücher realizaram experiências com um biprisma eletrostático (uma fina fibra metálica mantida em um potencial positivo com respeito a um par de condutores simétricos aterrados), com o que observaram o deslocamento do padrão de interferência de um feixe de elétrons. [Alexandre G. Rodrigues, Efeito Aharonov-Bohm para Partículas Relativísticas sem Spin. Tese de Mestrado, IFUSP (1999).]
Esses resultados experimentais motivaram estudos teóricos no sentido de explicá-los. Assim, ainda em 1960 (Physical Review 118, p. 623), os físicos norte-americanos Wendell Hinkle Furry (1907-1984) e Norman Foster Ramsey (n.1915; PNF, 1989) analisaram o EA-B com base no princípio da complementariedade e concluíram que ele é de origem puramente quântica. Ainda em 1960 (Zeitschrift für Physik 159, p. 243), H. Weneger estudou a aplicabilidade do EA-B em fases ópticas com elétrons. Por sua vez, em 1961 (Physical Review 124, p. 940), H. E. Mitler investigou o efeito de flutuações de vácuo na mensurabilidade do EA-B.
Em 1962 (Il Nuovo Cimento 23, p. 158), P. D. Noerdilinger introduziu uma nova questão para o entendimento do EA-B. Com efeito, considerando que o campo  é nulo na região do feixe de elétrons, estes só podem interagir com esse campo se uma teoria não-local for considerada. Antes de prosseguir, cremos ser oportuno fazer uma pequena discussão sobre teorias locais e não-locais.
A localidade ou separabilidade de uma dada teoria significa que uma ação realizada em um certo local não tem efeito instantâneo em sistemas separados, ou seja, que todas as interações entre objetos materiais que se fazem sentir no espaço-tempo são mediadas por sinais locais que viajam através do espaço e, portanto, são limitadas pela velocidade da luz no vácuo ( ), segundo a Relatividade Restrita Einsteiniana. Exemplos típicos de teorias locais, isto é, envolvendo somente interações locais, são: 1) Teoria Quântica Não-Relativista traduzida pela equação de Schrödinger, com a interpretação Borniana da função de onda Schrödingeriana  (vide verbete nesta série); 2) Teoria Relativista do Elétron traduzida pela equação de Dirac (vide verbete nesta série); 3) Teoria Quântica de Campos.
Por sua vez, a não-localidade ou inseparabilidade quântica significa que uma ação realizada em um certo local tem efeito instantâneo, sem sinal local, em sistemas separados; por isso, a não-localidade é traduzida como uma “ação à distância”. Há dois exemplos típicos de teorias não-locais. Uma clássica, a Teoria da Gravitação Newtoniana dada pela equação de Newton-Euler-Laplace: , onde  e  significam, respectivamente, velocidade e potenciais clássico; e a quântica, estudada na Mecânica Quântica de de Broglie-Bohm (MQBB), traduzida pela equação de Bohm [ , com , onde  e significam, respectivamente, velocidade e potenciais quântico. [Peter R. Holland, The Quantum Theory of Motion: An Account of the de Broglie-Bohm Causal Interpretation of Quantum Mechanics (Cambridge University Press, 1993); José Maria Filardo Bassalo, Paulo de Tarso Santos Alencar, Mauro Sérgio Dorsa Cattani e Antonio Boulhosa Nassar, Tópicos de Mecânica Quântica de de Broglie Bohm (EDUFPA, 2002).]
É oportuno ressaltar que a inseparabilidade quântica foi, durante quase trinta anos, apenas objeto de especulações acadêmicas, até o físico irlandês John S. Bell (1928-1990) demonstrar, em 1964 (Physics 1, p. 195), um teorema – a famosa desigualdade de Bell – que permitia testar experimentalmente aquela inseparabilidade. Registre que, desde 1975, o físico francês Alain Aspect e colaboradores vêm realizando experiências sobre aquela inseparabilidade, com resultados favoráveis à interpretação de Copenhague da Mecânica Quântica Ondulatória de Schrödinger (vide verbete nesta série). Para uma análise sobre esses resultados, veja-se: John Gribbin, À Procura do Gato de Schrödinger, (Editorial Presença, 1984); Holland (1993), op. cit; S. Gamboa-Eastman, Physics Essays 7, p. 3 (1994); Amit Goswami, Maggie Goswami e Richard E. Reed, O Universo Autoconsciente (Editora Rosa dos Tempos, 2000); e Gennaro Auletta, Foundations and Interpretation of Quantum Mechanics (World Scientific, 2001).
Voltemos ao EA-B. Ainda em 1962 (Physical Review 125, p. 2189), o físico norte-americano Bryce Seligman DeWitt (1923-2004) desenvolveu uma formulação não-local da Eletrodinâmica Quântica dependendo apenas dos campos eletromagnéticos e, com ela, concluiu ser falsa a afirmação da interpretação física do potencial vetor  proposta pelo EA-B. Esse resultado foi imediatamente contestado por Aharonov e Bohm, em 1962 (Physical Review 125, p. 2192) e 1963 (Physical Review 130, p. 1625), e por F. J. Belinfante, em 1962 (Physical Review 128, p. 2382). Este físico norte-americano mostrou que a função de onda utilizada por DeWitt, considerada como invariante ‘gauge’, na verdade dependia do caminho de integração.
Logo depois, em 1965, Feynman, Leighton e Sands (op. cit.) mostraram que o EA-B poderia ser explicado por uma teoria não-local considerando que o campo de indução  “atua à distância” no elétron que circula fora do solenóide. Aliás, essa é uma explicação análoga à dada pela gravitação Newtoniana quando uma mudança infinitesimal do Sol reflete “instantaneamente” sobre a Terra.
A discussão sobre a interpretação física do EA-B prosseguiu, agora com a participação dos físicos norte-americanos (ambos de origem chinesa) Tai Tsu Wu (n.1933) e Chen Ning Yang (n.1922; PNF, 1957). Com efeito, em 1975 (Physical Review D12, p. 3845), eles introduziram uma outra entidade física, que nem é  e nem , mas sim um fator de fase não-integrável, representado por um número complexo e que carrega a informação topológica de cada caminho  considerado na expressão que define o fluxo , vista anteriormente. Desse modo, eles mostraram que a Eletrodinâmica é um invariante de ‘gauge’ desse fator e que, portanto, o EA-B é de natureza topológica. (Auletta, op. cit.)
Contudo, esses resultados foram objeto de discussão por parte de P. Bocchieri e A. Loinger que, em artigos publicados em 1978 (Il Nuovo Cimento A47, p. 475), em 1980 (Il Nuovo Cimento A59, p. 121), e em 1981 (Lettere al Nuovo Cimento 30, p. 449), criticaram o resultado fundamental de Aharonov-Bohm, qual seja, o de que “o eletromagnetismo não é completamente descrito pelos campos elétrico e magnético e sim pelos potenciais eletromagnéticos”. Para Bocchieri e Loinger, uma escolha adequada de um potencial vetor por uma transformação de ‘gauge’ anularia o E-AB. No entanto, como esse potencial não obedece ao Teorema de Stokes, a discussão sobre esse efeito continuou, principalmente pela ocorrência de uma nova evidência experimental desse efeito, ocorrida em 1982 (A. Tonomura, T. Matsuda, R. Suzuki, A. Fukuhara, N. Osakabe, H. Umezaki, J. Endo, K. Shinagawa, Y. Sujita e H. Fujiwara, Physical Review Letters 48, p. 1443) e confirmada em 1986 (Osakabe, Matsuda, T. Kawasaki, Endo, Tonomura, S. Yano e H. Yamada, Physical Review A34, p. 815), em experiências nas quais foi usada uma técnica de holografia eletrônica. Esse resultado experimental levou o próprio Bohm, com a colaboração de C. Philippidis e R. D. Kaye, em 1982 (Il Nuovo Cimento B71, p. 75), a explicá-lo usando o potencial quântico Bohmniano ( ). É oportuno registrar que M. Peskin e Tonomura publicaram o livro intitulado The Aharonov-Bohm Effect (Springer, 1989), no qual há um excelente estudo de revisão sobre o EA-B, inclusive a forma elétrica desse efeito, ou seja, o deslocamento da figura de interferência decorrente da difração de um feixe de elétrons que atravessa um anteparo com duas fendas (experiência “tipo Young’’), deslocamento esse provocado por um potencial elétrico.
Na década de 1990, novos trabalhos (experimentais e teóricos) mostraram que o EA-B pode ser explicado sem usar o vetor potencial. Por exemplo, em 1992 (Physical Review Letters 68, p. 2409), B. E. Allman, A. Cimmino, A. G. Klein, G. I. Opat, H. Kaiser e S. A. Werner realizaram um experimento sobre o efeito escalar do EA-B envolvendo nêutrons, e no qual observaram que o campo eletromagnético interage com o momento magnético do nêutron. Por outro lado, em 1996 (Modern Physics Letters A11, p. 2825), os físicos brasileiros Marcelo Otávio Caminha Gomes (n.1941), Jorge Mario Carvalho Malbouisson (n.1959) e Adilson José da Silva (n.1947), e em 1997 (Physical Review D56, p. 3623), Horacio Oscar Girotti (n.1939), Gomes, Malbouisson e Silva estudaram o E-AB para partículas de spin ½, usando a Teoria de Campos que é uma teoria local, conforme salientamos. Em 2004 (Physical Review D70, Art. No. 129905), os físicos brasileiros Marcos Antonio Anacleto (n.1974), Gomes e Silva e a física francesa Dominique Spehler apresentaram, no contexto de uma Teoria de Campos, uma correção não-comutativa ao E-AB. É oportuno registrar que Bohm e Basil J. Hiley reuniram em um livro intitulado The Undivided Universe. An Ontological Interpretation of Quantum Theory (Routledge and Kegan Paul, 1993), os trabalhos que haviam realizado na década de 1980 sobre o caráter não-local da Mecânica Quântica. 

quarta-feira, 14 de novembro de 2018


Paradoxo EPR, o “Gato” de Schrödinger e a Mecânica de de Broglie-Bohm no sistema categorial Graceli.


matriz categorial Graceli.
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

[pitG] Potencial Graceli de interações e transformações].


H Y (, t ) = i  / t  Y (, t ) ,

H = T + V (, t),  T = 2/2m,   = - i  ,
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl






ρ = e Ψ*
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



YH Y dV.  
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




 (D F) (D G) ³  .
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl

(D px) (D x) ³  .
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl


  = a , sendo:  = 1.
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl





==,
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl



Ygato =    (Ygato-vivo  +   Ygato-morto ).
x
T l    T l     E l       Fl         dfG l   
N l    El                 tf l
P l    Ml                 tfefel 
Ta l   Rl
         Ll
         Dl




Paradoxo EPR, o “Gato” de Schrödinger e a Mecânica de de Broglie-Bohm.

Depois que o físico austríaco Erwin Schrödinger (1887-1961; PNF, 1933) propôs sua célebre equação (ES), em 1926 (Annalen der Physik 79, p. 361; 489; 734; 747; 80, p. 437):

H Y (, t ) = i  / t  Y (, t ) ,

H = T + V (, t),  T = 2/2m,   = - i  ,

surgiu uma questão intrigante, qual seja, a de saber o significado da função de onda de Schrödinger (Ψ). Inicialmente, o próprio Schrödinger apresentou uma interpretação para ela em seus trabalhos iniciais indicados acima, tratando-a apenas como um campo escalar mecânico que satisfazia formalmente à sua equação. Porém, observando que no átomo de hidrogênio (H) há emissão de ondas eletromagnéticas quando o elétron troca de órbita, Schrödinger, ainda em 1926 (Annalen der Physique 81, p. 136) propôs uma outra interpretação para Ψ afirmando que a densidade espacial ρ correspondente à carga (e) do elétron seria dada por: ρ = e Ψ* Ψ (* significa complexo conjugado) = e çY ç2, e o elétron, dessa forma, estaria como que espalhado no espaço como se fosse uma ``nuvem” (vide verbete nesta série).
                   Por outro lado, o físico alemão Max Born (1882-1970; PNF, 1954), ainda em 1926 (Zeitschrift fürPhysik 37, p. 863; 38 p. 803), estudando a dispersão de um feixe de elétrons, estes representados por ondas de matéria debroglieanas (vive verbete nesta série), observou que o número dos elétrons difundidos poderia ser calculado por meio de certa expressão quadrática, construída a partir da amplitude de uma onda esférica secundária, onda essa que era gerada pelo átomo espalhador do feixe eletrônico incidente. Desse modo, Born interpretou Y como sendo uma amplitude de probabilidade. Isso significava dizer que qualquer observável físico [posição, momento linear (velocidade), energia etc] de uma partícula é encontrada multiplicando-se a densidade de probabilidade calculada pela expressão Y*Y = çY ç2, pelo operador correspondente a esse observável, e integrando-se em todo o espaço. Por exemplo, para a energia (E) cujo operador é o hamiltoniano (H), tem-se: E = ∫espaço YH Y dV.  
                   A essa interpretação de Born sobrepôs-se uma outra questão. Será sempre possível observar qualquer grandeza física? A resposta a essa pergunta foi dada pelo físico alemão Werner Karl Heisenberg (1901-1976; PNF, 1932). Vejamos como ela aconteceu. Ao tentar representar, matematicamente, a trajetória de um elétron em uma câmara de névoa ou câmara de Wilson (vide verbete nesta série), Heisenberg percebeu que, embora se observe essa trajetória por intermédio de gotinhas de água isoladas na câmara, tais gotinhas, certamente, eram muito mais amplas que um elétron e, desse modo, só se registra uma sucessão discreta de lugares, imprecisamente determinados, do elétron. Portanto, a verdadeira questão, concluiu Heisenberg, era a de representar, dentro da Mecânica Quântica, uma situação que, de modo aproximado – quer dizer, com certa imprecisão –, possua uma determinada velocidade. Foibasicamenteesse raciocínio que o levou a apresentarem 1927 (Zeitschrift für Physik43, p. 172), o seu famoso Princípio da Incerteza (PIH), [Werner Heisenberg, Physics and Beyond: Encounters and Conversations (Harper and Row, Publishers, 1971); Abraham PaisNiels Bohr’s Times, In Physics, Philosophy and Polity (Clarendon Press, Oxford, 1991); David C. Cassidy, Uncertainty: The Life and Science of Werner Heisenberg (W. H. Freeman and Company, New York, 1992)], assim enunciado:

É impossível obter exatamente os valores simultâneos de duas variáveis, a não ser dentro de um limite mínimo de exatidão.

                   Aplicando-se o formalismo da Mecânica Quântica Ondulatória de Schrödinger (MQOS) aos operadores  e , que representam duas quaisquer quantidades físicas F e G, esse princípio é dado pelas famosas Relações de Incerteza de Heisenberg (RIH):

 (D F) (D G) ³  .

                   Vejamos o significado físico dessas relações. Como (D F) e (D G) representam, respectivamente, os valores médios dos erros nas medidas dos observáveis G, a expressão acima significa que essas  medidas não podem ser efetuadas com precisão, isto é, com erro nulo (a menos do erro inerente à medida experimental). Por outro lado, no formalismo da MQOS, os valores médios referidos acima são calculados por intermédio de Y. Em vista disso, a questão central dessa Mecânica Quântica seria o de relacionar Y com a medida do observável desejado. Assim, desenvolveu-se a famosa Teoria do Colapso da Função de Onda Y ou Redução da Função (Pacotede Onda (TCFO/RPO). [A. S. DavydovQuantum Mechanics (Pergamon Press, 1968); R. Shankar, Principles of Quantum Mechanics, (Plenum Press, 1994)].
                   É interessante destacar que, quando  e  representam, respectivamente, o operador momento linear () e o operador posição (), correspondentes ao momento linear (px) e a posição (x) de uma partícula, aquela relação toma o seguinte aspecto:

(D px) (D x) ³  .

                   Ainda segundo o formalismo da MQOS, o resultado da medida de dado observável, representado por um operador hermitiano , é um de seus autovalores a (sempre real), correspondente ao auto-estado , e definido pelas equações [José Maria Filardo Bassalo e Mauro Sérgio Dorsa CattaniCálculo Exterior (Livraria da Física, 2009)]:

  = a , sendo:  = 1.

                   No entanto, nem sempre o estado  de um sistema físico é um auto-estado (por exemplo, ). Portanto, como encontrar a medida do observável (a, por exemplo) correspondente àquele estado? Nesse caso, o estado desse sistema físico será uma superposição dos auto-estados , ou seja:

==,

onde  representa a amplitude de probabilidade de encontrar o sistema que se encontra no auto-estado . Desse modo, ao se efetuar a medida correspondente a um observável (a), a  do sistema em questão de alguma forma colapsa e passa a ser um dos possíveis auto-estados () que o sistema, anteriormente à medição, apenas tinha como potencialmente possível. Assim, o observador deixa de ser alheio ao processo físico e passa a ser parte integrante do que é observado (sujeito). Este resultado traduz a TCFO/RPO, mencionada acima. [B. J. MokrossRevista Brasileira de Física 19, p. 136 (1997)].  
                   As aplicações das RIH e TCFO/RPO discutidas acima foram (e ainda são!) motivo de muita discussão entre os físicos, principalmente pelos paradoxos que delas decorrem. Com efeito, a RIH foi objeto de grande polêmica entre os físicos, o dinamarquês Niels Henrik David Bohr (1885-1962; PNF, 1922) e o germano-norte-americano Albert Einstein (1879-1955; PNF, 1921), primeiro por ocasião da comemoração do centenário de morte do físico italiano Alessandro Giuseppe Volta (1745-1827), realizado em Como, na Itália, em 1927, e continuado nos Congressos Internacionais de Física de Solvay, de 1927 e 1930, realizados em Bruxelas, na Bélgica. [Paul Arthur Schilpp (Editor), Albert Einstein: Philosopher-Scientist (Open Court, 1970); Max Jammer, The Philosophy of Quantum Mechanics(John Wiley and Sons, 1974)]. Essa discussão decorreu, basicamente, do fato de que Bohr aceitava a interpretação borniana da MQOS, conhecida como a famosa Interpretação de Copenhague (IC), e Einstein não a aceitava. Ou, dito de outra maneira: Bohr acreditava que Y descrevia completamente a realidade física, enquanto Einstein achava que não. Registre que a IC recebeu esse nome porque Bohr ensinava e dirigia um grupo de pesquisa na Universidade de Copenhague, na Dinamarca. Essa interpretação também ficou conhecida como Interpretação Indeterminista (II), pois a RIH, base dessa interpretação, indicava que a posição (x) e a velocidade (ou momento: px = m vx) de uma partícula não poderiam ser determinadas simultaneamente (vide expressão acima). E, portanto, a trajetória clássica [solução da Equação de Newton (vide verbete nesta série)] da partícula não poderia ser determinada.
                   Essa discussão entre Bohr e Einstein foi retomada quando Einstein e os físicos, o russo Boris Podolsky (1896-1966) e o norte-americano Nathan Rosen (1909-1995) afirmaram, em 1935 (PhysicalReview 47, p. 777), o seguinte:

Se, sem perturbar um sistema físico, for possível predizer com certeza (isto é, com a probabilidade igual a um) o valor de uma quantidade física, então existe um elemento da realidade física correspondente a essa quantidade física.

                   Para chegar a essa afirmação, esses três físicos examinaram a situação de dois sistemas, I e II, que interagem entre t=0 e t=T, e depois desse intervalo de tempo deixam de interagir. Supuseram, também, que os estados dos dois sistemas eram conhecidos antes de t=0. Desse modo, com auxílio da MQOS, afirmaram que pode ser calculada a Ψ do sistema I + II, para qualquer t > T. Os resultados dos cálculos quanto-mecânicos que realizaram com a Ψ para a situação que haviam considerado [também conhecida como experiência de pensamento (gedankenexperimente)], podem ser descritos de outra maneira. Vejamos qual. Duas partículas (12), apresentando os respectivos momento linear e posição () e (), estão num estado com momento linear  =  +  e posição relativa  =  - . Então, as duas partículas sofrem uma interação e se afastam. Assim, conhecidos os valores de  e  (que podem ser nulos, bastando para isso considerar as partículas juntas e paradas), medidas simultâneas de  e  nos darão, respectivamente, os valores de , sem perturbar a partícula 2 e de  , sem perturbar a partícula 1. Desse modo, teremos que  e  são elementos da realidade física e obtidos simultaneamente. Ora, a MQOS afirma, por intermédio do PIH, que  e  não podem ser simultaneamente conhecidos. Portanto, esse resultado levava a um paradoxo, uma vez que, segundo o artigo de Einstein-Podolsky-Rosen (EPR), todo elemento da realidade física precisa ter um correspondente na teoria física.
                   Examinemos um pouco mais o artigo EPR. Este envolve, basicamente, os seguintes conceitos: 1) correlação, 2) localidade ou separabilidade, 3) realidade e 4) completeza. A correlaçãodecorre do fato de que a medida, por exemplo, de , determina de imediato o conhecimento de , sem realizar sua medida; isso, no entanto, é proibido pela MQOS. A localidade significa que os estados reais de objetos separados espacialmente são independentes um do outro, ou seja, a medida realizada em um objeto (p.e.: partícula 1) não perturba o outro (partícula 2). A realidade significa que, se for possível determinar com certeza (probabilidade igual a 1) o valor de uma grandeza física, sem perturbar o sistema, então existe um elemento da realidade física que corresponde a esta medida física. Por fim, a completeza significa que todo elemento de realidade física deve ter uma contrapartida na teoria que descreve o fenômeno. Ora, a MQOS rejeita o conceito de localidade, pois afirma que, mesmo que as partículas 1 e 2 não estejam mais interagindo, a medição efetuada em uma delas perturbará instantaneamente (com tempo nulo, portanto, velocidade infinita) a outra. Desse modo, a MQOS seria completa, porém estaria violando o princípio da Relatividade Restrita segundo o qual não é possível enviar sinais instantaneamente (com velocidade maior do que a velocidade da luz c). Em vista disso, Einstein preferiu manter a localidade e, desse modo, afirmou que a MQOS não fornece uma descrição completa da realidade física (Mokross, op. cit.).
                   É interessante registrar que o físico inglês David Joseph Bohm (1917-1992) em seu livro intitulado Quantum Theory (Prentice-Hall, 1951), retomou o trabalho EPR (no qual cunhou o termo Paradoxo de Einstein-Podolsky-Rosen ou P-EPR), propondo uma outra experiência de pensamento. Um molécula (M) que apresenta spin nulo (sM = 0), cinde-se em dois átomos (AB). Tais átomos separaram-se um do outro de tal maneira que em pouco tempo não há mais interação entre eles. Uma vez separados, qualquer medida sobre um deles não influirá (perturbará) o outro. Se, por exemplo, o componente (x) do spin de B (sxB) for medido, o átomo A não será informado dessa medida. Porém, de acordo com o Princípio da Conservação do Momento Angular, como sM = 0, então sxA = - sxB. Assim, podemos realizar qualquer outra medida sobre A. Por exemplo, se medirmos syAsimultaneamente com a medida de sxB, teremos então duas medidas simultâneas de A (sxAsyA) que são independentes entre si. Contudo, esse resultado é proibido pela MQOS, que supõe ser impossível o conhecimento simultâneo de quantidades físicas conjugadas, por causa da RIH. É interessante destacar que, na linguagem da MQOS, quantidades físicas conjugadas têm operadores que não comutam. No caso em questão, tem-se: . [Banesh Hoffman et Michel PatyL’ Étrange Histoire des Quanta (Seuil, 1981); Michel PatyA Matéria Roubada (EdUSP, 1995), Davydov, op. cit.].
                   Voltemos ao EPR. Este recebeu a imediata contestação de Bohr, primeiro por meio de uma carta que escreveu à Revista Nature (Volume 136, p. 65), dois meses após a saída do artigo EPR, na qual dizia que não concordava com as conclusões desse artigo, prometendo escrever um outro mais detalhado, o que realmente ocorreu, ainda em 1935 (Physical Review 48, p. 696), no qual resolveu o P-EPR usando o seu Princípio da Complementaridade (PC), que havia apresentado no Congresso de Solvay, em 1927, e publicado em 1928 (Nature 121, p. 78; 580). Tal princípio significava, basicamente, que os modelos corpuscular e ondulatório são complementares. Assim, se uma medida física prova o caráter ondulatório da radiação ou da matéria, então é impossível provar o caráter corpuscular na mesma medida, ou vice-versa. [Aliás, o PC foi retomado por Bohr, em 1961, no livro intitulado PhysiqueAtomique et Connaissance (Gauthier Villiars, Paris) no qual afirmou que seu princípio significava que: a descrição de todos os resultados de experiências deve ser expressa em termos clássicos]. Além do PC, Bohr usou a MQOS para dar uma explicação para o P-EPR dizendo que a medição de um de dois objetos quânticos (p.e.: elétrons) correlacionados afeta o parceiro correlacionado. Assim, quando um objeto de um par correlacionado sofre uma medida da função de onda Ψ (na linguagem da MQOS, essa medida chama-se de colapso da função de onda, como vimos antes) em um estado de momento linear (p.e.), a função de onda do outro também entra em colapso (no estado de momento linear)  =  -  e nada se pode dizer sobre a posição () do outro objeto correlacionado. O mesmo ocorre se formedida a posição (ou ). Portanto, segundo Bohr, o colapso da função de onda do mesmo modo que a correlação (entanglement) são objetos que apresentam uma Inseparabilidade Quântica. Mais tarde, em 1948 (Dialectica 2, p. 312), Bohr ampliou ainda mais essa discussão sobre realidade e localidade ao introduzir o conceito de fenômeno (que havia inicialmente definido em 1938) que inclui tanto o objeto de estudo quanto o modo de observação[Abraham PaisNiels Bohr´s Times, in Physics, Philosophy and Polity (Clarendon Press, 1991)].
                   É ainda interessante destacar que a Inseparabilidade Quântica (IQ) foi, durante quase trinta anos, apenas objeto de especulações acadêmicas, até o físico irlandês John S. Bell (1928-1990) demonstrar, em 1964 (Physics 1, p. 195), um teorema – a famosa desigualdade de Bell – que permitia testar experimentalmente a IQ. Registre-se que, desde 1975, o físico francês Alain Aspect (n.1947) e colaboradores vêm realizando experiências sobre a IQ, com resultados favoráveis à MQOSPara umaanálise sobre esses resultadosver: John Archibald Wheeler and Wojciech Hubert Zurek (Editors), Quantum Theory and Measurement (Princeton University Press, 1983; Peter R. Holland, The Quantum Theory of Motion: An Account of the de Broglie-Bohm Causal Interpretation of Quantum Mechanics, (Cambridge University Press, 1993); Gennaro AulettaFoundations and Interpretation of Quantum Mechanics, (World Scientific, 2001)].
                   Um outro aspecto do P-EPR foi apresentado, também em 1935 (Naturwissenschaften 23, p. 807; 823; 844; Proceedings of the Cambridge Philosophical Society 31, p. 555) por Schrödinger numa outra experiência de pensamento, assim enunciada:

Seja uma caixa contendo uma substância radioativa, um detector de radiação (um contador Geiger, por exemplo), uma ampola de gás venenoso (gás cianídrico, por exemplo) e ainda um gato vivo. As coisas são dispostas de modo que haja cinquenta por cento de probabilidade de o detector registrar uma desintegração (fixa-se uma duração para o ensaio). Se isso acontecer, a ampola quebra-se e o gato morre. Senão, continua vivo.

                   Na continuação da análise dessa experiênciaSchrödinger afirmou que, enquanto não abrirmos a caixa para ver a real situação do gato, a sua ``função de onda” (Ygato), de acordo com a IC da MQOS, será dada pela expressão:

Ygato =    (Ygato-vivo  +   Ygato-morto ).
    
Assim, Schrödinger apresentou essa experiência para mostrar uma falha daquela interpretação, pois, obviamente, o `gato’ não pode estar vivo e morto ao mesmo tempo. Daí o paradoxo que ficou conhecido como o Paradoxo de Schrödinger ou Paradoxo do `gato’ de Schrödinger. Registre-se que, no formalismo da MQOS, abrir a caixa para saber a real situação do gato de Schrödinger significa reduzir (colapsar) o pacote de onda Ygato, de acordo com a TCFO/RPO. [John GribbinÀ Procura do Gato de Schrödinger (Editorial Presença, 1984); Luiz DavidovichCiência Hoje 24 (143), p. 26 (1998); R. B. Griffiths and R. OmnèsPhysics Today, p. 26 (August, 1999), Holland, op. cit.; Auletta, op. cit.].
                   Os paradoxos que acabamos de examinar acima questionam o conceito físico básico da Interpretação de Copenhague (indeterminismo) da MQOS. Desde que esse indeterminismo foi proposto por Born, em 1926, conforme já referimos, ele vem sendo questionado. Com efeito, ainda em 1926 (Comptes Rendues Hebdomadaires des Séances de l’Académie des Sciences de Paris, 183, p. 24; 447) e, também, em 1927 (Comptes Rendues Hebdomadaires des Séances de l’Académie des Sciences (Paris) 184, p. 273; 185, p. 380), o físico francês, o Príncipe Louis Victor Pierre Raymond de Broglie (1892-1987; PNF, 1929) aventou a hipótese da existência de variáveis ocultas necessárias para evitar o indeterminismo quântico. Segundo de Broglie, a Y estaria associada a um ensemble de partículas idênticas com posições que se distribuem no espaço de acordo com │Y2. Ainda mais, a Y, além de determinar as probabilidades das posições possíveis, também influenciaria as posições exercendo uma força sobre as trajetórias. Portanto, a Y atuaria desta forma como um tipo de onda-piloto guiando as partículas para regiões do espaço em que a função de onda schrödingeriana é mais intensa (Mokross, op. cit.). Registre que, também em 1926 (Zeitschrift für Physik 40, p. 332), proposta semelhante foi apresentada pelo físico alemão Erwin Madelung (1881-1972). Basicamente, a ideia das variáveis ocultasbaseia-se na analogia entre a Teoria Cinética dos Gases e a Termodinâmica. Segundo essa analogia, a energia cinética e o momento linear das moléculas de um gás estão diretamente relacionados com as variáveis macroscópicas [volume (V), pressão (P), temperatura (T), entropia (S) etc.] termodinâmicas. Desse modo, a existência daquelas variáveis proporcionaria uma relação entre as grandezas físicas calculadas pela MQOS e possíveis movimentos mais internos dos sistemas quânticos, de tal modo que médias das quantidades físicas decorrentes daqueles movimentos e calculadas através das variáveis ocultas reproduziriam os valores calculados quanticamente (Hoffman et Paty, op. cit.).  Em vista disso, tais variáveis fariam retornar o determinismo causal em Física.
                   Essa questão do determinismo em Física, iniciada por de Broglie, em 1926 e 1927, segundo vimos acima, foi retomada a partir do trabalho de Bohm, realizado em 1952 (Physical Review 85, p. 166; 180). Nesse trabalho, Bohm apresenta uma nova interpretação para a ES para uma partícula sob a ação de um potencial (V) admitindo que, além desse potencial, a partícula estaria sob a ação de um Potencial Quanto-Mecânico (PQM), responsável por possíveis movimentos mais internos dos sistemas quânticos (vide verbete nesta serei); e, desta maneira, o determinismo causal seria então restaurado. Essa ideia do PQM foi desenvolvida por Bohm, assim como por outros físicos, e se constitui no que hoje se denomina Interpretação Causal da Mecânica Quântica ou Mecânica Quântica de de Broglie-Bohm. É oportuno observar que essa Mecânica consegue explicar P-EPR. [Peter R. HollandThe Quantum Theory ofMotionAn Account of the de Broglie-Bohm Causal Interpretation of Quantum Mechanics(Cambridge University Press, 1993); Olival Freire Junior, David Bohm e a Controvérsia dos Quanta(Coleção CLE 27, UNICAMP, 1999); José Maria Filardo Bassalo, Paulo de Tarso Santos Alencar, Mauro Sérgio Dorsa Cattani e Antonio Boulhosa Nassar, Tópicos de Mecânica Quântica de de Broglie-Bohm (e-book: www-sbi.if.usp.br/1655)].

sexta-feira, 19 de outubro de 2018

massa =energia = momentum =tempo =espaço  = [pTEMRLD] [hc] [pI] [PF] [pIT] [CG].
massa, energia, tempo, espaço, momentum no sistema categorial Graceli.


massa, energia, tempo, espaço, momentum = [pTEMRLD] [pI] [PF] [pIT] [CG].

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.



, [pTEMRLD] [pI] [PF] [pIT] [CG].
efeito Graceli das radiações sobre curvatura do espaço e gravidade.

efeito 11.600.


relatividade no sistema categorial Graceli

, [pTEMRLD] [pI] [PF] [pIT] [CG].


[pTEMRLD] [pI] [PF] [pIT] [CG].





SISTEMA GRACELI RADIAÇÃO NO ENCURVAMENTO DO ESPAÇO E DA GRAVIDADE.
   [ 
R]+[R] 

R = RADIAÇÃO TÉRMICA, ELÉTRICA, RADIOATIVA, E DE FÓTONS.


             [pTEMR1D] [pI] [PF] [pIT] [CG]..

massa =energia = momentum =tempo =espaço  = [pTEMRLD] [hc] [pI] [PF] [pIT] [CG].
massa, energia, tempo, espaço, momentum no sistema categorial Graceli.


massa, energia, tempo, espaço, momentum = [pTEMR1D] [pI] [PF] [pIT] [CG].

EPG = d [hc] [T / IEEpei [pit] = [pTEMRLD] and [fao] [itd] [iicee] tetdvd [pe] cee [caG].]

p it = potentials of interactions and transformations.
Temperature divided by isotopes and physical states and potential states of energies and isotopes = emissions, random wave fluxes, ion interactions, charges and energies structures, tunnels and entanglements, transformations and decays, vibrations and dilations, electrostatic potential, conductivities, entropies and enthalpies. categories and agents of Graceli.

h e = quantum index and speed of light.

[pTEMRlD] = THERMAL, ELECTRICAL, MAGNETIC, RADIOACTIVE, Luminescence, DYNAMIC POTENTIAL] ..


EPG = GRACELI POTENTIAL STATUS.



, [pTEMR1D] [pI] [PF] [pIT] [CG].
efeito Graceli das radiações sobre curvatura do espaço e gravidade.

efeito 11.600.


relatividade no sistema categorial Graceli

, [pTEMR1D] [pI] [PF] [pIT] [CG].


[pTEMR1D] [pI] [PF] [pIT] [CG].





SISTEMA GRACELI RADIAÇÃO NO ENCURVAMENTO DO ESPAÇO E DA GRAVIDADE.
   [ 
R]+[R] 

R = RADIAÇÃO TÉRMICA, ELÉTRICA, RADIOATIVA, E DE FÓTONS.


             [pTEMR1D] [pI] [PF] [pIT] [CG]..






























Comentários

Postagens mais visitadas deste blog

TEORIAS E FILOSOFIAS DE GRACELI 115

TEORIAS E FILOSOFIAS DE GRACELI 106

TEORIAS E FILOSOFIAS DE GRACELI 109