• Home
  • Chat IA
  • Guru IA
  • Tutores
  • Central de ajuda
Home
Chat IA
Guru IA
Tutores

·

Física ·

Física Estatística

Envie sua pergunta para a IA e receba a resposta na hora

Recomendado para você

Física Estatística

8

Física Estatística

Física Estatística

UFRN

Física Estatísitica

4

Física Estatísitica

Física Estatística

UFRN

Roteiro para Aula Didatica

7

Roteiro para Aula Didatica

Física Estatística

UFPA

Termodinâmica e Probabilidade - Resolução de Exercícios

12

Termodinâmica e Probabilidade - Resolução de Exercícios

Física Estatística

IFMA

Lista 3-2023-1

5

Lista 3-2023-1

Física Estatística

UTFPR

Lista de Exercícios Mecânica Estatística

1

Lista de Exercícios Mecânica Estatística

Física Estatística

UEMA

Mecanica Estatitica- Segunda Lista

1

Mecanica Estatitica- Segunda Lista

Física Estatística

UEPB

Ensembles Canonico Grande Canonico e de Pressoes - Fisica Estatistica

35

Ensembles Canonico Grande Canonico e de Pressoes - Fisica Estatistica

Física Estatística

IFMA

Mecanica Estatistica

55

Mecanica Estatistica

Física Estatística

UNINTER

Resolução da Lista

23

Resolução da Lista

Física Estatística

UEMA

Texto de pré-visualização

MECÂNICA ESTATÍSTICA III 1 Obtenha o limite gaussiano da distribuição binomial 2 Deduza a equação diferencial do fenômeno da difusão usando o problema do caminho aleatório 3 Calcule o número de autoestados acessíveis com energia E para um conjunto de N osciladores harmônicos unidimensionais de mesma frequência fundamental w 4 Obtenha o número de microestados acessíveis para N partículas nãointeragentes numa caixa cúbica de volume V Use o método exato via Apêndice A4 do livro do Sílvio Salinas Edusp O LIVRO TEXTO É O SALINAS Esses exemplos estão no capítulo 1 e 2 mas quero a solução detalhada É interessante consultar o livro para checar se as respostas batem INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS Escolhemos o problema do caminho aleatório em uma dimensão para introduzir alguns conceitos e técnicas da teoria de probabilidades Por meio desse problema vamos estudar as propriedades das distribuições binomial e gaussiana exemplificar conceitos importantes como valor médio e desvio padrão e discutir o papel dos grandes números As versões mais simples do problema do caminho aleatório representam modelos de interesse físico sugeridos pelo fenômeno da difusão de partículas em um meio viscoso Estamos supondo que já sejam conhecidas as idéias mais elementares da teoria de probabilidades Basta saber jogar dados não viciados ou baralhos bem embaralhados Dispondo de um único dado a probabilidade de obter a face 3 numa única jogada é 16 Sabemos que há seis eventos possíveis que correspondem ao espaço amostral na linguagem da física estatística ao conjunto de microestados acessíveis ao sistema e que apenas um desses estados corresponde ao evento face 3 Estamos supondo de antemão a priori como se costuma dizer que todos os estados acessíveis são equiprováveis Portanto a probabilidade de obter a face 3 é exatamente 16 Qual a probabilidade de em duas jogadas consecutivas obter duas vezes a mesma face 3 Certamente é 136 pois há 36 eventos distintos equiprováveis e apenas um deles contém duas vezes a face 3 Também poderíamos ter dito que em cada jogada as probabilidades são independentes e que portanto se multiplicam A probabilidade de obter duas faces distintas em qualquer ordem é 236 e assim por diante Essas noções são suficientes para calcular as probabilidades associadas ao problema do caminho aleatório 11 O PROBLEMA DO CAMINHO ALEATÓRIO Vamos considerar um indivíduo que se desloca sobre uma reta a partir da origem dando passos de comprimento igual l para a direita com probabilidade p ou para a esquerda com probabilidade q 1 p O problema consiste em encontrar a probabilidade PNm de que o indivíduo se encontre na posição x ml depois de ter dado N passos com m inteiro e N m N Uma versão vetorial desse problema num espaço tridimensional poderia servir para estudar o fenômeno de difusão de uma molécula gasosa que sofre colisões intermoleculares Figura 11 Caminho aleatório com passos de comprimento l ao longo do eixo x A probabilidade de uma determinada seqüência de N passos com N1 passos para a direita e N2 passos para a esquerda é dada por p pq q pN1 qN2 Por outro lado o número de seqüências desse tipo isto é seqüências com N1 passos para a direita e N2 N N1 passos para a esquerda é dado pelo fator combinatório NN1 N2 Então a probabilidade de num total de N passos dar N1 passos para a direita e N2 passos para a esquerda é dada pela famosa distribuição binomial WNN1 NN1 N2 pN1 qN2 1 com pq1 e N1 N2 N Note que essa probabilidade já está devidamente normalizada De fato temos N10N WNN1 N10N NN1 N2 pN1 qN2 pqN 1 Note também que 0 WNN1 1 para 0 N1 N ou seja a probabilidade é um número positivo que varia entre 0 e 1 Como m N1 N2 a probabilidade PNm será dada por PNm NNm2 Nm2 pNm2 qNm2 2 com pq1 Para explicitar a conexão com os fenômenos de difusão podemos formular o problema do caminho aleatório por meio de uma equação estocástica isto é envolvendo variáveis aleatórias ou probabilísticas de diferenças Vamos supor que cada passo seja dado em seqüência num intervalo de tempo τ Então PNm pode ser interpretada como a probabilidade de o caminhante ou de a partícula ser encontrado na posição x ml no instante de tempo t Nτ Somente uma partícula que esteja nas posições xm1l ou xm1l no tempo t Nτ é que pode atingir a posição x ml no passo seguinte isto é para t N1τ Podemos então escrever a relação de recorrência PN1m pPNm1 qPNm1 3 É fácil verificar que a distribuição binomial dada pela equação 2 satisfaz essa relação de recorrência Seqüências em que a probabilidade num dado instante depende apenas dos valores das probabilidades no instante anterior são conhecidas como cadeias de Markoff e têm grande relevância em problemas de interesse físico Equações estocásticas dessa natureza em que os detalhes da dinâmica de um sistema físico são substituídos por assertivas probabilísticas desempenham um papel cada vez maior no estudo contemporâneo de sistemas fora do equilíbrio ver capítulo 16 No caso particular em que pq12 tomando o limite no qual τ e l são muito pequenos podemos escrever a representação contínua PN1 PNτ Pt Pmll Pmll 2Pmll2 2 P x2 Nesse limite portanto obtemos a famosa equação diferencial da difusão Pt D ²Px² com o coeficiente D ℓ²2τ 12 VALORES MÉDIOS E DESVIO PADRÃO Seja u uma variável aleatória que pode assumir M valores discretos tal que uj ocorra com probabilidade Pj Puj onde 0 Pj 1 para qualquer j Em geral vamos considerar distribuições devidamente normalizadas isto é tal que Σj1 to M Puj 1 O valor médio ou valor esperado da variável u é definido por u u Σj1 to M uj Puj Se fu for uma função de u o valor esperado de fu será dado por fu fu Σj1 to M fuj Puj É fácil mostrar que i fu gu fu gu e ii c fu c fu onde c é uma constante e f e g são funções aleatórias de u O desvio da média é definido por Δu u u É claro que Δu u u 0 ou seja o valor médio do desvio da média é de muito pouca utilidade O desvio quadrático é dado por Δu² u u ² A dispersão ou segundo momento é o valor médio do desvio quadrático dado por Δu² u u ² u² u ² É claro que Δu² 0 ou seja u² u ² A dispersão muitas vezes é chamada de variância A raiz da dispersão é o chamado desvio padrão A comparação entre o desvio padrão e o valor médio é muito importante pois fornece uma idéia da largura da distribuição de probabilidades ou seja indica se a distribuição é muito fina centrada no valor médio ou muito espalhada com grandes flutuações de valores em torno da média Finalmente podemos definir o momento em relação à média de ordem n Δun u u n que também poderá ter utilidade Por meio dos momentos sempre é possível reconstituir uma distribuição de probabilidades No entanto em muitos casos de interesse para um número grande de eventos vamos ver que basta um conhecimento dos dois primeiros momentos u e u² Figura 12 Exemplos de distribuições estatísticas No lado direito ΔN1 N1 No caso do problema do caminho aleatório temos N1 ΣN10 to N N1 WN N1 ΣN10 to N N1 NN1 N2 pN1 qN2 onde N2 N N1 e no final devemos fazer q 1 p Portanto podemos escrever N1 p p ΣN10 to N NN1 N2 pN1 qN2 p p pqN pN pqN1 pN É claro que N2 N N1 N pN qN Em resumo temos N1 pN N2 qN Para calcular a dispersão em relação à média podemos proceder da mesma maneira observando que N12 p p p p ΣN10 to N NN1 N2 pN1 qN2 p p pN pqN1 pN p²NN1 Portanto temos ΔN12 N12 N1 ² Npq que conduz à famosa forma do desvio padrão proporcional a N ΔN1 ΔN12 pq12 N Então temos o desvio relativo ΔN1 N1 qp12 1N indicando que a distribuição binomial se torna muito fina centrada em torno do valor médio N1 para N suficientemente grande ver figura 12 13 LIMITE GAUSSIANO DA DISTRIBUIÇÃO BINOMIAL No limite N temos WN0 qN 0 e WNN pN 0 Portanto WNN1 deve ter um máximo para N1 ildeN1 rN com 0r1 Para N grande embora N1 seja um inteiro podemos supor que perto do máximo a função WNN1 seja quase contínua em relação à variável aleatória N1 Na realidade em vez de trabalhar com WNN1 é mais conveniente trabalhar com ln WNN1 que varia bem mais lentamente Como a função logaritmo é monótonica crescente tanto faz achar o máximo de WNN1 ou de ln WNN1 Assim temos fN1 ln WNN1 ln N ln N1 ln NN1 N1 ln p NN1 ln q Perto do máximo tanto N1 quanto NN1 devem ser da ordem de N Tornase então interessante eliminar os fatoriais por meio da famosa expansão assintótica de Stirling ver apêndice A1 que será usada muitas vezes nesse texto ln N N ln N N Oln N Então temos fN1 N ln N N N1 ln N1 N1 NN1 ln NN1 N N1 N1 ln p N N1 ln q Oln N1 ln N N1 Portanto podemos escrever fN1 ln N1 ln NN1 ln p ln q O1N 1NN1 0 No limite N temos ln ildeN1 ln N ildeN1 ln p ln q 0 ou seja ildeN1 Np N1 indicando a coincidência entre o valor mais provável e o valor médio ver equação 11 É fácil obter a derivada segunda 2 fN12 1N1 1NN1 O1N12 1NN12 No ponto de máximo para N temos 2 fN12N1 ildeN1 1Npq 1Delta N12 0 Vamos agora considerar uma expansão de Taylor em torno do máximo ildeN1 N1 Assim temos fN1 ln WNN1 ln WN ildeN1 12 Npq N1 ildeN12 A aproximação gaussiana consiste em abandonar os termos de ordem superior nessa expansão Isso se justifica pois para N grande WN1 só tem um valor apreciável nas vizinhanças de seu valor máximo Observando que ildeN1 N1 e que Npq Delta N12 Delta N12 podemos escrever a aproximação gaussiana para a distribuição binomial pGN1 p0 exp N1 N122Delta N12 onde o coeficiente p0 é determinado pela condição de normalização p0 expx22Delta N12 dx 1 Utilizando os resultados do apêndice A2 para as integrais de forma gaussiana temos p0 2 pi Delta N1212 Podemos então escrever a distribuição normal ou gaussiana pGN1 2 pi Delta N1212 exp N1 N122Delta N12 Utilizando pGN1 é fácil verificar que N1G int N1 pGN1 dN1 N1 e que Delta N12G int N1 N1G2 pGN1 dN1 Delta N12 em concordância com os resultados para a distribuição binomial de origem Entretanto os momentos superiores calculados com a distribuição gaussiana deixam de coincidir com os momentos correspondentes calculados com a distribuição binomial Cabe agora uma indagação sobre os limites de validade da aproximação de uma distribuição binomial pela gaussiana correspondente com os mesmos valores do primeiro e do segundo momentos Para analisar essa questão vamos considerar a derivada terceira 3 fN13 1N12 1NN12 O1N13 No ponto de máximo para N o termo dominante dessa derivada será dado por ³f N₁³N₁N₁ q p N² p² q² A aproximação gaussiana deve ser muito boa para 1 2 Npq N₁ N₁² q p 6 N² p² q² N₁ N₁³ isto é para N₁ N₁ 3 Npq q p Fora desse intervalo ou seja para N₁ N₁ 3 Npq q p temos pG p₀ exp1 2Npq 9 N² p² q² q p² 0 para N Portanto no intervalo em que a aproximação é ruim a distribuição pG é praticamente nula Como o desvio padrão tanto da binomial quanto da gaussiana é da ordem de N tanto a binomial quanto a gaussiana são muito ou seja exponencialmente pequenas quando N₁ N₁ for grande Também é fácil calcular outras derivadas e mostrar que esse cálculo continua válido em ordens superiores 14 DISTRIBUIÇÕES DE VÁRIAS VARIÁVEIS ALEATÓRIAS DISTRIBUIÇÕES CONTÍNUAS Uma generalização imediata do que já foi visto consiste em levar em conta duas ou mais variáveis aleatórias discretas Vamos por exemplo considerar as variáveis u e v Ao par uj vk podemos associar a distribuição conjunta 0 Puj vk 1 tal que Σjk Puj vk 1 30 Podemos também definir a probabilidade Puuj Σk Puj vk 31 de que u assuma o valor uj independentemente do valor de vk É claro que Σj Puuj 1 32 Duas variáveis aleatórias são estatisticamente independentes ou não correlacionadas quando Puj vk Puuj Pvvk 33 É fácil calcular os valores esperados da soma ou do produto de variáveis aleatórias distintas Em particular o valor esperado do produto é o produto dos valores esperados apenas no caso de variáveis aleatórias estatisticamente independentes Outra generalização imediata que na realidade já foi implicitamente utilizada na construção das distribuições gaussianas consiste em considerar variáveis aleatórias contínuas Vamos supor que a variável aleatória u possa assumir qualquer valor no intervalo entre a e b Então a forma diferencial pu du deve ser interpretada como a probabilidade de que a variável u esteja entre os valores u e u du e a função pu representa na realidade uma distribuição de densidades de probabilidade A normalização será dada por ab pu du 1 34 É muito fácil generalizar todos os conceitos probabilísticos que já foram utilizados para distribuições discretas Por exemplo o valor médio da função estocástica fu será dado por fu ab fu pu du 35 No limite contínuo de distribuições discretas devese notar que du é geralmente um intervalo macroscopicamente pequeno porém microscopicamente grande A probabilidade devese anular com du mas a densidade pu que muitas vezes também é chamada distribuição de probabilidades é independente do tamanho de du Todas essas ideias já foram informalmente utilizadas na seção anterior no processo de construção da aproximação gaussiana pGN₁ para a distribuição binomial O problema do caminho aleatório em uma dimensão pode ser ligeiramente generalizado supondo que o deslocamento no jésimo passo seja caracterizado pelo comprimento aleatório contínuo sj que ocorre com probabilidade wsj dsj Podemos então perguntar depois de N passos qual a probabilidade px N dx de encontrar o indivíduo no intervalo entre x e x dx onde x Σj1N sj Tanto sj para j 1 N quanto x são variáveis aleatórias contínuas O comprimento x é uma função das variáveis aleatórias independentes e identicamente distribuídas s1 sN O valor médio e a dispersão da variável x podem ser calculados imediatamente Assim temos x Σj1N sj Σj1N sj N s 36 onde s s ws ds 37 Então Δx Σj1N sj N s Σj1N sj s Σj1N Δsj 38 Portanto temos Δx Σj1N Δsj 0 39 Da mesma forma temos Δx² Σ from j1 to N ΔsjΣ from k1 to N Δsk Σ from j1 to N Δsj² Σ from jk ΔsjΔsk Portanto Δx² Σj1N Δsj² Σjk Δsj Δsk Porém Δsj Δsk ΔsjΔsk 0 para j k pois os passos são estatisticamente independentes Então temos Δx² Σj1N Δsj² N Δs² onde Δs² from to Δs² ws ds Finalmente podemos obter o desvio relativo Δx² x Δs² s 1N 1N Novamente para N grande supondo que ws seja uma função bemcomportada anulandose de maneira suficientemente rápida para s a distribuição pxN deve ser localizada nas vizinhanças do valor esperado Na próxima seção vamos obter uma forma integral para pxN e mostrar que ela realmente se transforma numa gaussiana no limite de N grande De certa forma isso explica porque as distribuições gaussianas ocorrem com tanta frequência em situações físicas envolvendo um número grande de eventos independentes associados a uma forma arbitrária de probabilidade 15 DISTRIBUIÇÃO PARA O PROBLEMA DO CAMINHO ALEATÓRIO GENERALIZADO LIMITE GAUSSIANO Como os passos no problema do caminho aleatório generalizado são estatisticamente independentes a probabilidade de uma determinada sequência é dada por um simples produto de maneira análoga ao que foi feito no caso do problema discreto Vamos considerar de novo uma sequência de N passos supondo que o deslocamento no jésimo passo tenha o comprimento aleatório sj ocorrendo com a probabilidade wsj dsj A probabilidade de encontrar o caminhante entre x e x dx onde x Σ from j1 to N sj é dada por pxN dx x s1 s2 sN xdx ws1 ds1 wsN dsN onde as integrações devem ser realizadas de a com a restrição indicada Para remover essa restrição podemos utilizar a função δ de Dirac que admite uma representação da forma ver apêndice A3 δx 1γ para γ2 x γ2 0 para x γ2 com γ 0 Portanto temos pxN dx from to from to ws1 ds1 wsN dsN dx δx Σ from j1 to N sj Utilizando agora uma representação integral da função δ ver apêndice A3 δx 12π from to expikx dk temos pxN12π from to from to ws₁ ds₁ wsN dsN from to expikx Σ from j1 to N sj dk Agora é fácil perceber que a integração nas variáveis s₁sN se fatoriza levando finalmente à forma integral pxN 12π from to expikx ŵkN dk onde a função característica ŵk é a transformada de Fourier de ws ŵk from to expiksws ds A título de mero exercício vamos verificar que de fato esse formalismo reproduz a distribuição binomial no caso do caminho aleatório em uma dimensão com passos de mesmo comprimento l Nesse caso ws é dada por ws pδs l qδs l Então ŵk p expikl q expikl de onde vem que ŵkN Σ from n0 to N NnNn peikln qeiklNn Portanto temos pxN 12π expikx Σ from n0 to N NnNn pn qNn expiknl iklNn dk Σ from n0 to N NnNn pn qNn δx 2nl Nl Então px se anula a não ser que x 2n N l com n 01N Para obter a forma discreta da distribuição binomial temos de integrar px num intervalo infinitesimal no entorno de x 2n N l Assim temos finalmente PNn 2nNlε2nNlε pxN dx N nNn pn qNn Também podemos obter pxN de forma simples e directa por meio de uma equação estocástica de diferenças como já foi feito na seção 11 para o caso do caminho aleatório com passos iguais Generalizando a equação 3 temos a relação de recorrência pxN1 pxsN ws ds 52 cujo lado direito tem a forma de uma integral de convolução Introduzindo as transformadas de Fourier pkN expikx pxN dx 53 e ŵk dada pela equação 51 temos pkN1 pkN ŵk 54 Levando em conta que no instante inicial isto é para N 0 o caminhante está na origem ou seja que px0 δx essa equação nos fornece pkN ŵkN 55 A distribuição pxN será dada pela transformada inversa de Fourier pxN 12π expikx ŵkN dk 56 que não poderia deixar de coincidir com a equação 50 Vamos agora obter uma expressão para pxN no limite de N muito grande Devido ao fator oscilante expiks a função ŵk só é apreciável nas vizinhanças de k 0 Isso é ainda mais acentuado no caso de ŵkN com N grande Vamos então escrever a expansão ŵk expiks ws ds ws 1 iks 12 k2 s2 ds 57 1 iks 12 k2 s2 Portanto temos ŵkN exp N ln ŵk exp N iks 12 k2 s2 s2 0k3 58 Abandonando os termos de ordem superior a k2 temos a integral px 12π exp ikx Niks 12 N Δs2 k2 dk 59 que fornece a forma gaussiana px 2πσ212 exp x μ2 2σ2 60 onde μ Ns e σ2 NΔs2 Novamente encontramos uma distribuição gaussiana com o mesmo valor esperado e a mesma variância da distribuição original Na realidade a distribuição gaussiana nesse caso é uma manifestação particular do famoso teorema do limite central da teoria das probabilidades Isso tudo funciona desde que i os passos sejam estatisticamente independentes ii a função ws diminua de maneira suficientemente rápida com s e iii N seja suficientemente grande Condições dessa natureza podem ser identificadas numa grande variedade de fenômenos de interesse físico justificando a utilização e a importância da distribuição gaussiana EXERCÍCIOS 1 Qual a probabilidade de fazer pelo menos seis pontos numa jogada de três dados 2 Considere uma distribuição binomial para o caminho aleatório em uma dimensão com N 60 p 23 e q 1 p 13 a Trace um gráfico de PNN1 contra N1N b Obtenha a distribuição gaussiana correspondente pGN1 isto é com os mesmos valores de N1 e N12 da binomial Trace um gráfico de pGN1 contra N1N Compare com os resultados do item anterior c Repita os itens a e b com N 30 e N 15 Há modificações sensíveis 3 Obtenha expressões para o terceiro e o quarto momentos de uma distribuição binomial Como é que se comportam esses momentos para N grande 4 Dois bêbados começam a caminhar sobre uma linha reta a partir da origem dando passos de mesmo comprimento para a direita ou para a esquerda com a mesma probabilidade Suponha que os passos dos dois sejam simultâneos Ache a probabilidade de que eles se encontrem novamente depois de dar N passos 5 A probabilidade de que um evento caracterizado pela probabilidade p ocorra n vezes num total de N tentativas é dada pela distribuição binomial Wn N nN n pn 1 pNn Considere uma situação em que p seja pequeno p 1 e que portanto Wn seja apreciavelmente diferente de zero apenas para n N Nessas circunstâncias mostre que Wn λn n expλ onde λ Np é o número médio de eventos Esta é a chamada distribuição de Poisson Formule um problema estatístico que poderia ser resolvido em termos dessa distribuição 6 Num caminho aleatório em uma dimensão depois de N passos a partir da origem a posição é dada por x Σj1N sj onde sj é um conjunto de variáveis aleatórias independentes identicamente distribuídas dadas pela distribuição de probabilidades ws 2πσ212 expsl22σ2 onde σ e l são constantes positivas Depois de N passos qual o deslocamento médio a partir da origem Qual o valor do desvio quadrático médio da variável aleatória x Para N grande qual a forma da distribuição gaussiana associada a esse problema Como é que seus resultados se modificariam se em cada passo o deslocamento fosse sempre positivo com probabilidades iguais de se situar em qualquer ponto no intervalo entre lb e lb com 0 b l 7 Considere novamente o problema anterior com uma distribuição da forma ws 1π s2 a2 com a 0 Obtenha uma expressão para a distribuição de probabilidades associada à variável aleatória x Essa distribuição se transforma numa gaussiana para N grande Por quê 2 DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA FÍSICO Os ingredientes básicos da análise mecânicoestatística de um sistema físico em equilíbrio podem ser resumidos nas seguintes etapas 1 especificação dos estados microscópicos do sistema que formam um conjunto denominado ensemble estatístico 2 estabelecimento de um postulado estatístico básico e utilização da teoria das probabilidades No caso de um sistema com energia total fixa utilizamos a hipótese simplificadora das probabilidades iguais a priori que conduz à definição do ensemble microcanônico 3 estabelecimento de uma conexão com a termodinâmica ou seja com as variáveis visíveis do mundo macroscópico Um sistema físico de partículas é governado pelas leis da mecânica clássica ou quântica dependendo do nível e dos interesses da nossa análise que fornecem os meios para a especificação de um estado microscópico No entanto dependendo do fenômeno analisado podemos construir modelos específicos às vezes de caráter semicássico em que a dinâmica microscópica é drasticamente simplificada Nesses casos levamse em conta apenas os mecanismos essenciais que seriam responsáveis pelas manifestações físicas estudadas Por exemplo para analisar as propriedades magnéticas de um cristal iônico isolante é conveniente considerar uma rede cristalina rígida desprezando o movimento vibracional dos íons magnéticos Em modelos magnéticos dessa natureza normalmente estamos interessados somente nos momentos magnéticos isto é spins da capa eletrônica 42 Introdução à Física Estatística separando o efeito dos demais graus de liberdade inclusive dos spins nucleares Por razões de ordem técnica às vezes é interessante introduzir um modelo discreto para um gás de N partículas num volume V no chamado modelo do gás de rede o volume é dividido em V células discretas que podem estar vazias ou ocupadas por no máximo uma partícula simulando o efeito de impenetrabilidade produzido por um potencial intermolecular de caroço duro Nesse caso a especificação microscópica do sistema consiste na identificação das configurações de N partículas em V células O ensemble estatístico é constituído pelo conjunto dos estados microscópicos aos quais serão associados determinados pesos probabilísticos Neste capítulo vamos utilizar uma série de exemplos para ilustrar a especificação dos estados microscópicos de modelos estatísticos Também vamos enunciar o postulado fundamental da mecânica estatística construir o ensemble microcanônico e apresentar uma discussão sucinta das bases da teoria A conexão com o mundo macroscópico será postergada para um próximo capítulo aguardando a discussão das idéias básicas da termodinâmica gibbsiana 21 ESPECIFICAÇÃO DO ESTADO MICROSCÓPICO DE UM SISTEMA EXEMPLOS QUÂNTICOS Na mecânica quântica um sistema estacionário é caracterizado pela função de onda Ψq1q2 Em geral essa função de onda pode ser escrita em termos de uma base ortonormal completa de autofunções de um operador como o hamiltoniano do sistema Assim temos Ψ Σn cnφn 1 Hφn Enφn onde H é o operador hamiltoniano Os autoestados φn caracterizados pelo conjunto de n números quânticos fornecem uma maneira simples de contar os estados microscópicos do sistema Mais adiante vamos voltar a essa questão a fim de mostrar que a própria mecânica quântica já tem um caráter estatístico intrínseco distinto da estatística necessária devido à distribuição de estados microscópicos do sistema Exemplo 1 partícula localizada de spin 12 Há dois autoestados α 1 0 e β 0 1 correspondentes a spin para cima ou e a spin para baixo ou respectivamente Na presença de um campo magnético H a energia hamiltoniano é dada por 𝓗 μ H μz H μo H com spin μo H com spin onde μ é o momento magnético com projeção μz ao longo do campo podendo assumir os valores μo ou μo Exemplo 2 três partículas localizadas de spin 12 nãointeragentes ou talvez muito fracamente interagentes na presença de uma campo aplicado H Nesse caso o hamiltoniano é dado pela soma 𝓗 μ1 H μ2 H μ3 H Temos então oito autoestados que são dados pelos seguintes produtos i ou α1 α2 α3 com energia 3 μo H ii iii e iv com energia μo H v vi e vii com energia μo H e viii com energia 3 μo H Os autoestados com energias μo H são triplamente degenerados Exemplo 3 N partículas localizadas de spin 12 nãointeragentes na presença de um campo H Nesse caso o hamiltoniano é dado pela soma 𝓗 Σ j1 a N μj H μo H Σ j1 a N σj onde o conjunto de variáveis de spin σj j 1 N com σj podendo assumir os valores 1 para qualquer j designa cada um dos microestados acessíveis ao sistema Dada a energia E temos grande degenerescência nesse sistema De fato a energia pode ser escrita em termos do número de spins para cima N1 e do número de spins para baixo N2 N N1 Assim temos E μ0 HN1 μ0 H N N1 Portanto N1 12 N Eμ0 H e N2 N N1 12 N Eμ0 H Como a energia depende apenas de N1 e de N podemos utilizar as mesmas noções combinatórias que já foram empregadas no problema do caminho aleatório para obter o número de autoestados acessíveis ao sistema com uma dada energia E Ω EN N N1 N2 N 12 N Eμ0 H 12 N Eμ0 H Mais adiante vamos ver que dada a energia E o postulado fundamental da mecânica estatística estabelece que todos esses microestados são igualmente prováveis A conexão com a termodinâmica se dá por meio da função entropia que deve ser identificada com o logaritmo natural de Ω E N no chamado limite termodinâmico em que E N com a razão EN fixa Esse modelo de spins nãointeragentes representa muito bem o comportamento térmico de um paramagneto ideal A introdução de interações entre os spins que torna o problema estatístico extremamente complicado é capaz de produzir um modelo para a explicação dos fenômenos de ordenamento magnético como o ferromagnetismo Exemplo 4 oscilador harmônico unidimensional de frequência ω Nesse caso os autoestados são dados pelos polinômios de Hermite correspondendo aos autovalores de energia En n 12 ℏω com n 0 1 2 Exemplo 5 dois osciladores harmônicos unidimensionais localizados e independentes com a mesma frequência fundamental ω Como no caso dos spins localizados e nãointeragentes em problemas quânticos dessa natureza o hamiltoniano é somável 𝓗 𝓗1 𝓗2 os autoestados se mul tiplicam φ φ1φ2 e as autoenergias correspondentes também se somam E E1 E2 Portanto as autoenergias são dadas por En1n2 n1 12 ℏω n2 12 ℏω n1 n2 1 ℏω onde o par n1 n2 designa um autoestado quântico O autoestado 00 tem energia ℏω os autoestados 01 e 10 têm energia 2ℏω os autoestados 02 20 e 11 têm a mesma energia 3ℏω e assim por diante Exemplo 6 conjunto de Osciladores harmônicos unidimensionais localizados e nãointeragentes com a mesma frequência fundamental ω Essa generalização do exemplo anterior que dá origem a um problema combinatório ligeiramente mais sofisticado constitui o famoso modelo de Einstein proposto em 1906 para explicar a variação do calor específico dos sólidos com a temperatura As autoenergias são dadas por En1nN n1 12 ℏω nN 12 ℏω n1 nN N2 ℏω onde o conjunto de números quânticos n1 nN com nj 0 1 2 para qualquer j designa o autoestado correspondente Podemos escrever essa energia na forma En1nN M ℏω N2 ℏω onde o inteiro M n1 nN representa o número total de quanta de energia no sistema Para encontrar a degenerescência dos autoestados correspondentes a essa energia basta descobrir o número de maneiras de distribuir M Eℏω N2 quanta de energia entre N osciladores localizados O problema combinatório é análogo ao cálculo da distribuição de M bolas idênticas dentro de N caixas dispostas ao longo de uma determinada direção A figura abaixo auxilia o nosso raciocínio Na primeira caixa há três bolas na segunda caixa quatro bolas na terceira uma bola e assim por diante até a última caixa que tem duas bolas Para descobrir todas as configurações possíveis devemos calcular todas as permutações de M N 1 elementos isto é das bolas mais as divisórias que definem as caixas e dividir o número obtido por M pois as bolas são idênticas e por N 1 pois as divisórias também são idênticas Assim temos o número de autoestados acessíveis ao sistema com energia E ΩE N M N 1 M N 1 E ħω N2 1 E ħω N2N 1 12 No capítulo 4 vamos utilizar ΩE N para estabelecer a conexão com a termodinâmica e obter a famosa lei de Einstein da variação do calor específico dos sólidos com a temperatura Exemplo 7 partícula livre de massa m em uma dimensão dentro de uma caixa de potencial de lado L ou seja tal que 0 x L com potencial nulo dentro da caixa e infinito fora dela O hamiltoniano desse sistema será dado por 𝓗 1 2m pₓ² ℏ² 2m d² dx² 13 Portanto temos a equação de Schroedinger ℏ² 2m d²ϕx dx² Eϕx 14 cuja solução pode ser escrita na forma ϕx A sen kx B cos kx 15 com as constantes A e B reais e a energia dada por E ℏ²k² 2m 16 As condições de contorno ϕ0 ϕL 0 fornecem o espectro discreto de autoestados e respectivos autovalores de energia desse sistema ϕx A sen kₙ x 17 Eₙ ℏ²kₙ² 2m com kₙ nπ L onde n 1 2 3 18 Mais adiante neste texto vamos preferir escrever a função de onda de partícula única na forma complexa ϕₖx C expikx 19 e utilizar condições periódicas de contorno ϕ0 ϕL tal que k 0 2πL 2 2π L 3 2π L 20 É importante notar que no limite termodinâmico L condições de contorno distintas devem conduzir aos mesmos resultados termodinâmicos Exemplo 8 sistema de N partículas livres e nãointeragentes de massa m em uma dimensão dentro de uma caixa de potencial de lado L ou seja tal que 0 x₁ L 0 x₂ L 0 xN L com potencial nulo dentro da caixa e infinito fora dela O hamiltoniano desse sistema será dado por 𝓗 1 2m j1 até N pⱼ² ℏ² 2m j1 até N d² dxⱼ² 21 Portanto temos a equação de Schroedinger ℏ² 2m j1 até N d² dxⱼ² Φx₁ xN EΦx₁ xN 22 cuja solução é dada pelo produto Φx₁ xN ϕk₁ x₁ ϕkN xN 23 onde as funções de partícula única podem ser escritas na forma ϕₖx C expikx como na equação 19 A energia é dada por E Ek₁ kN ℏ² 2m k₁² kN² 24 e a imposição de condições periódicas de contorno fornece a quantização dos números de onda k₁ n₁ 2π L kN nN 2π L 25 onde n₁ nN 0 1 2 3 Um particular estado microscópico do sistema seria designado pelo conjunto de números quânticos k₁ kN No entanto as funções de onda de partículas quânticas idênticas devem ser simétricas no caso de bósons ou antisimétricas no caso de férmions diante da permutação de duas variáveis de posição A análise dos microestados do sistema quântico de N partículas idênticas é portanto bem mais complicada vamos postergála para um capítulo específico deste texto 22 ESPECIFICAÇÃO DO ESTADO MICROSCÓPICO DE UM SISTEMA CLÁSSICO DE PARTÍCULAS Em mecânica clássica um sistema de n graus de liberdade fica perfeitamente especificado quando conhecemos as n coordenadas generalizadas de posição q₁ qₙ e as n coordenadas generalizadas de momento p₁ pₙ Por exemplo no caso de N partículas livres no espaço euclidiano precisamos conhecer 3N coordenadas de posição e 3N momentos isto é x₁ y₁ z₁ xN yN zN px₁ py₁ pz₁ pxN pyN pzN É conveniente introduzir o espaço de fase constituído por 2n eixos tal que cada estado microscópico do sistema de n graus de liberdade seja representado por um único ponto nesse espaço Veja a figura 21 em que o par q p designa o conjunto de variáveis q₁ qₙ p₁ pₙ Podemos representar no espaço de fase todos os pontos estados microscópicos compatíveis com as condições macroscópicas de um sistema energia volume número de partículas Ao contrário dos exemplos quânticos agora vamos ter de realizar uma contagem de estados microscópicos num espaço contínuo Portanto é conveniente introduzir a função densidade ρqp tal que ρdq dp dê o número de estados microscópicos com coordenadas generalizadas dentro da célula dq dp Figura 21 Representação bidimensional de um espaço de fase clássico Exemplo 1 partícula livre de massa m em uma dimensão com energia E dentro de uma caixa de comprimento L isto é com 0 x L Como a energia tem a forma E p²2m o momento será dado por p 2mE Na figura 22 representamos o espaço de fase associado a esse sistema Todos os pontos situados sobre os dois segmentos da figura são acessíveis à partícula com energia E Figura 22 Os segmentos indicam as regiões acessíveis a uma partícula de energia E com posição 0 x L Nesse caso o espaço de fase é bidimensional mas a região de pontos acessíveis ao sistema constituída pelos dois segmentos da figura é unidimensional Isso introduz algumas dificuldades técnicas Seria interessante que a região acessível ao sistema tivesse a mesma dimensão do espaço de fase isto é que fosse uma área em duas dimensões um volume em três dimensões um hipervolume de dimensão d num espaço de fase d dimensional Para resolver essa questão em vez de definir uma energia fixa E vamos dizer que a energia está entre E e E δE onde δE é uma grandeza macroscopicamente pequena mas de valor fixo mais adiante vamos ver que no limite termodinâmico esse artifício facilita os cálculos e não tem qualquer efeito sobre a conexão com a termodinâmica Na figura 23 representamos as regiões do espaço de fase que são acessíveis ao sistema as duas faixas hachuradas com δp m2E δE Portanto o volume do espaço de fase acessível ao sistema será dado por ΩE L δE 2Lδp 2mE¹² LδE 26 Mais adiante vamos ver que de acordo com o postulado fundamental da física estatística a densidade de pontos é constante na região hachurada com valor normalizado dado por ρ 1Ω e se anula fora dela A entropia clássica embora não tenha qualquer sentido falar de entropia para um sistema de uma única partícula seria dada pelo logaritmo natural de Ω Figura 23 Regiões acessíveis a uma partícula livre em uma dimensão com energia entre E e E δE e posição 0 x L Os segmentos da figura 22 são substituídos pelas áreas hachuradas Exemplo 2 oscilador harmônico unidimensional com energia entre E e E δE O hamiltoniano clássico desse sistema é dado por H p²2m 12 kq² 27 onde m é a massa e k 0 é a constante de mola Portanto dada uma energia E a região de pontos acessíveis no espaço de fase é definida pela elipse p²2mE q²2Ek 1 28 Com a energia entre E e E δE a região acessível é uma coroa elíptica ver figura 24 cuja área é dada pela expressão ΩE δE 2π mk¹² δE 29 Nesse caso muito simples o volume do espaço de fase acessível ao sistema isto é a área Ω é uma função independente da energia Figura 24 Região do espaço de fase acessível a um oscilador harmônico unidimensional com energia entre E e E δE Poderíamos agora propor vários outros exemplos Só que acima de duas dimensões começa a ficar difícil desenhar no papel o espaço de fase Além disso nem sempre é fácil calcular hipervolumes de regiões limitadas nesse espaço Vamos portanto apresentar apenas um exemplo adicional de enorme interesse físico Exemplo 3 gás ideal clássico de N partículas monoatômicas e nãointeragentes ou seja desprezando quaisquer interações entre as partículas de massa m dentro do volume V com energia entre E e E δE O hamiltoniano desse sistema é dado por H 12m pj² 30 As coordenadas de posição rj j1N variam irrestritamente dentro do volume V Cada componente das coordenadas de momento pode assumir valores entre e com a restrição de que a energia total esteja entre E e E δE Portanto o volume do espaço de fase acessível ao sistema Ω Ω E V N δE será dado por Ω V d3 r1 d3 rN d3 p1 d3 pN d3 p1 d3 pN 31 Para calcular essa última integral em primeira ordem em δE vamos recorrer à fórmula para o hipervolume de uma hipercoroa esférica de raio R e espessura δR num espaço ndimensional ver apêndice A4 Ωn R δR Cn Rn1 δR 32 onde Cn é uma constante que depende apenas da dimensão n No nosso caso com n 3Ne e R 2mE12 temos Ωn EVN δE m212 C3N 2m3N2 12 VN E3N2 1 δE 33 onde a constante C3N pode ser obtida por meio das fórmulas do apêndice Sistemas dessa natureza em que o volume e a energia no limite de N grande comparecem na expressão de Ω na forma de potências de uma fração de N constituem exemplos importantes de fluidos ideais que vamos chamar de sistemas normais 23 ENSEMBLE ESTATÍSTICO HIPÓTESE ERGÓDICA POSTULADO FUNDAMENTAL DA MECÂNICA ESTATÍSTICA O conjunto dos autoestados de um modelo quântico ou o conjunto dos pontos do espaço de fase clássico acessíveis a um determinado sistema ou seja compatíveis com certos vínculos macroscópicos constituem um ensemble estatístico A4 VOLUME DE UMA HIPERESFERA O volume de uma hiperesfera de raio R num espaço de dimensão n é dado por Vn R dx1 dxn 34 Certamente Vn R será proporcional a Rn Portanto podemos escrever Vn R An Rn 35 onde An é um prefator que depende apenas da dimensionalidade n do espaço Então temos δVn R nAn Rn1 δR Sn R δR 36 onde Sn R é a área da hiperesfera de raio R Usando a notação do capítulo 4 temos o volume da hipercoroa esférica de raio R e espessura δR num espaço de dimensão n Ωn R δR Sn R δR Cn Rn1 δR 37 onde Cn nAn Para calcular o coeficiente Cn vamos observar que expax2 dxn expax12 axn2 dx1 dxn πan2 38 Mas também podemos escrever expax12 axn2 dx1 dxn 0 expaR2 nAn Rn1 dR nAn 2 an2 0 xn2 1 ex dx nAn 2 an2 Γ n2 39 Portanto πan2 nAn 2 an2 Γ n2 40 de onde vem que Cn nAn 2 πn2 Γ n2 41 ou seja Ωn R δR 2 πn2 Γ n2 Rn1 δR 42

Envie sua pergunta para a IA e receba a resposta na hora

Recomendado para você

Física Estatística

8

Física Estatística

Física Estatística

UFRN

Física Estatísitica

4

Física Estatísitica

Física Estatística

UFRN

Roteiro para Aula Didatica

7

Roteiro para Aula Didatica

Física Estatística

UFPA

Termodinâmica e Probabilidade - Resolução de Exercícios

12

Termodinâmica e Probabilidade - Resolução de Exercícios

Física Estatística

IFMA

Lista 3-2023-1

5

Lista 3-2023-1

Física Estatística

UTFPR

Lista de Exercícios Mecânica Estatística

1

Lista de Exercícios Mecânica Estatística

Física Estatística

UEMA

Mecanica Estatitica- Segunda Lista

1

Mecanica Estatitica- Segunda Lista

Física Estatística

UEPB

Ensembles Canonico Grande Canonico e de Pressoes - Fisica Estatistica

35

Ensembles Canonico Grande Canonico e de Pressoes - Fisica Estatistica

Física Estatística

IFMA

Mecanica Estatistica

55

Mecanica Estatistica

Física Estatística

UNINTER

Resolução da Lista

23

Resolução da Lista

Física Estatística

UEMA

Texto de pré-visualização

MECÂNICA ESTATÍSTICA III 1 Obtenha o limite gaussiano da distribuição binomial 2 Deduza a equação diferencial do fenômeno da difusão usando o problema do caminho aleatório 3 Calcule o número de autoestados acessíveis com energia E para um conjunto de N osciladores harmônicos unidimensionais de mesma frequência fundamental w 4 Obtenha o número de microestados acessíveis para N partículas nãointeragentes numa caixa cúbica de volume V Use o método exato via Apêndice A4 do livro do Sílvio Salinas Edusp O LIVRO TEXTO É O SALINAS Esses exemplos estão no capítulo 1 e 2 mas quero a solução detalhada É interessante consultar o livro para checar se as respostas batem INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS Escolhemos o problema do caminho aleatório em uma dimensão para introduzir alguns conceitos e técnicas da teoria de probabilidades Por meio desse problema vamos estudar as propriedades das distribuições binomial e gaussiana exemplificar conceitos importantes como valor médio e desvio padrão e discutir o papel dos grandes números As versões mais simples do problema do caminho aleatório representam modelos de interesse físico sugeridos pelo fenômeno da difusão de partículas em um meio viscoso Estamos supondo que já sejam conhecidas as idéias mais elementares da teoria de probabilidades Basta saber jogar dados não viciados ou baralhos bem embaralhados Dispondo de um único dado a probabilidade de obter a face 3 numa única jogada é 16 Sabemos que há seis eventos possíveis que correspondem ao espaço amostral na linguagem da física estatística ao conjunto de microestados acessíveis ao sistema e que apenas um desses estados corresponde ao evento face 3 Estamos supondo de antemão a priori como se costuma dizer que todos os estados acessíveis são equiprováveis Portanto a probabilidade de obter a face 3 é exatamente 16 Qual a probabilidade de em duas jogadas consecutivas obter duas vezes a mesma face 3 Certamente é 136 pois há 36 eventos distintos equiprováveis e apenas um deles contém duas vezes a face 3 Também poderíamos ter dito que em cada jogada as probabilidades são independentes e que portanto se multiplicam A probabilidade de obter duas faces distintas em qualquer ordem é 236 e assim por diante Essas noções são suficientes para calcular as probabilidades associadas ao problema do caminho aleatório 11 O PROBLEMA DO CAMINHO ALEATÓRIO Vamos considerar um indivíduo que se desloca sobre uma reta a partir da origem dando passos de comprimento igual l para a direita com probabilidade p ou para a esquerda com probabilidade q 1 p O problema consiste em encontrar a probabilidade PNm de que o indivíduo se encontre na posição x ml depois de ter dado N passos com m inteiro e N m N Uma versão vetorial desse problema num espaço tridimensional poderia servir para estudar o fenômeno de difusão de uma molécula gasosa que sofre colisões intermoleculares Figura 11 Caminho aleatório com passos de comprimento l ao longo do eixo x A probabilidade de uma determinada seqüência de N passos com N1 passos para a direita e N2 passos para a esquerda é dada por p pq q pN1 qN2 Por outro lado o número de seqüências desse tipo isto é seqüências com N1 passos para a direita e N2 N N1 passos para a esquerda é dado pelo fator combinatório NN1 N2 Então a probabilidade de num total de N passos dar N1 passos para a direita e N2 passos para a esquerda é dada pela famosa distribuição binomial WNN1 NN1 N2 pN1 qN2 1 com pq1 e N1 N2 N Note que essa probabilidade já está devidamente normalizada De fato temos N10N WNN1 N10N NN1 N2 pN1 qN2 pqN 1 Note também que 0 WNN1 1 para 0 N1 N ou seja a probabilidade é um número positivo que varia entre 0 e 1 Como m N1 N2 a probabilidade PNm será dada por PNm NNm2 Nm2 pNm2 qNm2 2 com pq1 Para explicitar a conexão com os fenômenos de difusão podemos formular o problema do caminho aleatório por meio de uma equação estocástica isto é envolvendo variáveis aleatórias ou probabilísticas de diferenças Vamos supor que cada passo seja dado em seqüência num intervalo de tempo τ Então PNm pode ser interpretada como a probabilidade de o caminhante ou de a partícula ser encontrado na posição x ml no instante de tempo t Nτ Somente uma partícula que esteja nas posições xm1l ou xm1l no tempo t Nτ é que pode atingir a posição x ml no passo seguinte isto é para t N1τ Podemos então escrever a relação de recorrência PN1m pPNm1 qPNm1 3 É fácil verificar que a distribuição binomial dada pela equação 2 satisfaz essa relação de recorrência Seqüências em que a probabilidade num dado instante depende apenas dos valores das probabilidades no instante anterior são conhecidas como cadeias de Markoff e têm grande relevância em problemas de interesse físico Equações estocásticas dessa natureza em que os detalhes da dinâmica de um sistema físico são substituídos por assertivas probabilísticas desempenham um papel cada vez maior no estudo contemporâneo de sistemas fora do equilíbrio ver capítulo 16 No caso particular em que pq12 tomando o limite no qual τ e l são muito pequenos podemos escrever a representação contínua PN1 PNτ Pt Pmll Pmll 2Pmll2 2 P x2 Nesse limite portanto obtemos a famosa equação diferencial da difusão Pt D ²Px² com o coeficiente D ℓ²2τ 12 VALORES MÉDIOS E DESVIO PADRÃO Seja u uma variável aleatória que pode assumir M valores discretos tal que uj ocorra com probabilidade Pj Puj onde 0 Pj 1 para qualquer j Em geral vamos considerar distribuições devidamente normalizadas isto é tal que Σj1 to M Puj 1 O valor médio ou valor esperado da variável u é definido por u u Σj1 to M uj Puj Se fu for uma função de u o valor esperado de fu será dado por fu fu Σj1 to M fuj Puj É fácil mostrar que i fu gu fu gu e ii c fu c fu onde c é uma constante e f e g são funções aleatórias de u O desvio da média é definido por Δu u u É claro que Δu u u 0 ou seja o valor médio do desvio da média é de muito pouca utilidade O desvio quadrático é dado por Δu² u u ² A dispersão ou segundo momento é o valor médio do desvio quadrático dado por Δu² u u ² u² u ² É claro que Δu² 0 ou seja u² u ² A dispersão muitas vezes é chamada de variância A raiz da dispersão é o chamado desvio padrão A comparação entre o desvio padrão e o valor médio é muito importante pois fornece uma idéia da largura da distribuição de probabilidades ou seja indica se a distribuição é muito fina centrada no valor médio ou muito espalhada com grandes flutuações de valores em torno da média Finalmente podemos definir o momento em relação à média de ordem n Δun u u n que também poderá ter utilidade Por meio dos momentos sempre é possível reconstituir uma distribuição de probabilidades No entanto em muitos casos de interesse para um número grande de eventos vamos ver que basta um conhecimento dos dois primeiros momentos u e u² Figura 12 Exemplos de distribuições estatísticas No lado direito ΔN1 N1 No caso do problema do caminho aleatório temos N1 ΣN10 to N N1 WN N1 ΣN10 to N N1 NN1 N2 pN1 qN2 onde N2 N N1 e no final devemos fazer q 1 p Portanto podemos escrever N1 p p ΣN10 to N NN1 N2 pN1 qN2 p p pqN pN pqN1 pN É claro que N2 N N1 N pN qN Em resumo temos N1 pN N2 qN Para calcular a dispersão em relação à média podemos proceder da mesma maneira observando que N12 p p p p ΣN10 to N NN1 N2 pN1 qN2 p p pN pqN1 pN p²NN1 Portanto temos ΔN12 N12 N1 ² Npq que conduz à famosa forma do desvio padrão proporcional a N ΔN1 ΔN12 pq12 N Então temos o desvio relativo ΔN1 N1 qp12 1N indicando que a distribuição binomial se torna muito fina centrada em torno do valor médio N1 para N suficientemente grande ver figura 12 13 LIMITE GAUSSIANO DA DISTRIBUIÇÃO BINOMIAL No limite N temos WN0 qN 0 e WNN pN 0 Portanto WNN1 deve ter um máximo para N1 ildeN1 rN com 0r1 Para N grande embora N1 seja um inteiro podemos supor que perto do máximo a função WNN1 seja quase contínua em relação à variável aleatória N1 Na realidade em vez de trabalhar com WNN1 é mais conveniente trabalhar com ln WNN1 que varia bem mais lentamente Como a função logaritmo é monótonica crescente tanto faz achar o máximo de WNN1 ou de ln WNN1 Assim temos fN1 ln WNN1 ln N ln N1 ln NN1 N1 ln p NN1 ln q Perto do máximo tanto N1 quanto NN1 devem ser da ordem de N Tornase então interessante eliminar os fatoriais por meio da famosa expansão assintótica de Stirling ver apêndice A1 que será usada muitas vezes nesse texto ln N N ln N N Oln N Então temos fN1 N ln N N N1 ln N1 N1 NN1 ln NN1 N N1 N1 ln p N N1 ln q Oln N1 ln N N1 Portanto podemos escrever fN1 ln N1 ln NN1 ln p ln q O1N 1NN1 0 No limite N temos ln ildeN1 ln N ildeN1 ln p ln q 0 ou seja ildeN1 Np N1 indicando a coincidência entre o valor mais provável e o valor médio ver equação 11 É fácil obter a derivada segunda 2 fN12 1N1 1NN1 O1N12 1NN12 No ponto de máximo para N temos 2 fN12N1 ildeN1 1Npq 1Delta N12 0 Vamos agora considerar uma expansão de Taylor em torno do máximo ildeN1 N1 Assim temos fN1 ln WNN1 ln WN ildeN1 12 Npq N1 ildeN12 A aproximação gaussiana consiste em abandonar os termos de ordem superior nessa expansão Isso se justifica pois para N grande WN1 só tem um valor apreciável nas vizinhanças de seu valor máximo Observando que ildeN1 N1 e que Npq Delta N12 Delta N12 podemos escrever a aproximação gaussiana para a distribuição binomial pGN1 p0 exp N1 N122Delta N12 onde o coeficiente p0 é determinado pela condição de normalização p0 expx22Delta N12 dx 1 Utilizando os resultados do apêndice A2 para as integrais de forma gaussiana temos p0 2 pi Delta N1212 Podemos então escrever a distribuição normal ou gaussiana pGN1 2 pi Delta N1212 exp N1 N122Delta N12 Utilizando pGN1 é fácil verificar que N1G int N1 pGN1 dN1 N1 e que Delta N12G int N1 N1G2 pGN1 dN1 Delta N12 em concordância com os resultados para a distribuição binomial de origem Entretanto os momentos superiores calculados com a distribuição gaussiana deixam de coincidir com os momentos correspondentes calculados com a distribuição binomial Cabe agora uma indagação sobre os limites de validade da aproximação de uma distribuição binomial pela gaussiana correspondente com os mesmos valores do primeiro e do segundo momentos Para analisar essa questão vamos considerar a derivada terceira 3 fN13 1N12 1NN12 O1N13 No ponto de máximo para N o termo dominante dessa derivada será dado por ³f N₁³N₁N₁ q p N² p² q² A aproximação gaussiana deve ser muito boa para 1 2 Npq N₁ N₁² q p 6 N² p² q² N₁ N₁³ isto é para N₁ N₁ 3 Npq q p Fora desse intervalo ou seja para N₁ N₁ 3 Npq q p temos pG p₀ exp1 2Npq 9 N² p² q² q p² 0 para N Portanto no intervalo em que a aproximação é ruim a distribuição pG é praticamente nula Como o desvio padrão tanto da binomial quanto da gaussiana é da ordem de N tanto a binomial quanto a gaussiana são muito ou seja exponencialmente pequenas quando N₁ N₁ for grande Também é fácil calcular outras derivadas e mostrar que esse cálculo continua válido em ordens superiores 14 DISTRIBUIÇÕES DE VÁRIAS VARIÁVEIS ALEATÓRIAS DISTRIBUIÇÕES CONTÍNUAS Uma generalização imediata do que já foi visto consiste em levar em conta duas ou mais variáveis aleatórias discretas Vamos por exemplo considerar as variáveis u e v Ao par uj vk podemos associar a distribuição conjunta 0 Puj vk 1 tal que Σjk Puj vk 1 30 Podemos também definir a probabilidade Puuj Σk Puj vk 31 de que u assuma o valor uj independentemente do valor de vk É claro que Σj Puuj 1 32 Duas variáveis aleatórias são estatisticamente independentes ou não correlacionadas quando Puj vk Puuj Pvvk 33 É fácil calcular os valores esperados da soma ou do produto de variáveis aleatórias distintas Em particular o valor esperado do produto é o produto dos valores esperados apenas no caso de variáveis aleatórias estatisticamente independentes Outra generalização imediata que na realidade já foi implicitamente utilizada na construção das distribuições gaussianas consiste em considerar variáveis aleatórias contínuas Vamos supor que a variável aleatória u possa assumir qualquer valor no intervalo entre a e b Então a forma diferencial pu du deve ser interpretada como a probabilidade de que a variável u esteja entre os valores u e u du e a função pu representa na realidade uma distribuição de densidades de probabilidade A normalização será dada por ab pu du 1 34 É muito fácil generalizar todos os conceitos probabilísticos que já foram utilizados para distribuições discretas Por exemplo o valor médio da função estocástica fu será dado por fu ab fu pu du 35 No limite contínuo de distribuições discretas devese notar que du é geralmente um intervalo macroscopicamente pequeno porém microscopicamente grande A probabilidade devese anular com du mas a densidade pu que muitas vezes também é chamada distribuição de probabilidades é independente do tamanho de du Todas essas ideias já foram informalmente utilizadas na seção anterior no processo de construção da aproximação gaussiana pGN₁ para a distribuição binomial O problema do caminho aleatório em uma dimensão pode ser ligeiramente generalizado supondo que o deslocamento no jésimo passo seja caracterizado pelo comprimento aleatório contínuo sj que ocorre com probabilidade wsj dsj Podemos então perguntar depois de N passos qual a probabilidade px N dx de encontrar o indivíduo no intervalo entre x e x dx onde x Σj1N sj Tanto sj para j 1 N quanto x são variáveis aleatórias contínuas O comprimento x é uma função das variáveis aleatórias independentes e identicamente distribuídas s1 sN O valor médio e a dispersão da variável x podem ser calculados imediatamente Assim temos x Σj1N sj Σj1N sj N s 36 onde s s ws ds 37 Então Δx Σj1N sj N s Σj1N sj s Σj1N Δsj 38 Portanto temos Δx Σj1N Δsj 0 39 Da mesma forma temos Δx² Σ from j1 to N ΔsjΣ from k1 to N Δsk Σ from j1 to N Δsj² Σ from jk ΔsjΔsk Portanto Δx² Σj1N Δsj² Σjk Δsj Δsk Porém Δsj Δsk ΔsjΔsk 0 para j k pois os passos são estatisticamente independentes Então temos Δx² Σj1N Δsj² N Δs² onde Δs² from to Δs² ws ds Finalmente podemos obter o desvio relativo Δx² x Δs² s 1N 1N Novamente para N grande supondo que ws seja uma função bemcomportada anulandose de maneira suficientemente rápida para s a distribuição pxN deve ser localizada nas vizinhanças do valor esperado Na próxima seção vamos obter uma forma integral para pxN e mostrar que ela realmente se transforma numa gaussiana no limite de N grande De certa forma isso explica porque as distribuições gaussianas ocorrem com tanta frequência em situações físicas envolvendo um número grande de eventos independentes associados a uma forma arbitrária de probabilidade 15 DISTRIBUIÇÃO PARA O PROBLEMA DO CAMINHO ALEATÓRIO GENERALIZADO LIMITE GAUSSIANO Como os passos no problema do caminho aleatório generalizado são estatisticamente independentes a probabilidade de uma determinada sequência é dada por um simples produto de maneira análoga ao que foi feito no caso do problema discreto Vamos considerar de novo uma sequência de N passos supondo que o deslocamento no jésimo passo tenha o comprimento aleatório sj ocorrendo com a probabilidade wsj dsj A probabilidade de encontrar o caminhante entre x e x dx onde x Σ from j1 to N sj é dada por pxN dx x s1 s2 sN xdx ws1 ds1 wsN dsN onde as integrações devem ser realizadas de a com a restrição indicada Para remover essa restrição podemos utilizar a função δ de Dirac que admite uma representação da forma ver apêndice A3 δx 1γ para γ2 x γ2 0 para x γ2 com γ 0 Portanto temos pxN dx from to from to ws1 ds1 wsN dsN dx δx Σ from j1 to N sj Utilizando agora uma representação integral da função δ ver apêndice A3 δx 12π from to expikx dk temos pxN12π from to from to ws₁ ds₁ wsN dsN from to expikx Σ from j1 to N sj dk Agora é fácil perceber que a integração nas variáveis s₁sN se fatoriza levando finalmente à forma integral pxN 12π from to expikx ŵkN dk onde a função característica ŵk é a transformada de Fourier de ws ŵk from to expiksws ds A título de mero exercício vamos verificar que de fato esse formalismo reproduz a distribuição binomial no caso do caminho aleatório em uma dimensão com passos de mesmo comprimento l Nesse caso ws é dada por ws pδs l qδs l Então ŵk p expikl q expikl de onde vem que ŵkN Σ from n0 to N NnNn peikln qeiklNn Portanto temos pxN 12π expikx Σ from n0 to N NnNn pn qNn expiknl iklNn dk Σ from n0 to N NnNn pn qNn δx 2nl Nl Então px se anula a não ser que x 2n N l com n 01N Para obter a forma discreta da distribuição binomial temos de integrar px num intervalo infinitesimal no entorno de x 2n N l Assim temos finalmente PNn 2nNlε2nNlε pxN dx N nNn pn qNn Também podemos obter pxN de forma simples e directa por meio de uma equação estocástica de diferenças como já foi feito na seção 11 para o caso do caminho aleatório com passos iguais Generalizando a equação 3 temos a relação de recorrência pxN1 pxsN ws ds 52 cujo lado direito tem a forma de uma integral de convolução Introduzindo as transformadas de Fourier pkN expikx pxN dx 53 e ŵk dada pela equação 51 temos pkN1 pkN ŵk 54 Levando em conta que no instante inicial isto é para N 0 o caminhante está na origem ou seja que px0 δx essa equação nos fornece pkN ŵkN 55 A distribuição pxN será dada pela transformada inversa de Fourier pxN 12π expikx ŵkN dk 56 que não poderia deixar de coincidir com a equação 50 Vamos agora obter uma expressão para pxN no limite de N muito grande Devido ao fator oscilante expiks a função ŵk só é apreciável nas vizinhanças de k 0 Isso é ainda mais acentuado no caso de ŵkN com N grande Vamos então escrever a expansão ŵk expiks ws ds ws 1 iks 12 k2 s2 ds 57 1 iks 12 k2 s2 Portanto temos ŵkN exp N ln ŵk exp N iks 12 k2 s2 s2 0k3 58 Abandonando os termos de ordem superior a k2 temos a integral px 12π exp ikx Niks 12 N Δs2 k2 dk 59 que fornece a forma gaussiana px 2πσ212 exp x μ2 2σ2 60 onde μ Ns e σ2 NΔs2 Novamente encontramos uma distribuição gaussiana com o mesmo valor esperado e a mesma variância da distribuição original Na realidade a distribuição gaussiana nesse caso é uma manifestação particular do famoso teorema do limite central da teoria das probabilidades Isso tudo funciona desde que i os passos sejam estatisticamente independentes ii a função ws diminua de maneira suficientemente rápida com s e iii N seja suficientemente grande Condições dessa natureza podem ser identificadas numa grande variedade de fenômenos de interesse físico justificando a utilização e a importância da distribuição gaussiana EXERCÍCIOS 1 Qual a probabilidade de fazer pelo menos seis pontos numa jogada de três dados 2 Considere uma distribuição binomial para o caminho aleatório em uma dimensão com N 60 p 23 e q 1 p 13 a Trace um gráfico de PNN1 contra N1N b Obtenha a distribuição gaussiana correspondente pGN1 isto é com os mesmos valores de N1 e N12 da binomial Trace um gráfico de pGN1 contra N1N Compare com os resultados do item anterior c Repita os itens a e b com N 30 e N 15 Há modificações sensíveis 3 Obtenha expressões para o terceiro e o quarto momentos de uma distribuição binomial Como é que se comportam esses momentos para N grande 4 Dois bêbados começam a caminhar sobre uma linha reta a partir da origem dando passos de mesmo comprimento para a direita ou para a esquerda com a mesma probabilidade Suponha que os passos dos dois sejam simultâneos Ache a probabilidade de que eles se encontrem novamente depois de dar N passos 5 A probabilidade de que um evento caracterizado pela probabilidade p ocorra n vezes num total de N tentativas é dada pela distribuição binomial Wn N nN n pn 1 pNn Considere uma situação em que p seja pequeno p 1 e que portanto Wn seja apreciavelmente diferente de zero apenas para n N Nessas circunstâncias mostre que Wn λn n expλ onde λ Np é o número médio de eventos Esta é a chamada distribuição de Poisson Formule um problema estatístico que poderia ser resolvido em termos dessa distribuição 6 Num caminho aleatório em uma dimensão depois de N passos a partir da origem a posição é dada por x Σj1N sj onde sj é um conjunto de variáveis aleatórias independentes identicamente distribuídas dadas pela distribuição de probabilidades ws 2πσ212 expsl22σ2 onde σ e l são constantes positivas Depois de N passos qual o deslocamento médio a partir da origem Qual o valor do desvio quadrático médio da variável aleatória x Para N grande qual a forma da distribuição gaussiana associada a esse problema Como é que seus resultados se modificariam se em cada passo o deslocamento fosse sempre positivo com probabilidades iguais de se situar em qualquer ponto no intervalo entre lb e lb com 0 b l 7 Considere novamente o problema anterior com uma distribuição da forma ws 1π s2 a2 com a 0 Obtenha uma expressão para a distribuição de probabilidades associada à variável aleatória x Essa distribuição se transforma numa gaussiana para N grande Por quê 2 DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA FÍSICO Os ingredientes básicos da análise mecânicoestatística de um sistema físico em equilíbrio podem ser resumidos nas seguintes etapas 1 especificação dos estados microscópicos do sistema que formam um conjunto denominado ensemble estatístico 2 estabelecimento de um postulado estatístico básico e utilização da teoria das probabilidades No caso de um sistema com energia total fixa utilizamos a hipótese simplificadora das probabilidades iguais a priori que conduz à definição do ensemble microcanônico 3 estabelecimento de uma conexão com a termodinâmica ou seja com as variáveis visíveis do mundo macroscópico Um sistema físico de partículas é governado pelas leis da mecânica clássica ou quântica dependendo do nível e dos interesses da nossa análise que fornecem os meios para a especificação de um estado microscópico No entanto dependendo do fenômeno analisado podemos construir modelos específicos às vezes de caráter semicássico em que a dinâmica microscópica é drasticamente simplificada Nesses casos levamse em conta apenas os mecanismos essenciais que seriam responsáveis pelas manifestações físicas estudadas Por exemplo para analisar as propriedades magnéticas de um cristal iônico isolante é conveniente considerar uma rede cristalina rígida desprezando o movimento vibracional dos íons magnéticos Em modelos magnéticos dessa natureza normalmente estamos interessados somente nos momentos magnéticos isto é spins da capa eletrônica 42 Introdução à Física Estatística separando o efeito dos demais graus de liberdade inclusive dos spins nucleares Por razões de ordem técnica às vezes é interessante introduzir um modelo discreto para um gás de N partículas num volume V no chamado modelo do gás de rede o volume é dividido em V células discretas que podem estar vazias ou ocupadas por no máximo uma partícula simulando o efeito de impenetrabilidade produzido por um potencial intermolecular de caroço duro Nesse caso a especificação microscópica do sistema consiste na identificação das configurações de N partículas em V células O ensemble estatístico é constituído pelo conjunto dos estados microscópicos aos quais serão associados determinados pesos probabilísticos Neste capítulo vamos utilizar uma série de exemplos para ilustrar a especificação dos estados microscópicos de modelos estatísticos Também vamos enunciar o postulado fundamental da mecânica estatística construir o ensemble microcanônico e apresentar uma discussão sucinta das bases da teoria A conexão com o mundo macroscópico será postergada para um próximo capítulo aguardando a discussão das idéias básicas da termodinâmica gibbsiana 21 ESPECIFICAÇÃO DO ESTADO MICROSCÓPICO DE UM SISTEMA EXEMPLOS QUÂNTICOS Na mecânica quântica um sistema estacionário é caracterizado pela função de onda Ψq1q2 Em geral essa função de onda pode ser escrita em termos de uma base ortonormal completa de autofunções de um operador como o hamiltoniano do sistema Assim temos Ψ Σn cnφn 1 Hφn Enφn onde H é o operador hamiltoniano Os autoestados φn caracterizados pelo conjunto de n números quânticos fornecem uma maneira simples de contar os estados microscópicos do sistema Mais adiante vamos voltar a essa questão a fim de mostrar que a própria mecânica quântica já tem um caráter estatístico intrínseco distinto da estatística necessária devido à distribuição de estados microscópicos do sistema Exemplo 1 partícula localizada de spin 12 Há dois autoestados α 1 0 e β 0 1 correspondentes a spin para cima ou e a spin para baixo ou respectivamente Na presença de um campo magnético H a energia hamiltoniano é dada por 𝓗 μ H μz H μo H com spin μo H com spin onde μ é o momento magnético com projeção μz ao longo do campo podendo assumir os valores μo ou μo Exemplo 2 três partículas localizadas de spin 12 nãointeragentes ou talvez muito fracamente interagentes na presença de uma campo aplicado H Nesse caso o hamiltoniano é dado pela soma 𝓗 μ1 H μ2 H μ3 H Temos então oito autoestados que são dados pelos seguintes produtos i ou α1 α2 α3 com energia 3 μo H ii iii e iv com energia μo H v vi e vii com energia μo H e viii com energia 3 μo H Os autoestados com energias μo H são triplamente degenerados Exemplo 3 N partículas localizadas de spin 12 nãointeragentes na presença de um campo H Nesse caso o hamiltoniano é dado pela soma 𝓗 Σ j1 a N μj H μo H Σ j1 a N σj onde o conjunto de variáveis de spin σj j 1 N com σj podendo assumir os valores 1 para qualquer j designa cada um dos microestados acessíveis ao sistema Dada a energia E temos grande degenerescência nesse sistema De fato a energia pode ser escrita em termos do número de spins para cima N1 e do número de spins para baixo N2 N N1 Assim temos E μ0 HN1 μ0 H N N1 Portanto N1 12 N Eμ0 H e N2 N N1 12 N Eμ0 H Como a energia depende apenas de N1 e de N podemos utilizar as mesmas noções combinatórias que já foram empregadas no problema do caminho aleatório para obter o número de autoestados acessíveis ao sistema com uma dada energia E Ω EN N N1 N2 N 12 N Eμ0 H 12 N Eμ0 H Mais adiante vamos ver que dada a energia E o postulado fundamental da mecânica estatística estabelece que todos esses microestados são igualmente prováveis A conexão com a termodinâmica se dá por meio da função entropia que deve ser identificada com o logaritmo natural de Ω E N no chamado limite termodinâmico em que E N com a razão EN fixa Esse modelo de spins nãointeragentes representa muito bem o comportamento térmico de um paramagneto ideal A introdução de interações entre os spins que torna o problema estatístico extremamente complicado é capaz de produzir um modelo para a explicação dos fenômenos de ordenamento magnético como o ferromagnetismo Exemplo 4 oscilador harmônico unidimensional de frequência ω Nesse caso os autoestados são dados pelos polinômios de Hermite correspondendo aos autovalores de energia En n 12 ℏω com n 0 1 2 Exemplo 5 dois osciladores harmônicos unidimensionais localizados e independentes com a mesma frequência fundamental ω Como no caso dos spins localizados e nãointeragentes em problemas quânticos dessa natureza o hamiltoniano é somável 𝓗 𝓗1 𝓗2 os autoestados se mul tiplicam φ φ1φ2 e as autoenergias correspondentes também se somam E E1 E2 Portanto as autoenergias são dadas por En1n2 n1 12 ℏω n2 12 ℏω n1 n2 1 ℏω onde o par n1 n2 designa um autoestado quântico O autoestado 00 tem energia ℏω os autoestados 01 e 10 têm energia 2ℏω os autoestados 02 20 e 11 têm a mesma energia 3ℏω e assim por diante Exemplo 6 conjunto de Osciladores harmônicos unidimensionais localizados e nãointeragentes com a mesma frequência fundamental ω Essa generalização do exemplo anterior que dá origem a um problema combinatório ligeiramente mais sofisticado constitui o famoso modelo de Einstein proposto em 1906 para explicar a variação do calor específico dos sólidos com a temperatura As autoenergias são dadas por En1nN n1 12 ℏω nN 12 ℏω n1 nN N2 ℏω onde o conjunto de números quânticos n1 nN com nj 0 1 2 para qualquer j designa o autoestado correspondente Podemos escrever essa energia na forma En1nN M ℏω N2 ℏω onde o inteiro M n1 nN representa o número total de quanta de energia no sistema Para encontrar a degenerescência dos autoestados correspondentes a essa energia basta descobrir o número de maneiras de distribuir M Eℏω N2 quanta de energia entre N osciladores localizados O problema combinatório é análogo ao cálculo da distribuição de M bolas idênticas dentro de N caixas dispostas ao longo de uma determinada direção A figura abaixo auxilia o nosso raciocínio Na primeira caixa há três bolas na segunda caixa quatro bolas na terceira uma bola e assim por diante até a última caixa que tem duas bolas Para descobrir todas as configurações possíveis devemos calcular todas as permutações de M N 1 elementos isto é das bolas mais as divisórias que definem as caixas e dividir o número obtido por M pois as bolas são idênticas e por N 1 pois as divisórias também são idênticas Assim temos o número de autoestados acessíveis ao sistema com energia E ΩE N M N 1 M N 1 E ħω N2 1 E ħω N2N 1 12 No capítulo 4 vamos utilizar ΩE N para estabelecer a conexão com a termodinâmica e obter a famosa lei de Einstein da variação do calor específico dos sólidos com a temperatura Exemplo 7 partícula livre de massa m em uma dimensão dentro de uma caixa de potencial de lado L ou seja tal que 0 x L com potencial nulo dentro da caixa e infinito fora dela O hamiltoniano desse sistema será dado por 𝓗 1 2m pₓ² ℏ² 2m d² dx² 13 Portanto temos a equação de Schroedinger ℏ² 2m d²ϕx dx² Eϕx 14 cuja solução pode ser escrita na forma ϕx A sen kx B cos kx 15 com as constantes A e B reais e a energia dada por E ℏ²k² 2m 16 As condições de contorno ϕ0 ϕL 0 fornecem o espectro discreto de autoestados e respectivos autovalores de energia desse sistema ϕx A sen kₙ x 17 Eₙ ℏ²kₙ² 2m com kₙ nπ L onde n 1 2 3 18 Mais adiante neste texto vamos preferir escrever a função de onda de partícula única na forma complexa ϕₖx C expikx 19 e utilizar condições periódicas de contorno ϕ0 ϕL tal que k 0 2πL 2 2π L 3 2π L 20 É importante notar que no limite termodinâmico L condições de contorno distintas devem conduzir aos mesmos resultados termodinâmicos Exemplo 8 sistema de N partículas livres e nãointeragentes de massa m em uma dimensão dentro de uma caixa de potencial de lado L ou seja tal que 0 x₁ L 0 x₂ L 0 xN L com potencial nulo dentro da caixa e infinito fora dela O hamiltoniano desse sistema será dado por 𝓗 1 2m j1 até N pⱼ² ℏ² 2m j1 até N d² dxⱼ² 21 Portanto temos a equação de Schroedinger ℏ² 2m j1 até N d² dxⱼ² Φx₁ xN EΦx₁ xN 22 cuja solução é dada pelo produto Φx₁ xN ϕk₁ x₁ ϕkN xN 23 onde as funções de partícula única podem ser escritas na forma ϕₖx C expikx como na equação 19 A energia é dada por E Ek₁ kN ℏ² 2m k₁² kN² 24 e a imposição de condições periódicas de contorno fornece a quantização dos números de onda k₁ n₁ 2π L kN nN 2π L 25 onde n₁ nN 0 1 2 3 Um particular estado microscópico do sistema seria designado pelo conjunto de números quânticos k₁ kN No entanto as funções de onda de partículas quânticas idênticas devem ser simétricas no caso de bósons ou antisimétricas no caso de férmions diante da permutação de duas variáveis de posição A análise dos microestados do sistema quântico de N partículas idênticas é portanto bem mais complicada vamos postergála para um capítulo específico deste texto 22 ESPECIFICAÇÃO DO ESTADO MICROSCÓPICO DE UM SISTEMA CLÁSSICO DE PARTÍCULAS Em mecânica clássica um sistema de n graus de liberdade fica perfeitamente especificado quando conhecemos as n coordenadas generalizadas de posição q₁ qₙ e as n coordenadas generalizadas de momento p₁ pₙ Por exemplo no caso de N partículas livres no espaço euclidiano precisamos conhecer 3N coordenadas de posição e 3N momentos isto é x₁ y₁ z₁ xN yN zN px₁ py₁ pz₁ pxN pyN pzN É conveniente introduzir o espaço de fase constituído por 2n eixos tal que cada estado microscópico do sistema de n graus de liberdade seja representado por um único ponto nesse espaço Veja a figura 21 em que o par q p designa o conjunto de variáveis q₁ qₙ p₁ pₙ Podemos representar no espaço de fase todos os pontos estados microscópicos compatíveis com as condições macroscópicas de um sistema energia volume número de partículas Ao contrário dos exemplos quânticos agora vamos ter de realizar uma contagem de estados microscópicos num espaço contínuo Portanto é conveniente introduzir a função densidade ρqp tal que ρdq dp dê o número de estados microscópicos com coordenadas generalizadas dentro da célula dq dp Figura 21 Representação bidimensional de um espaço de fase clássico Exemplo 1 partícula livre de massa m em uma dimensão com energia E dentro de uma caixa de comprimento L isto é com 0 x L Como a energia tem a forma E p²2m o momento será dado por p 2mE Na figura 22 representamos o espaço de fase associado a esse sistema Todos os pontos situados sobre os dois segmentos da figura são acessíveis à partícula com energia E Figura 22 Os segmentos indicam as regiões acessíveis a uma partícula de energia E com posição 0 x L Nesse caso o espaço de fase é bidimensional mas a região de pontos acessíveis ao sistema constituída pelos dois segmentos da figura é unidimensional Isso introduz algumas dificuldades técnicas Seria interessante que a região acessível ao sistema tivesse a mesma dimensão do espaço de fase isto é que fosse uma área em duas dimensões um volume em três dimensões um hipervolume de dimensão d num espaço de fase d dimensional Para resolver essa questão em vez de definir uma energia fixa E vamos dizer que a energia está entre E e E δE onde δE é uma grandeza macroscopicamente pequena mas de valor fixo mais adiante vamos ver que no limite termodinâmico esse artifício facilita os cálculos e não tem qualquer efeito sobre a conexão com a termodinâmica Na figura 23 representamos as regiões do espaço de fase que são acessíveis ao sistema as duas faixas hachuradas com δp m2E δE Portanto o volume do espaço de fase acessível ao sistema será dado por ΩE L δE 2Lδp 2mE¹² LδE 26 Mais adiante vamos ver que de acordo com o postulado fundamental da física estatística a densidade de pontos é constante na região hachurada com valor normalizado dado por ρ 1Ω e se anula fora dela A entropia clássica embora não tenha qualquer sentido falar de entropia para um sistema de uma única partícula seria dada pelo logaritmo natural de Ω Figura 23 Regiões acessíveis a uma partícula livre em uma dimensão com energia entre E e E δE e posição 0 x L Os segmentos da figura 22 são substituídos pelas áreas hachuradas Exemplo 2 oscilador harmônico unidimensional com energia entre E e E δE O hamiltoniano clássico desse sistema é dado por H p²2m 12 kq² 27 onde m é a massa e k 0 é a constante de mola Portanto dada uma energia E a região de pontos acessíveis no espaço de fase é definida pela elipse p²2mE q²2Ek 1 28 Com a energia entre E e E δE a região acessível é uma coroa elíptica ver figura 24 cuja área é dada pela expressão ΩE δE 2π mk¹² δE 29 Nesse caso muito simples o volume do espaço de fase acessível ao sistema isto é a área Ω é uma função independente da energia Figura 24 Região do espaço de fase acessível a um oscilador harmônico unidimensional com energia entre E e E δE Poderíamos agora propor vários outros exemplos Só que acima de duas dimensões começa a ficar difícil desenhar no papel o espaço de fase Além disso nem sempre é fácil calcular hipervolumes de regiões limitadas nesse espaço Vamos portanto apresentar apenas um exemplo adicional de enorme interesse físico Exemplo 3 gás ideal clássico de N partículas monoatômicas e nãointeragentes ou seja desprezando quaisquer interações entre as partículas de massa m dentro do volume V com energia entre E e E δE O hamiltoniano desse sistema é dado por H 12m pj² 30 As coordenadas de posição rj j1N variam irrestritamente dentro do volume V Cada componente das coordenadas de momento pode assumir valores entre e com a restrição de que a energia total esteja entre E e E δE Portanto o volume do espaço de fase acessível ao sistema Ω Ω E V N δE será dado por Ω V d3 r1 d3 rN d3 p1 d3 pN d3 p1 d3 pN 31 Para calcular essa última integral em primeira ordem em δE vamos recorrer à fórmula para o hipervolume de uma hipercoroa esférica de raio R e espessura δR num espaço ndimensional ver apêndice A4 Ωn R δR Cn Rn1 δR 32 onde Cn é uma constante que depende apenas da dimensão n No nosso caso com n 3Ne e R 2mE12 temos Ωn EVN δE m212 C3N 2m3N2 12 VN E3N2 1 δE 33 onde a constante C3N pode ser obtida por meio das fórmulas do apêndice Sistemas dessa natureza em que o volume e a energia no limite de N grande comparecem na expressão de Ω na forma de potências de uma fração de N constituem exemplos importantes de fluidos ideais que vamos chamar de sistemas normais 23 ENSEMBLE ESTATÍSTICO HIPÓTESE ERGÓDICA POSTULADO FUNDAMENTAL DA MECÂNICA ESTATÍSTICA O conjunto dos autoestados de um modelo quântico ou o conjunto dos pontos do espaço de fase clássico acessíveis a um determinado sistema ou seja compatíveis com certos vínculos macroscópicos constituem um ensemble estatístico A4 VOLUME DE UMA HIPERESFERA O volume de uma hiperesfera de raio R num espaço de dimensão n é dado por Vn R dx1 dxn 34 Certamente Vn R será proporcional a Rn Portanto podemos escrever Vn R An Rn 35 onde An é um prefator que depende apenas da dimensionalidade n do espaço Então temos δVn R nAn Rn1 δR Sn R δR 36 onde Sn R é a área da hiperesfera de raio R Usando a notação do capítulo 4 temos o volume da hipercoroa esférica de raio R e espessura δR num espaço de dimensão n Ωn R δR Sn R δR Cn Rn1 δR 37 onde Cn nAn Para calcular o coeficiente Cn vamos observar que expax2 dxn expax12 axn2 dx1 dxn πan2 38 Mas também podemos escrever expax12 axn2 dx1 dxn 0 expaR2 nAn Rn1 dR nAn 2 an2 0 xn2 1 ex dx nAn 2 an2 Γ n2 39 Portanto πan2 nAn 2 an2 Γ n2 40 de onde vem que Cn nAn 2 πn2 Γ n2 41 ou seja Ωn R δR 2 πn2 Γ n2 Rn1 δR 42

Sua Nova Sala de Aula

Sua Nova Sala de Aula

Empresa

Central de ajuda Contato Blog

Legal

Termos de uso Política de privacidade Política de cookies Código de honra

Baixe o app

4,8
(35.000 avaliações)
© 2025 Meu Guru®