Upload
vocong
View
232
Download
0
Embed Size (px)
Citation preview
Formelsamling og noter
.
Statistisk fysik
19. juni 2012
Dennis Hansen
P (A|BI) = P (B|AI)P (B|I)
P (A|I) P (AB|I) =P (A|BI)P (B|I)
ρ(λ|BI) = P (B|λI)P (B|I)
ρ(λ|I) P (A+B|I) =P (A|I) + P (B|I)− P (AB|I)
ρ(λ|BI) = ρ(B|λI)ρ(B|I)
ρ(λ|I) P (A|I) = 1− P (A|I)
Z =∑konf.
e−∑
k λkfk δU =TδS − pδV
S = lnZ +∑k
λkFk δQ =TδS
∂ lnZ
∂λk= − Fk G = − T lnZ −
∑a
λaFa
∂S
∂Fk=λk H =U +
∑a
λaFa
INDHOLD
Indhold
1 Forord og indledning 4
2 Sandsynlighedsteori 5
2.1 Logik og Boolsk algebra . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Sandsynlighed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Bayes sætning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Sandsynlighedstætheder . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1 Bayes sætning for tætheder . . . . . . . . . . . . . . . . . . . 11
3 Statistik og parameterbestemmelse 14
3.1 Diskrete fordelinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.1 Moment-genererende funktion . . . . . . . . . . . . . . . . . . 14
3.2 Kontinuerte fordelinger . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1 Moment-genererende funktion . . . . . . . . . . . . . . . . . . 15
3.3 Eksperimentielle usikkerheder; én måling . . . . . . . . . . . . . . . . 16
3.3.1 Inddirekte måling . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3.2 Ophobningsloven, afhængige målinger . . . . . . . . . . . . . 16
3.4 Parameterbestemmelse . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5 Flere uafhængige målinger af en størrelse . . . . . . . . . . . . . . . . 17
3.5.1 Direkte måling . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5.2 Lineær sammenhæng mellem målinger; Bedste rette linje . . . 19
3.5.3 Lineær regression . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.6 Modelsammenligning . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Sandsynlighedsfordelinger 22
4.1 Binomialfordeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Multinomialfordeling . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Poisson-fordeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4 Normalfordeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.1 Multivariant normalfordeling . . . . . . . . . . . . . . . . . . 25
4.5 Student's t-fordeling . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5 Maksimal entropi-metoden 27
6 Statistisk klassisk mekanik/Termodynamik 29
6.1 Det kanoniske ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 29
6.1.1 Egenskaber for temperaturen T . . . . . . . . . . . . . . . . . 31
6.1.2 Klassisk idealgas i det kanoniske ensemble . . . . . . . . . . . 31
6.2 Tryk ensemblet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.2.1 Egenskaber for trykket p . . . . . . . . . . . . . . . . . . . . . 33
6.3 Det store kanoniske ensemble . . . . . . . . . . . . . . . . . . . . . . 33
6.3.1 Egenskaber for det kemiske potential µ . . . . . . . . . . . . . 34
6.4 Termodynamikkens første lov . . . . . . . . . . . . . . . . . . . . . . 34
6.5 Termodynamikkens anden lov . . . . . . . . . . . . . . . . . . . . . . 35
2 af 53
INDHOLD
6.6 Ligefordelingsloven, Ækvipartitionstheoremet . . . . . . . . . . . . . 36
6.7 Det generelle tilfælde: Systemvariable . . . . . . . . . . . . . . . . . . 36
6.8 Frie energier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.9 Entalpier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.10 Maxwell relationer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.11 Princippet om minimum energi . . . . . . . . . . . . . . . . . . . . . 40
7 Statistisk kvantemekanik 40
7.1 Formalisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.1.1 Kendt Hamiltonoperator . . . . . . . . . . . . . . . . . . . . . 42
7.2 Énpartikel systemer . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.2.1 Fri partikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.2.2 Harmonisk oscillator . . . . . . . . . . . . . . . . . . . . . . . 44
7.3 Mangepartikel systemer . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.3.1 Antal af tilstande og tilstandstæthed for frie partikler . . . . 46
7.4 Fermioner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.4.1 Degenereret Fermi-gas . . . . . . . . . . . . . . . . . . . . . . 48
7.4.2 Degenereret ideal Fermi-gas . . . . . . . . . . . . . . . . . . . 49
7.5 Bosoner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.5.1 Bose-Einstein kondensation . . . . . . . . . . . . . . . . . . . 51
A Appendix 52
A.1 Konstanter og omregning . . . . . . . . . . . . . . . . . . . . . . . . 52
A.2 Vigtige integraler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
A.2.1 Eksponentiale- og gaussiske integraler . . . . . . . . . . . . . 52
A.2.2 Trigonometriske integraler . . . . . . . . . . . . . . . . . . . . 52
A.2.3 Bose-integraler . . . . . . . . . . . . . . . . . . . . . . . . . . 52
A.3 Vigtige aedte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
A.3.1 Hyperbolske funktioner . . . . . . . . . . . . . . . . . . . . . 53
A.4 Vigtige summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3 af 53
1 FORORD OG INDLEDNING
1 Forord og indledning
Denne formelsamling slash notesamling er gældende til Statistisk Fysik i det Herrens
år 2012. Noterne er skrevet af Mig til Mig, og andre skal ikke forvente at noget godt
kommer ud af at læse dem. Dispositionen af indholdet i kurset er lidt anderledes ind
Per Hedegårds noter, da dette passer bedre til min smag.
Dennis Hansen
4 af 53
2 SANDSYNLIGHEDSTEORI
2 Sandsynlighedsteori
2.1 Logik og Boolsk algebra
Boolsk algebra er en måde at regne med udsagn som enten kan være sande eller falske
- ingen andre muligheder er tilladte. Boolsk algebra er baseret på tre grundlæggende
operationer mellem udsagn: + eller, · og, A ikke A.
De tre har sandhedstabellerne givet vedA B A+B AB A
0 0 0 0 1
0 1 1 0 1
1 0 1 0 0
1 1 1 1 0
Kommutative lov
Operatorerne og, eller kommuterer, dvs.
AB = BA , A+B = B +A .Associative lov
Desuden er operationerne også associative, dvs.
ABC = (AB)C = A (BC) , A+B + C = (A+B) + C = A+ (B + C) .
Distributive lovOg sidst men ikke mindst gælder de distributive regneregler ogs så vi kan og'e
og eller'e ind i parenteser:
A (B + C) = AB +AC , A+ (BC) = (A+B) (A+ C) .
To udsagn H1 og H2 (som evt. kunne bestå af andre udsagn forbundet gennem
de tre ovenstående operationer) siges at være ens eller logisk ækvivalente dvs.
H1 = H2, hvis de udgør en tautologi. Dvs. at skrives sandhedstabellerne op for
hver af udtrykkene H1 og H2 og kan man se at de begge er sande og falske på
de samme parametreværdier, så er de logisk ækvivalente. For N udsagn, skal der i Antal rækker i sand-
hedstabel.sandhedstabellerne være 2N rækker (+ titelbar).
Eksempel 1 (Vis at AB = A+B). Vi skriver sandhedstabellen op:
A B A B A+B AB AB
0 0 1 1 1 0 1
0 1 1 0 1 0 1
1 0 0 1 1 0 1
1 1 0 0 0 1 0
Dermed er det vist at AB = A+B da de har samme sandhedsværdier.Altid sandt/falsk.
Hvis et udtryk H altid er sandt, kan der lige så godt skrives H = 1, mens hvis
det altid er falsk, kan man ligeså skrive H = 0. Dette kan bruges til at lave smarte
omskrivninger med.
5 af 53
2 SANDSYNLIGHEDSTEORI
Eksempel 2 (Vis at AB +AB = B). Vi skriver sandhedstabellen op:
A B A AB AB AB +AB
0 0 1 0 0 0
0 1 1 1 0 1
1 0 0 0 0 0
1 1 0 0 1 1
Dermed er det vist at AB + AB = B da de har samme sandhedsværdier.
Dette kunne også indses ved at B = B (1) = B(A+A
)= AB + AB, da
A+A altid er sandt.
Udover de viste, gælder også følgende identiteter:
AA = A
A+A = A
A+B = AB
AA = 0
A+ A = 1
Semi-præudfyldt sandhedstabeller. 2 variable:A B
0 0
0 1
1 0
1 1
3 variable:A B C
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
2.2 Sandsynlighed
En sandsynlighed(sfunktion) P , er en surjektiv afbildning fra udfaldsrummet U til
intervallet [0, 1] ⊂ R, dvs. P : U → [0, 1]. A ∈ U vil vi kalde en stokastisk variabel,
eller et udsagn. Sandsynlighedsfunktionen P har to egenskaber som skal være opfyldt.
6 af 53
2 SANDSYNLIGHEDSTEORI
i) 0 ≤ P (A) ≤ 1
ii)∑X∈U
P (X) = 1 .
Disse egenskaber intuitivt meget fair.
Da en sandsynlighed ikke kan angives uden at der er gjort visse antagelser I ∈ A(antagelsesrummet) om forhåndsviden og andre ting, er der i realiteten kun betingede
sandsynligheder, dvs. sandsynlighedsfunktioner givet antagelsen I ∈ A. Vi skriverderfor i stedet en sandsynlighed P (A) som
P (A) 7−→ P (A|I) ,
der betyder Sandsynligheden for udsagnet A, givet antagelserne I ('hvad vi ellers
ved'). Dermed når vi nu frem til bayesisk sandsynlighedsregning, hvor sandsynlig-
hedsfunktionen afhænger af hvilke af de (uendelig?) mange mulige antagelser vi har
gjort os. Bemærk at
P (A|I) = P (A|I ′)⇒ I = I ′ ,
dvs. at gør man de samme antagelser, vil sandsynligheden man tildeler et udsagn
A være den samme.
Herfra kommer følgende fundamentale regneregler:
P (A|I) = 1− P (A|I) (1)
P (AB|I) = P (A|BI)P (B|I) = P (B|AI)P (A|I) (2)
P (A+B|I) = P (A|I) + P (B|I)− P (AB|I) (3)
Eksempel 3 (Sandsynligheden for at blive stukket af en bi når man spiser
is, er 10%. Sandsynligheden for at man spiser en is på en sommerdag, er
50%. Hvad er sandsynligheden for at blive stykket på en sommerdag?). Det
giver god mening at udsagnet A ='blive stykket af en bi når man spiser
is' ikke afhænger af B ='spise en is på en sommerdag', og det er således
uafhængige sandsynligheder. Produktreglen giver da
P (AB|I) = P (A|BI)P (B|I) = P (A|I)P (B|I) = 0.1 · 0.5 = 0.05 = 5% .
2.3 Bayes sætningBayes sætning
Fra produktreglen haves Bayes sætning, som siger
7 af 53
2 SANDSYNLIGHEDSTEORI
P (A|BI) =P (B|AI)
P (B|I)P (A|I) . (4)
Bayes sætning er en måde at vende beregningen af en betinget sandsynlighed,
såfremt at man ikke kender sandsynligheden for at A givet BI, men kun B givet
AI (fx at man kender sandsynligheden for at blive spist af en haj i havet, men ikke
sandsynligheden for at man er i havet når man spises af en haj, som man så gerne
vil kende). Dette koster så blot nogle ekstra faktorer, hvis værdi nemmere kan regnes
ud.
Bayes sætning danner på en måde grundlag for hele den videnskabelige praksis,
idet hvis vi sætter A ='Teori' og B ='Data', så kan man på denne måde udregne
sandsynligheden for teoriens rigtighed, givet data. Af denne grund har de forskellige
led i Bayes sætning fået passende navne:
P (A|BI)︸ ︷︷ ︸Efter SS
=P (B|AI)
P (B|I)︸ ︷︷ ︸Likelihood
P (A|I)︸ ︷︷ ︸F/or SS
Eksempel 4 (Hvad er sandsynligheden for at det er en sommerdag, givet
man er blevet stukket af en bi. Det antages at vi ved at sandsynligheden for
at blive stukket på en sommerdag er 10%, og 1% ellers, og man ingen ide
har om det er sommer eller vinter.). Dener følgende udsagn: S ='Det er en
sommerdag', B ='Stukket af en bi', V ='Det er en vinterdag'.
Vi ved således P (B|SI) = 0.1 og P (B|V I) = 0.01, og da der er 1/4 som-
merdage på et år og 3/4 vinterdage på et år (synes det som i Danmark
ihvertfald!), sætter vi P (S|I) = 0.25 og P (V |I) = 0.75.
Vi er ude efter P (S|BI). Bayes sætning siger da:
P (S|BI) =P (B|SI)
P (B|I)P (S|I)
Bemærk at vi har 1 = S + V , da hvis det ikke er sommer er vores danske
forståelse ihvert af begreberne sommer/vinter at det så er vinter. Dermed
kan vi skrive
P (S|BI) =P (B|SI)
P (B (S + V ) |I)P (S|I) =
P (B|SI)
P (BS|I) + P (BV |I)P (S|I)
=P (B|SI)
P (B|SI)P (S|I) + P (B|V I)P (V |I)P (S|I)
=0.10
0.10 · 0.25 + 0.01 · 0.75· 0.25
= 0.769 = 76.9%
Dvs. det er ret sandsynligt at det er en sommerdag man blev stykket af en
bi, selvom der ikke er så mange sommerdage i Danmark.
8 af 53
2 SANDSYNLIGHEDSTEORI
Eksempel 5 (Til en fest er 20 % af deltagerne fysikere. Under festen lykkes
det 5 % af deltagerne at score. 2 % af scoringerne blev udført af en fysi-
ker. Hvor mange procent af fysikerne scorede?). Dener følgende udsagn:
F ='Fysiker', S ='Scorer'.
Vi ved således P (F |I) = 0.20 og P (F |SI) = 0.02, P (S|I) = 0.05. Vi ønsker
at bestemme P (S|FI) og Bayes' sætning giver da
P (S|FI) =P (F |SI)
P (F |I)P (S|I)
=0.02
0.20· 0.05
= 0.005
Dvs. ikke så mange fysikere scorer...
Eksempel 6 (På et studium går der 30 % piger. Af pigerne er 4 % nørder.
Af alle nørdede studerende er 2 % piger. Hvor mange procent af alle de
studerende er nørder?). Dener følgende udsagn: N ='Nørd', P ='Piger',
D ='Drenge'. Det må gælde at de studerende S er enten piger eller drenge,
dvs. S = P +D = 1.
Vi ved således P (P |I) = 0.30 og P (N |PI) = 0.04, P (P |NI) = 0.02. Bayes'
sætning giver da
P (P |NI) =P (N |PI)
P (N |I)P (P |I)
Vi kan se at den eneste ubekendte i Bayes sætning er P (N |I) = P (N |SI),
dvs. procentsatsen af alle studerende som er nørder. Vi har da ved isolering:
P (N |I) =P (N |PI)
P (P |NI)P (P |I)
=0.04
0.02· 0.30
= 0.60
Dvs. der er sq ret mange nørder på det studium, og grunden til at vi får et
sådant højt tal, er at pigerne er en lille gruppe af de samlede studerende.
2.4 Sandsynlighedstætheder
Haves udsagn P som med god mening kan siges at afhænge kontinuert af en pa-
rameter λ (som fx længden af et træ), P (λ|I), giver det god mening at indføre en
sandsynlighedstætheder ρ(λ|I), der skal integreres/kontinuert eller'es for at give en
sandsynlighed, i stedet for at summe/diskret eller'e udsagn. Dermed spørger man
med såddanne situationer ikke hvad sandsynligheden for er når parameteren er λ = c,
men hvad sandsynligheden når λ ∈ [a, b]. Dette betyder at sandsynlighedstætheder
ρ(λ|I) opfylder:
9 af 53
2 SANDSYNLIGHEDSTEORI
P (λ ∈ [a, b] |I) =
ˆ b
aρ(λ|I)dλ .
Der skal naturligvis gælde at integreres der over mængden af alle mulige værdier
som λ kan antage, U , haves naturligvis
P (λ ∈ U|I) =
ˆUρ(λ|I)dλ = 1 ,
Normeringdvs. at sandsynlighedstætheder skal være normeret. Ellers gælder der de sam-
me regneregler og det hele for sandsynlighedstætheder også, selvom de skrives lidt
anderledes:
ρ(λ|I) = 1− ρ(λ|I)⇔ P (λ ∈ [a, b] |I) = 1− P (λ /∈ [a, b] |I) (5)
ρ(λA|I) = ρ(λ|AI)P (A|I) = P (A|λI)ρ(λ|I) (6)
P (λ ∈ [a, b] +λ ∈ [c, d] |I) = P (λ ∈ [a, b] |I) +P (λ ∈ [c, d] |I)−P (λ ∈ [a, b]∩ [c, d] |I)
(7)
Sandsynlighedstætheder af N variable (N -dimensionale fordelinger) kan der lige-
ledes let generaliseres til. Her gælder der således at sandsynligheden for at parame-
trene (λ1, . . . , λN ) ∈ A ⊆ U ⊆ RN er givet ved
P ((λ1, . . . , λN ) |I) ∈ A|I) =
ˆAρ ((λ1, . . . , λN ) |I) dNλ .
For en N -dimensionel fordeling, kan man ligeså lave den til en 1-dimensionel
fordeling af en af parametrenene λi ved bare at integrere de andre parametre væk,
dvs. lade dem antage alle de mulige værdier U ′, så sandsynligheden langs delmængden
af de andre parametre er 1. Dermed have fx
ρ (λi|I) ∈ A|I) =
ˆU ′ρ ((λ1, . . . , λN ) |I) dN−1 (λ1, . . . , λi−1, λi+1, . . . λN ) .
Dette trick bruges meget når man i termodynamikken fx blot vil viden hvordan én
partikels hastighedsfordeling ser ud, og derudfra nde middelværdi osv. for en enkelt
måling.
10 af 53
2 SANDSYNLIGHEDSTEORI
Eksempel 7 (Givet at man har en 2D sandsynlighedsfordeling
ρ(x, y|I) ≡ ρ(x, y) = C−1y2 exp(−x2 − 3y2
), nd sandsynlighedsfordelin-
gen i x ∈ U ′ = R, når y's udfaldsrum U ′′ er R hhv. R+). Det totale udfalds-
rum er U = U ′ × U ′′Vi har C =´U ρ(x, y)d2x =
´U ′´U ′′ ρ(x, y)dydx. For
udfaldsrummet U ′′ = R har vi at den normerede sandsynlighedsfordeling er
givet ved C = π√
318 . Vi har da ρ(x|I) =
´R ρ(x, y)dy = e−x2
√π.
For udfaldsrummet U ′′ = R+ har vi at den normerede sandsynlighedsforde-
ling er givet ved C = π√
336 . Vi har da ρ(x|I) =
´R ρ(x, y)dy = 2e−x2
√π. Dette
kan tolkes som at tætheden bliver større langs x-aksen, fordi udfaldsrummet
bliver mindre i y-retningen.
2.4.1 Bayes sætning for tæthederBayes sætning
For sandsynlighedstætheder, er der faktisk ere forskellige versioner af Bayes sætning,
som kan bruges, hvor det enten er sandsynligheden eller sandsynlighedstætheden der
indgår i likelihood. Vi har
ρ(λ|BI) =P (B|λI)
P (B|I)ρ(λ|I) , (8)
ρ(λ|BI) =ρ(B|λI)
ρ(B|I)ρ(λ|I) . (9)
11 af 53
2 SANDSYNLIGHEDSTEORI
Eksempel 8 (Givet at man kun har en række målinger x1, . . . , xN af etfænomen og ikke aner noget om usikkerheden (spredningen) σ eller middel-
værdien µ på disse, giv da et estimat på usikkerheden af målingerne ved mid-
delværdien 〈σ〉, og variansen af variansen af målingerne σ2〈σ〉 =
⟨σ2⟩−⟨σ⟩2.).
Vi ved (kan udledes med maksimum-entropi metoden) at en måleserie hø-
jest sandsynligt vil være normalfordelt såfremt at vi kun kender σ og µ, dvs.
ρ(D|σµI) er normalfordelt. Sæt D = x1, . . . , xN ='Data som vi kender';
ved at bruge Bayes' sætning på kontinuert form kan vi da vende sandsyn-
lighedsfordelingen rundt så vi kan udtrykke en sandsynlighedstæthed for
σ, µ givet vi kender data. Bayes sætning giver da da
ρ(σµ|DI) =ρ(D|σµI)
ρ(D|I)ρ(σµ|I) .
Såfremt at vi intet ved om den rigtige spredning og middelværdi, er udfalds-
rummene da pr. denition σ ∈ R+ og µ ∈ R, og ρ(σµ|I) = konstant. ρ(D|I)
må ligeledes være konstant, da dataene jo er givet. Vi har da at siden målin-
gerne må være uafhængige at sandsynlighedsfordelingen ρ(D|σµI) må være
en sandsynlighedsfordeling i hver af de N målinger, som er uafhængige, dvs.
ρ(D|σµI) =N∏i=1
1√2πσ2
exp
(−(xi − µ)2
2σ2
)
=σ−N
(2π)N/2exp
(− 1
2σ2
N∑i=1
(xi − µ)2
)
∝ σ−N exp
(− 1
2σ2
N∑i=1
(xi − µ)2
)
Sættes⟨x2⟩≡ 1
N
∑Ni=1 x
2i og
⟨x⟩≡ 1
N
∑Ni=1 xi, får vi ved at udregne paren-
tesen i eksponenten at vi kan skrive ρ(σµ|DI) som
ρ(σµ|DI) = C−1ρ(D|σµI)
∝ σ−N exp
(− N
2σ2
(µ2 − 2
⟨x⟩µ+
⟨x2⟩))
Sandsynlighedstætheden for σ er da givet ved at integrere over hele udfalds-
rummet for µ (der er et gaussisk integral og let at regne ud). Vi har således:
ρ(σ|DI) = C−1
ˆRρ(D|σµI)dµ
∝ˆRσ−N exp
(− N
2σ2
(µ2 − 2
⟨x⟩µ+
⟨x2⟩))
dµ
∝ σ−N exp
(− N
2σ2
(⟨x2⟩−⟨x⟩2))
= C ′−1σ−N exp
(−N∆x2
2σ2
),
12 af 53
2 SANDSYNLIGHEDSTEORI
hvor vi har indført den observerede ∆x2 ≡⟨x2⟩−⟨x⟩2
varians. Sidste skridt
er at normere sandsynlighedsfordelingen for σ, der er et lidt sværere integral
og lettest gøres på Maple. Vi har da
C ′ =
ˆR+
ρ(σ|DI)dσ =
ˆ ∞0
σ−N exp
(−N∆x2
2σ2
)dσ
=N(∆x2
)N−12
2N−3
2
(12 (N − 3)
)!, N ≥ 3 ,
Ved at løse integralet nder man ud af at N ≥ 3 for at variansen giver
mening, hvilket er meget intuitivt, da vi skal have et par målinger for at
kunne sige noget om hvor meget de er spredt fra hinanden. Dermed bliver
den totale sandsynlighedsfordeling i σ givet ved
ρ(σ|DI) =N(∆x2
)N−12
2N−3
2
(12 (N − 3)
)!σ−N exp
(−N∆x2
2σ2
).
Middelværdien af spredningen på målingenerne⟨σ⟩er givet ved
⟨σ⟩
=
ˆR+
σρ(σ|DI)dσ =2√
2Γ(
12N + 1
)√N (N − 2) Γ
(12N −
12
)√∆x2
→√
∆x2 for N 1 .
Ligeledes er variansen på målingerne
σ2〈σ〉 =
ˆR+
(σ −
⟨σ⟩)2
ρ(σ|DI)dσ ≡ Υ(N)∆x2
→ 3∆x2
Nfor N 1 ,
hvor Υ(N) er en kompliceret funktion af en masse gammafunktioner, der går
asymptotisk mod 3N−1 for N → ∞. Dette betyder at foretager vi mange
målinger, får vi også en god ide om hvad usikkerheden på målingerne var i
første omgang selvom vi ikke kender den, da σ2〈σ〉 → 0 for N →∞.
13 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
3 Statistik og parameterbestemmelse
3.1 Diskrete fordelinger
Haves en sandsynlighedsfordeling, der er sum af en parameterM ∈ A ⊆ R, så vi kandanne en sandsynlighedsfunktion ved den sammensatte funktion1 P : A → U → R,kan vi denere middelværdien (af M) for denne fordeling ved Middelværdi
⟨M⟩
=∑M∈A
MP (AM |I) .
VariansLigeledes kan man denere variansen (af M) ved
σ2⟨M⟩ =
∑M∈A
(M −
⟨M⟩)2
P (AM |I) ,
og der gælder ligeldes for variansen, at denne kan skrives som
σ2⟨M⟩ =
⟨M2⟩−⟨M⟩2.
ForventningsværdiGenerelt så er forventningsværdien af en funktion af M , f(M), givet ved
⟨f⟩
=∑M∈A
f(M)P (AM |I) .
3.1.1 Moment-genererende funktionMoment-genererende
funktionÉn variabel For en diskret fordeling kan vi denere en såkaldt Moment-genererende
funktion (ikke det samme som tilstandsummen, selvom de også bliver kaldt det) Z(ξ)
ved
Z(ξ) ≡⟨eξM
⟩=∑M∈A
eξMP (AM |I) .
Den moment-genererende funktion har følgende egenskaber:
Z(0) = 1 , Z ′(0) =⟨M⟩, Z ′′(0) =
⟨M2⟩, Z(n)(0) =
⟨Mn
⟩, hvor
⟨Mn
⟩er det n'te moment for fordelingen. Det smarte ved denne funktion
er at kan vi beregne summen, har vi en let måde at få adgang til middelværdier og
varianser.
N variable For diskrete fordelinger af N variable M = (M1, . . . , MN ), vil den
moment generende funktion have N parametre ξ = (ξ1, . . . , ξN ), og så generaliseres
summen nu til
Z(ξ) ≡⟨eξ·M
⟩=∑M∈A
eξ·MP (AM |I)
1Vi har udsagnene givet ved AM : A → U , og P (AM ) er den tilhørende sandsynlighed.
14 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
Vi har her at de partielt aedte af Z(M) giver momenter og koblingsmomenter,
der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder
∂Z(ξ)
∂ξi=⟨Mi
⟩,
∂2Z(ξ)
∂ξi∂ξj=⟨MiMj
⟩, (∂ξi · · · ∂ξi)Z(ξ) =
⟨Mi · · ·Mj
⟩3.2 Kontinuerte fordelinger
Alle formler der gælder for de diskrete fordelinger, kan umiddelbart generaliseres til
kontinuerte fordelinger af 1- og ere variable også. Middelværdien af for en kontinuert Middelværdi
fordeling af en parameter λ i et udfaldsrum U ,⟨λ⟩, er givet ved
⟨λ⟩
=
ˆUλρ(λ|I)dλ
VariansLigeledes er variansen af en sandsynlighedsfordeling (af parameteren λ) givet ved
σ2〈λ〉 =
ˆU
(λ−
⟨λ⟩)2
ρ(λ|I)dλ
ForventningsværdiGenerelt så er forventningsværdien af en funktion af λ, f(λ), givet ved
⟨f⟩
=
ˆUf(λ)ρ(λ|I)dλ
3.2.1 Moment-genererende funktionMoment-genererende
funktionÉn variabel For en kontinuert fordeling med én parameter kan vi denere en
såkaldt Moment-genererende funktion, eller Tilstandssum Z(ξ) ved
Z(ξ) ≡⟨eξM
⟩=
ˆUeξMρ(λ|I)dλ .
Den moment-genererende funktion har følgende egenskaber:
Z(0) = 1 , Z ′(0) =⟨λ⟩, Z ′′(0) =
⟨λ2⟩, Z(n)(0) =
⟨λn⟩
Flere variableN variable For sandsynlighedsfordelinger af N variable λ = (λ1, . . . , λN ), vil
den moment generende funktion have N parametre ξ = (ξ1, . . . , ξN ), og så lyder
formlerne
Z(ξ) ≡⟨eξ·λ
⟩=
ˆUeξ·λρ(λ|I)dNλ
Vi har her at de partielt aedte af Z(M) giver momenter og koblingsmomenter,
der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder
∂Z(ξ)
∂ξi=⟨λi⟩,
∂2Z(ξ)
∂ξi∂ξj=⟨λiλj
⟩, (∂ξi · · · ∂ξi)Z(ξ) =
⟨λi · · ·λj
⟩
15 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
3.3 Eksperimentielle usikkerheder; én måling
Det kan på makroskopisk niveau hvor den klassiske fysik er en fremragende approk-
simation antages at betragter man en størrelse, ndes der en sand værdi for denne
xs. Foretager man en måling af størrelsen og får man værdien x, kan man derfor
knytte en sandsynlighed til at målingen af x giver den sande værdi xs, givet at
måleusikkerheden er δx. Således kan vi skrive en sandsynlighedsfordeling som
P (x|xsδxI) ,Krav til fordeling
hvor denne sandsynlighedsfordeling skal opfylde at
⟨x⟩
= xs ,⟨(x− xs)2⟩ = δx2 . (10)
Måler man en kontinuert størrelse, skal man gå over i sandsynlighedstætheder.
Det kan vises at med mindre man ved mere end værdien af en måling, så er en
normalfordelingen
ρ(x|xsδxI) =1√
2πδx2exp
(−(x− xs)2
2δx2
),
den mest sandsynlige fordeling for x, som her opfylder x ∈ R og de to krav til
en sandsynlighedsfordeling 10. Bemærk at sandsynlighedsfordelingen her er givet Kender vi xs?
at vi kender den sande værdi xs - Dette er ALDRIG tilfældet i fysikken! I stedet
kan man med Bayes' sætning vende fordelingen om, således at vi får en sandsyn-
lighedsfordeling for xs, givet at vi har nogle målinger. Kun én måling!
Bemærk at alle disse formler i denne sektion er givet at man kun foretager én
måling af en størrelse. Hvad der sker når man foretager ere målinger, kan ses i næste
afsnit.
3.3.1 Inddirekte måling
Haves at man måler en størrelse x, men i virkeligheden gerne vil nde frem til sand-
synligheden for en størrelse f(x), kan det vises ved at Taylorudvikle omkring den
sande værdi xs at denne størrelse også er normalfordelt med middelværdi fs = f(xs),
og at der gælder
ρ(f |xsδxI) =1√
2πδf2exp
(−(f(x)− f(xs))
2
2δf2
), δf =
∣∣f ′(xs)∣∣δx3.3.2 Ophobningsloven, afhængige målinger
Haves en størrelse f som afhænger af en masse uafhængige målinger x = (x1 , x2, . . . , xn),
dvs. de kan måles uden at påvirke hinanden, så gælder det at usikkerheden på f er
givet ved
δf =
√√√√ n∑i=1
(∂f(x)
∂xi
)2
δx2i (11)
16 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
Hvis målingerne er afhængige (eller man ikke er sikker på at alle målingerne er
uafhængige), gælder det
δf ≤n∑i=1
∣∣∣∣∂f(x)
∂xi
∣∣∣∣ δxi .3.4 Parameterbestemmelse
Generel metode
Vil man nde de mest sandsynlige værdier af et sæt af parametre givet data D
(=maksimere likelihood), er den generelle metode til at nde disse at omskrive ud-
trykket for sandsynlighedstæthederne til at være på formen
ρ (D|λ1sλ2s . . . λNsI) = ρ (D|λsI) =∝ exp (−S(λs)) ,
Entropiog derefter maksimere entropien S(λs) (funktion af de sande parameterværdier)
ved at løse de N ligninger fra ∇λsf(λs) = 0 for parametrene λs, der så er dem med
størst sandsynlighed. Dette gøres ofte under en række bibetingelser (se afsnittet om
maksimal entropi), hvor man bruger Lagranges metode.
Vil man derimod nde middelværdier og varianser, skal man nde sandsynlig-
hedsfordelingerne for én af parametrene ved at integrere de andre variable væk.
Derefter kan middelværdi og varianser beregnes på vanlig vis. For en del fordelinger
er middelværdien og den mest sandsynlige fordeling dog sammenfaldende.
3.5 Flere uafhængige målinger af en størrelse
3.5.1 Direkte måling
Haves en størrelse x som man har foretaget N målinger i par målingens resultat og
usikkerheden mi = xi, σi af D = m1 ,m2, . . . , mN ='Data', hvor ρ(xiσi|xsI) er
normalfordelt. Bayes' sætning 9 giver da at sandsynligheden for den sande værdi xsgivet Data er givet ved
ρ (xs|DI) =ρ (D|xsI)
ρ(D|I)ρ(xs|I) .
Er målingerne uafhængige har vi jf. produktreglen
ρ (D|xsI) = ρ (x1, σ1 , x2, σ2 , . . . , xN , σN |xsI)
= ρ (x1σ1|xsI) · · · ρ (xNσN |xsI) .
=N∏i=1
ρ (xiσi|xsI)
Da hver af normalfordelingerne er normeret, har vi dermed at
17 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
ρ (xs|DI) =ρ(xs|I)
ρ(D|I)
N∏i=1
ρ (xiσi|xsI)
=ρ(xs|I)
ρ(D|I)
N∏i=1
1√2πσ2
i
exp
(−1
2
N∑i=1
(xi − xs)2
σ2i
).
Eksponenten er et polynomium i xs (der er den eneste variabel), og da ethvert
polynomium kan skrives på formen a + b (xs − xt), hvor xt er toppunktet for poly-nomiet, a er værdien i toppunktet, og b er krumningen. Toppunktet ndes ved
d
dxs
(N∑i=1
(xi − xs)2
σ2i
)∣∣∣∣∣xs=xt
= 0⇒
xt =
∑Ni=1
xiσ2i∑N
i=11σ2i
. (12)
Krumningen fås ved at dierentiere to gange:
b =N∑i=1
1
σ2i
≡ N
σ20
.
Vægtet gennemsnitVi indfører det vægtede gennemsnit af en variabel A ved:
⟨A⟩
=
N∑i=1
Ai
N∑k=1
1/σ2i
1/σ2k
≡N∑i=1
wiAi .
Værdien i toppunktet fås ved at evaluere polynomiet:
a =
N∑i=1
(xi − xt)2
σ2i
=N
σ20
(⟨x2⟩−⟨x⟩2)≡ N
σ20
∆x2 .
Dermed bliver sandsynlighedsfordelingen nu
ρ (xs|DI) =ρ(xs|I)
ρ(D|I)
N∏i=1
1√2πσ2
i
exp
(−1
2
(a+ b (xs − xt)2
))
=ρ(xs|I)
ρ(D|I)
N∏i=1
1√2πσ2
i
exp
(− N
2σ20
∆x2 − N
2σ20
(xs − xt)2
)
=ρ(xs|I)
ρ(D|I)
√2πσ2
0/N∏Ni=1
√2πσ2
i
exp
(− N
2σ20
∆x2
)exp
(− N
2σ20
(xs − xt)2
).
Såfremt at ρ(xs|I) er meget bred (evt. konstant som hvis vi ikke anede noget om
værdien af xs), er fordelingen bestemt af sidste faktor, og dette en normalfordeling
for xs med middelværdi
18 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
⟨xs⟩
= xt =
∑Ni=1
xiσ2i∑N
i=11σ2i
,
og varians
σ2 =σ2
0
N.
Dermed ses det, at xs bliver mere og mere velbestemt desto ere målinger vi
foretager. Dog er formlerne kun gyldige såfremt at målingerne virkelig er uafhængige.
3.5.2 Lineær sammenhæng mellem målinger; Bedste rette linje
Haves situationen hvor vi har N sæt målinger D = x1, y1, σ1 , . . . xN , yN , σN,hvor σ er usikkerheden på yi (den samme for alle) og usikkerheden på xi antages at
være nul, og det vides (eller antages) at sammenhængen mellem x og y er lineær,
dvs.
y = Ax+B ,
Så kan produktreglen og Bayes' sætning hjælpe med at nde de bedste værdier
af parametrene A, B og deres usikkerhed. Vi har for et datasæt Di at produktreglen
6 giver
ρ (Di|ABI) = ρ (xi, yi, σ |ABI)
= ρ (yi|xiσABI)P (xiσ|ABI)
= ρ (yi|xiσABI)
Da den sande værdi er ysi = Axi + B, da der antages ingen usikkerhed på xi,
har vi da at ρ (Di|ABI) er en normalfordeling i ys da målinger er normalfordelt, kan
skrives som
ρ (Di|ABσI) =1√
2πσ2exp
(−(ys − yi)2
2σ2
)
=1√
2πσ2exp
(−(Axi +B − yi)2
2σ2
)
Hvis målingerne er uafhængige, har vi da
ρ (D|ABI) = ρ (y1|x1σABI) · · · ρ (yN |xNσABI) .
Bayes' sætning siger såfremt det antages at vi intet ved om parametrene, og
ρ (AB|I) derfor er konstant, at
19 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
ρ (AB|DI) =ρ (D|ABI)
ρ (D|I)ρ (AB|I)
∝ ρ (D|ABI)
= ρ (y1|x1σABI) · · · ρ (yN |xNσABI)
∝ exp
(−
N∑i=1
(Axi +B − yi)2
2σ2
).
Eksponenten er en todimensional polynomium sin funktion af A og B, og bruges
(ikke-vægtet) gennemsnit af størrelser⟨·⟩, har disse toppunkt i
A0 =
⟨xy⟩−⟨x⟩⟨y⟩
∆x2, B0 =
⟨x2⟩⟨y⟩−⟨x⟩⟨xy⟩
∆x2,
og sandsynlighedsfordelingen kan nu efter normering skrives som
ρ (AB|DI) =N∆x
2πσ2exp
− N
2σ2
(A−A0
B −B0
)†( ⟨x2⟩ ⟨
x⟩⟨
x⟩
1
)(A−A0
B −B0
) .
Sandsynlighedsfordelingen for hver af parametrene A og B kan nu ndes ved at
integrere den anden parameter væk (hvert integral er gaussisk). Vi har eksplicit at
ρ (A|DI) =
ˆRρ (AB|DI) dB
ρ (B|DI) =
ˆRρ (AB|DI) dA
Derfra kan standardafvigelser (og dermed fx kondensintervaller) på parametre-
ne.
3.5.3 Lineær regression
Metoden med den rette linje hvor der antages at sammenhængen mellem målinger og
størrelse er y = Ax + B, kan generaliseres helt og aldeles. Antages det for målinger
D = x1, y1, σ1 , . . . xN , yN , σN , hvor σ er usikkerheden på yi (den samme for
alle) og usikkerheden på xi antages at være nul, at sammenhængen mellem dem er
på formen
yi =
M∑m=1
amfm(xi) ,
, hvor fm er vilkårlige funktioner, kan man bruge samme fremgangsmåde som i
forrige afsnit, såfremt at målingerne antages at være uafhængige og normalfordelt.
Sættes a = (a1, . . . , a2), har vi først for den i'te måling med produktreglen at
20 af 53
3 STATISTIK OG PARAMETERBESTEMMELSE
ρ (Di|ABI) = ρ (xi, yi, σ |aI)
= ρ (yi|xiσaI)P (xiσ|aI)
= ρ (yi|xiσaI)
=1√
2πσ2exp
−(yi −
∑Mm=1 amfm(xi)
)2
2σ2
=
1√2πσ2
exp
−(yi −
∑Mm=1 amfm(xi)
)2
2σ2
.
Bayes' sætning giver da for alle N målinger
ρ (a|DI) =ρ (D|aI)
ρ (D|I)ρ (AB|I)
∝ ρ (D|aI)
= ρ (y1|x1σaI) · · · ρ (yN |xNσaI)
∝ exp
− N∑i=1
(yi −
∑Mm=1 amfm(xi)
)2
2σ2
.
≡ exp
(− N
2σ2L(a)
).
Vil vi gerne nde de mest sandsynlige værdier for parametrene, skal vi således
maksimere L(a). Vi kan først omskrive lidt på L(a):
L(a) =1
N
(yi −
M∑m=1
amfm(xi)
)2
=⟨y2⟩
+M∑
m,m′=1
am 〈fmfm′〉 am′ − 2M∑m=1
am 〈yfm〉
≡⟨y2⟩
+ a†F=
a− 2a · b ,
hvor vi har indført matricen F=og vektoren b der har elementer givet ved
Fmm′ = 〈fmfm′〉 =1
N
N∑i=1
fm(xi)fm′(xi)
bm = 〈yfm〉 =1
N
N∑i=1
yifm(xi)
Maksimerer man funktionen L(a), får man
21 af 53
4 SANDSYNLIGHEDSFORDELINGER
∇aL(a) = 2F=
amax − 2b = 0⇒
amax = F=
−1b .
KorrelationskoecientVi kan indføre korrelationskoecienten R2 ved
R2 = 1−b†F
=
−1b−⟨y2⟩
∆y2= 1−
b†F=
−1b−⟨y2⟩
⟨y2⟩− 〈y〉2
.
Korrelationskoecienten ligger i intervallet 0 ≤ R2 ≤ 1, og giver et godt mål for
hvor godt ttet er. Desto bedre t, desto tættere er R2 på 1. En R2-værdi kan dog
ikke stå alene, som vi skal se i næste afsnit, da man i princippet blot kunne tilføje
uendelig mange parametre og derved opnå perfekt t altid.
3.6 Modelsammenligning
Haves to teorier T1 hhv. T2 af den lineære type
y(1)i =
M1∑m=1
a(1)m f (1)
m (xi) hhv. y(2)i =
M2∑m=1
a(2)m f (2)
m (xi) ,
med M1 hhv. M2 parametre, og hvor fi er vilkårlige funktioner. Hver af disse
skal nu forklare en dataserie D = x1, y1, σ1 , . . . xN , yN , σN, hvor σi er usik-kerheden på yi og usikkerheden på xi antages at være nul, dvs. at vi vil undersøge
hvor sandsynlig teoriernes resultater er ift. hinanden givet data. Der fås hvis alle
usikkerhederne er ens at
P (T1|DI)
P (T2|DI)︸ ︷︷ ︸A posteori ss
=
(2πσ2
N
)M1−M22 wM2
2
wM11
√det (F2)
det (F1)︸ ︷︷ ︸Occam-faktor
· exp
[N∆y2
2σ2
(R2
1 −R22
)]︸ ︷︷ ︸
Fit-faktor
· P (T1|I)
P (T2|I)︸ ︷︷ ︸A priori ss
Occam-faktoren favoriserer teorier med ere parametre (= straer brugen af pa-
rametre), og Fit-faktoren favoratiserer teorien med det bedste t til data. Normalvis
er tfaktoren den afgørende, med mindre man bruger overdrevent mange parametre.
4 Sandsynlighedsfordelinger
4.1 Binomialfordeling
Haves en diskret udfaldsrum der kun har to elementer (fx en serie af sandt/falskt
udsagn), og man kun bekymrer sig om hvor mange der ud af N udfald har den
ene værdi og hvor mange der har den anden, vil dette være binomialfordelt. Der vil
nemlig være
(N
M
)= N !
M !(N−M)! måder at få M ud af N mulige. Haves element 1
sandsynligheden p for at ske, har element 2 sandsynligheden for at ske 1− p. Givet
22 af 53
4 SANDSYNLIGHEDSFORDELINGER
at der i en udfaldsserie er M ud af N udfald af type 1 (og de er uafhængige), vil den
samlede sandsynlighed for at dette sker være givet ved
P (M |NI) =
(N
M
)pM (1− p)N−M
Den karakteristiske funktion er givet ved
Z(ξ) =N∑
M=0
eξM
(N
M
)pM (1− p)N−M =
(keξ + p
)NDeraf fås
⟨M⟩
= Z ′(0) = Np
σ2 =⟨M2⟩−⟨M⟩2
= Np (1− p)
4.2 Multinomialfordeling
En binomialfordeling er et specialtilfælde af den mere generelle multinomialfordeling.
Her består det diskrete udfaldsrum nu af N muligheder der hver har en sandsynlighed
pi for at ske. Hvis kun antallet af de mulige udfald betyder noget, vil der være
B(n1, . . . , nN ) =N !
n1! · · ·nN !
mulige måder at opnå denne serie på. Dermed er sandsynligheden for en kon-
guration (n1, . . . , nN ) da
P (n1, . . . , nN |NI) = B(n1, . . . , nN )pn11 · · · p
nNN =
N !
n1! · · ·nN !pn1
1 · · · pnNN .
Den karakteristiske funktion er givet ved
Z(ξ) =∑
n1,..., nN
eξ·nP (n1, . . . , nN |NI)
=∑
n1,..., nN
eξ·nN !
n1! · · ·nN !pn1
1 · · · pnNN
=
(N∑i=1
pieξi
)N.
Derfra haves
∂Z(ξ)
∂ξi
∣∣∣∣ξ=0
= 〈ni〉 = Npi ,
∂2Z(ξ)
∂ξj∂ξi
∣∣∣∣ξ=0
= 〈njni〉 = N (N − 1) pipj +Npiδij ,
23 af 53
4 SANDSYNLIGHEDSFORDELINGER
og variansen af i er givet ved
σ2i = Npi (1− pi)
4.3 Poisson-fordeling
Poissonfordelingen er en approksimation af binomialfordelingen i grænsen hvor der
er rigtig mange totale udfald, fx radioaktivt henfald. Et atom kan enten henfalde
eller ikke henfalde, og man kan så spørge om hvad sandsynligheden for at M ud af
de N atomer er henfaldet til et givet, fastholdt tidspunkt, når sandsynligheden for
at ét atom henfalder er p.
Vi har
µ = 〈M〉 = Np
I approksimationen µ N haves da at sandsynligheden for at M atomer er
henfaldet er
P (M |NI) = P (M |µI) =µM
M !e−µ
Den karakteristiske funktion er givet ved
Z(ξ) =∞∑
M=0
eξMP (M |NI) = exp[µ(eξ − 1
)]Deraf fås
⟨M⟩
= Z ′(0) = Np = µ ,
σ2 =⟨M2⟩−⟨M⟩2
= µ .
4.4 NormalfordelingNormalfordeling
Normalfordelingen/Gauÿfordelingen/klokkekurvefordelingen for en kendt middelvær-
di µ og varians σ2 har en sandsynlighedstæthedsfordeling i x ∈ R = U givet ved
ρ(x|µσI) =1√
2πσ2exp
(−(x− µ)2
2σ2
).
Den karakteristiske funktion er givet ved
Z(ξ) =⟨eξx⟩
=
ˆReξxρ(x|µσI)dx .
= exp
((µ+ ξσ2
)2 − µ2
2σ2
)
Deraf fås ved udregning at middelværdien er µ og variansenσ2, som det blev
deneret i starten.
24 af 53
4 SANDSYNLIGHEDSFORDELINGER
Det kan vises omkring normalfordelingen, at kendes kun µ og σ2, vil den bed-
ste fordeling til at beskrive disse størrelser være normalfordelingen (central limit
theorem/central grænseværdi sætningen).
4.4.1 Multivariant normalfordelingFlere variable
En N -dimensionel normalfordeling er en fordeling i N uafhængige variable hver med
middelværdien µi og varians σ2i , hvor hver variabel er normalfordelt, er blot produktet
af alle disses 1D normalfordelinger. Her er udfaldsrummet U = RN og for x ∈ RN er
sandsynlighedstætheden (når middelværdierne og usikkerhederne samles i vektorerne
µ og σ) således
ρ(x|µσI) =N∏i=1
ρ(xi|µiσiI)
= (2π)−N/2N∏i=1
1
σiexp
(−(xi − µi)2
2σ2i
)
= (2π)−N/2(
N∏i=1
1
σi
)exp
(−
N∑i=1
(xi − µi)2
2σ2i
)
= (2π)−N/2 det(Σ=
)−1/2exp
((x− ξ)†Σ−1
=(x− ξ)
), hvor vi har indført matricen Σ
=, hvis elementer er givet ved
Σij = Cov(xi, xj) = 〈xixj〉 − 〈xi〉 〈xj〉
For sandsynlighedsfordelingen vil den moment generende funktion have N para-
metre ξ = (ξ1, . . . , ξN ), og er givet ved
Z(ξ) = exp
(µ · ξ +
1
2ξ†Σ
=ξ
)Vi har her at de partielt aedte af Z(ξ) giver momenter og koblingsmomenter,
der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder
∂Z(ξ)
∂ξi=⟨xi⟩,
∂2Z(ξ)
∂ξi∂ξj=⟨xixj
⟩, (∂ξi · · · ∂ξi)Z(ξ) =
⟨xi · · ·xj
⟩4.5 Student's t-fordeling
Student's t-fordeling er en fordeling der giver et estimat på middelværdien (og usik-
kerheden på middelværdien, som ikke er det samme som variansen af en fordeling) af
en fordeling, givet at vi kun kender dataene D = x1, . . . , xN , dvs. intet kendskabhar til usikkerheder eller noget. I dette tilfælde bliver fordelingen
ρ (µ|DI) =Γ(N2
)√πΓ(N−1
2
) ∆xN−1((µ−
⟨x⟩)2
+ ∆x2)N/2 ,
hvor ∆xN−1 =⟨xN−1
⟩−⟨x⟩N−1
. Middelværdien er
25 af 53
4 SANDSYNLIGHEDSFORDELINGER
⟨µ⟩
=⟨x⟩
og variansen (der kan fortolkes som usikkerheden på estimatet af µ) er
σ2µ =
∆x2
N − 3,
dvs. at fordelingen er først rigtig veldeneret for N > 3.
26 af 53
5 MAKSIMAL ENTROPI-METODEN
5 Maksimal entropi-metoden
Haves situationen hvor man kun kender middelværdien Fk =⟨fk⟩af en størrel-
se fk, og derefter ud fra dette alene vil nde den mest sandsynlige fordeling p =
p1, p2, . . . , pN, er et tilfælde af forrige kapitels parameterbestemmelse. Dette kan
gøres til en meget maskiniel metode, hvor man kun skal sætte ting ind i formler,
summe og integrere.
Man skal kende den underliggende struktur af fk'erne, dvs. vide hvordan disse
opstår. Dette svarer i fysiske situationer at man fx skal kende energien fk(xi) som
et system har, hvis det er i en bestemt konguration xi, såfremt at man kender
middelenergien Fk. Kender man denne underliggende struktur og har adgang til
middelværdier, kan den mest sandsynlige konguration bestemmes ved at maksimere
entropien
S(p) = −∑i
pi ln pi ,
hvor man her summer over hele sandsynlighedsfordelingen i, for en given sand-
synlighedsfordeling p. Denne entropi skal maksimeres under bibetingelserne at mid-
delværdierne er de rigtige, og at sandsynlighedsfordelingen er normeret, dvs.
Fk =∑i
f(xi)pi , 1 =∑i
pi .
Haves kendskab til m middelværdier Fk, skal vi således optimere Lagrangefunk-
tionen L(p) med m+ 1 lagrangemultiplikatorer λi.
L(p) = S(p) +
m∑k=1
λk
(Fk −
∑i
fk(xi)pi
)+ λ0
(1−
∑i
pi
)
Ser vi bort fra de konstante biddrag, der alligevel snart går ud, har vi
L(p) = S(p)−m∑k=1
λk∑i
fk(xi)pi − λ0
∑i
pi
= −∑i
pi ln pi −m∑k=1
λk∑i
fk(xi)pi − λ0
∑i
pi ,
der optimeres og løses for ∇pL(p) = 0, dvs. for hver pi har vi
∂L(p)
∂pi=
∂
∂pi
(−∑i
pi ln pi −m∑k=1
λk∑i
fk(xi)pi − λ0
∑i
pi
)
= − ln pi − 1− λ0 −m∑k=1
λkfk(xi) = 0
og dermed fås den optimale sandsynlighedsfordelign pmax givet ved komponen-
terne
27 af 53
5 MAKSIMAL ENTROPI-METODEN
pmaxi = exp
(−1− λ0 −
m∑k=1
λkfk(xi)
)
= exp (− (1 + λ0)) exp
(−
m∑k=1
λkfk(xi)
)
≡ 1
Zexp
(−
m∑k=1
λkfk(xi)
),
Tilstandssummenhvor vi har at tilstandssummen Z er givet ved
Z ≡ exp (1 + λ0)
Da sandsynlighedsfordelingen skal være normeret må vi have
1 =∑i
pmaxi =
1
Z
∑i
exp
(−
m∑k=1
λkfk(xi)
)⇒
Z =∑i
exp
(−
m∑k=1
λkfk(xi)
),
som oftest er den man bruger til at udregne tilstandssummen, der oftest er et
integral over kongurationerne, når de ligger tæt i kongurationsrummet. Her har vi
Z =1
h
ˆkonf.
dx exp
(−
m∑k=1
λkfk(x)
),
hvor h er størrelsen af cellerne i kongurationsrummet. Vi ser også at Z er en
funktion af lagrangemultiplikatorerne λ = λ1, . . . , λm. Man summer således over
alle kongurationer xi som systemet kan være i for hver af størrelserne fk. Man kan
derfor tolke lagrangemultiplikatorerne λ som de størrelser, der gør at middelværdi-
erne F1, . . . , Fk bliver rigtige. Derfor giver en ændring i middelværdierne også en
ændring i λ. Maksimum entropi
Man kan yderligere vise at den funde løsning pmax faktisk altid har den maksimale
entropi. Sættes pmax ind i denitionen af entropien, er den maksimale entropi da
S = S (pmax) = lnZ +
m∑k=1
λkFk .
Den maksimale entropifordeling gælder følgende helt generelle resultater
∂ lnZ
∂λk= −Fk ,
∂S
∂Fk= λk .
Derudover gælder
∂2 lnZ
∂λk∂λl=⟨fkfl
⟩−⟨fk⟩⟨fl⟩.
28 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
Dvs. der kan regnes varianser osv. ud alene fra tilstandssummen. Det ses at lag-
rangemultiplikatorerne giver et udtryk for hvor meget entropien ændrer sig, hvis
middelværdierne ændrer sig. Ændringen i logaritmen af tilstandssummen er dieren-
tialet tilhørende lnZ, dvs. ændringerne i lnZ i hver parameter regnet til første orden
(lineært), er givet ved
δ lnZ =1
Z
∑i
[m∑k=1
(−λkδfk(xi)− fk(xi)δλk) exp
(−
m∑l=1
λlfl(xi)
)]
= −m∑k=1
(λk⟨δfk⟩
+⟨fk⟩δλk)
Ændringen i entropien er da givet ved
δS = δ lnZ +m∑k=1
(λkδFk + Fkδλk)
=
m∑k=1
λk(δ⟨fk⟩−⟨δfk⟩)
≡m∑k=1
λkδQk .
Som det ses afhænger entropien ikke af ændringen i lagrangemultiplikatorerne,
men kun i ændringen i δQk som svarer til ændringen af den underliggende fysiske
situation. Faktisk så er δQk en ændring af sandsynlighedsfordelingen. Da
δ⟨fk⟩
=⟨δfk⟩
+∑i
f(xi)δpi ,
har vi
δQk = δ⟨fk⟩−⟨δfk⟩
=∑i
f(xi)δpi .
Bemærk at sidste ligning sjældent er brugbar i praksis, da vi ikke aner hvordan
sandsynlighederne ændrer sig, men det er mere fortolkningen vi bruger, da δS er
noget lettere at beregne, og man gennem den vej kan få adgang til δQk.
6 Statistisk klassisk mekanik/Termodynamik
Afhængigt af hvilke middelværdier vi kender for et system, kan vi denere forskellige
ensembler, som giver forskellige statistiske fordelinger for systemet.
6.1 Det kanoniske ensemble
Her kender vi kun middelværdien af energien for systemet, dvs. U = 〈E〉 er kendt.Derudover antages volumet V og antallet af partikler N at være helt velbestemt. Energifunktion
29 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
For at kunne beregne tilstandssummen, skal man kende energien Ei af en kon-
guration i, hvor Ei kaldes for energifunktionen, eller Hamiltonfunktionen. Generelt
er denne givet ved
Ei =N∑n=1
p2n(i)
2mi+ V (rn, i)
Tilstandssummen for et sådan system er da
Z(β) =∑
konfig.
e−βEi .
Tilstanden af én partikel er bestemt af 6 punkter i faserummet. Kan man ap-
proksimere at faserummet er delt ind i små celler ∆x∆p = h, hvilket man altid kan
i klassisk mekanik, kan summen laves om til et integral, og vi har således for N
partikler at
E(r,p) =N∑n=1
p2n
2mi+ V (rn)
Z(β) =1
h3N
ˆ ˆd3Nrd3Npe−βE(r,p) .
Bemærk at grænserne skal vælges rigtigt og afhænger af situationen. Der er oftest
ingen begrænsning på (pi)j (j'te komponent af impulsen for den i'te partikel), så vi
har at (pi)j ∈ R = (−∞,∞), mens der oftest er en begrænsning i stedkoordinaterne,
da pariklerne er fanget i en kasse, eller en potentialbarriere gør at (ri)j ≥ 0 fx.
Maksimum entropi sandsynlighedsfordelingen (i 6N variable) er givet ved
ρ(r,p) =e−βE(r,p)
Z(β).
Middelenergien er da givet ved den generelle maksimum entropi teori ved
U = −∂ lnZ
∂β= −Z−1∂Z
∂β
Entropien for den mest sandsynlige konguration er ligeledes givet ved
S = lnZ + βU
Den generelle teori siger desuden at
β =∂S
∂U.
Varmekapaciteten (her for fastholdt volumen, CV ) er da givet ved
CV =∂Q
∂T= T
∂S
∂T= −β2∂U
∂β= β2∂
2 lnZ
∂β2.
Fri Helmholtz energiTil det kanoniske ensemble er det naturligt at knytte den fri Helmholtz energi
F , hvor man trækker varmen fra, således at ændringen i F når temperaturen er
konstant, netop er lige med det arbejde systemet kan udføre. Vi sætter
30 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
F ≡ − 1
βlnZ = U − TS
og ændringen i F er
δF = δU − SδT − TδS = −SδT − δW
6.1.1 Egenskaber for temperaturen T
Haves to systemer med hver deres tilstandssum Z1(β1) og Z2(β2), så vil det system
med højest Ti = 1/βi afgive energi til det andet system, når de bringes sammen (så
de får fælles β når de kommer i ligevægt igen).
6.1.2 Klassisk idealgas i det kanoniske ensemble
For den ideelle gas, som er en samling af N identiske partikler med massen m, hvor
al interaktion mellem partiklerne negliceres, bliver Hamiltonfunktionen
E(r,p) =
N∑n=1
p2n
2m.
Tilstandssummen er da 3N gange det samme gaussiske integral, samt N gange
et integral over volumen (da det er her i faserummet partiklerne alle skal bende sig)
Z(β) =1
h3N
ˆ ˆd3Nrd3Npe−βE(r,p)
=1
h3N
(V N)(ˆ
dpe−βp2
2m
)3N
= V N
(2πm
h2β
)3N/2
.
Derfra haves middelenergien
U = −∂ lnZ
∂β=
3N
2
∂ lnβ
∂β=
3N
2
1
β=
3N
2T .
Entropien er
S = lnZ + βU = N ln
[V
(2πm
h2β
)3/2]
+3N
2.
Varmefylden CV er givet ved
CV =3
2N ,
og under konstant tryk har vi
Cp =5
2N .
Bemærk at N = Cp − CV , hvilket gælder hvor enhver klassisk ideal gas, også
selvom der tages indre frihedsgrader med ved at modicere Hamiltonfunktionen.
31 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
For den klassiske idealgas kan det også fra tryk ensemblet udledes idealgaslignin-
gen som altid gælder:
pV = NT .
6.2 Tryk ensemblet
Her kender vi middelværdien af energien for systemet, dvs. U = 〈E〉 og middelvær-
dien af volumen V0 = 〈V 〉er kendt. Derudover antages at antallet af partikler N er
helt velbestemt.
Tilstandssummen for et sådan system er da
Z(β, p) =∑
konfig.
e−βEi+αVi ≡∑
konfig.
e−β(Ei+pVi) ,
hvor vi i stedet for den til V tilhørende Lagrangemultiplier α vælger at skrive
denne som α = βp, da det viser sig at p er trykket.
Laves summen om til et integral, og vi har således for N partikler at
Z(β, p) =1
v0h3N
ˆ ∞0
ˆ ˆd3Nrd3NpdV e−β(E(r,p,V )+pV ) .
Maksimum entropi sandsynlighedsfordelingen (i 6N variable) er givet ved
ρ(r,p, V ) =e−β(E(r,p,V )+pV )
Z(β, p).
Middelenergien plus den pV0 er da givet ved den generelle maksimum entropi
teori ved
U + pV0 = −∂ lnZ
∂β= −Z−1∂Z
∂β⇔
U = −∂ lnZ
∂β− pV0
Derudover har vi også at
βV0 = −∂ lnZ
∂p
Entropien for den mest sandsynlige konguration er ligeledes givet ved
S = lnZ + β (U + pV0)
Varmekapaciteten (her for fastholdt tryk, Cp) er da givet ved
Cp =∂Q
∂T= T
∂S
∂T= −β2∂ (U + pV0)
∂β=∂Hp
∂T.
Fri Gibbs energiTil tryk ensemblet er det naturligt at knytte den fri Gibbs energi G, hvor man
trækker varmen fra under konstant tryk, således at ændringen i G når temperaturen
og trykket er konstant, netop er lige med det arbejde systemet kan udføre. Vi sætter
32 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
G ≡ − 1
βlnZ = U + pV − TS
og ændringen i G er
δG = δU + V δp+ pδV − SδT − TδS = −SδT + V δp− δW
6.2.1 Egenskaber for trykket p
Haves to systemer med hver deres tilstandssum Z1(β, p1) og Z2(β, p2) (bemærk ved
samme temperatur), så vil det system med højest pi stjæle volumen fra det andet
system, når de bringes sammen (så de får fælles p når de kommer i ligevægt igen).
6.3 Det store kanoniske ensemble
I det store kanoniske ensemble har vi her at vi kender middelværdien af energien for
systemet, dvs. U = 〈E〉 og middelværdien af antallet af partikler i systemet er kendt,
N0 = 〈N〉. Derudover antages at volumet V er helt velbestemt.
Tilstandssummen for et sådan system er da
Z(β, µ) =∑
konfig.
e−βEi+γNi ≡∑
konfig.
e−β(Ei+µNi) ,
hvor vi i stedet for den til N tilhørende Lagrangemultiplier γ vælger at skrive
denne som γ = −βµ, da det viser sig at µ er det kemiske potential.
Laves summen om til et integral for r, p delen, og vi har således for N partikler
at
Z(β, µ) =1
h3N
∞∑N=0
ˆ ˆd3Nrd3Npe−β(E(r,p,N)−µN) .
Maksimum entropi sandsynlighedsfordelingen (i 6N variable) er givet ved
ρ(r,p, N) =e−β(E(r,p,N)−µN)
Z(β, µ).
Middelenergien plus den pV0 er da givet ved den generelle maksimum entropi
teori ved
U − µN0 = −∂ lnZ
∂β= −Z−1∂Z
∂β⇔
U = −∂ lnZ
∂β+ µN0
Derudover har vi også at
βN0 =∂ lnZ
∂µ
Entropien for den mest sandsynlige konguration er ligeledes givet ved
33 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
S = lnZ + β (U − µN0)
Den generelle teori siger desuden at
µ = − 1
β
∂S
∂N0,
β =∂S
∂U.
Varmekapaciteten (her for fastholdt partikeltal, Cµ) er da givet ved
Cµ =∂Q
∂T= T
∂S
∂T= −β2∂ (U − µN0)
∂β=∂Hµ
∂T.
Termodynamisk po-
tentialTil det store kanoniske ensemble er det naturligt at knytte den fri energi Ω,
kaldet 'Det termodynamiske potential', hvor man trækker varmen fra under konstant
partikeltal, således at ændringen i Ω når temperaturen og trykket er konstant, netop
er lige med det arbejde systemet kan udføre. Vi sætter
Ω ≡ − 1
βlnZ = U − µN − TS
= −pV
Specielt at Ω = −pV bruges i den statistiske kvantemekanik. Ændringen i Ω er
δΩ = δU − µδN −Nδµ− SδT − TδS = −SδT −Nδµ− δW .
Holdes µ og T konstant, er ændringen i Ω netop lig med det udførte arbejde
(bortset fra et fortegn).
6.3.1 Egenskaber for det kemiske potential µ
Haves to systemer med hver deres tilstandssum Z1(β, µ1) og Z2(β, µ2) (bemærk ved
samme temperatur), så vil det system med højest µi afgive partikler til det andet
system, når de bringes sammen (så de får fælles µ når de kommer i ligevægt igen).
6.4 Termodynamikkens første lov
Fra den teori for Maksimal entropi har vi
δU = δ 〈E〉 = δ∑i
Eipi
=∑i
piδEi +∑i
Eiδpi
= 〈δE〉+∑i
Eiδpi
≡ −δW + δQ
34 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
Vi har deneret tilført varme δQ ≡∑
iEiδpi, der således er en ændring af sand-
synlighederne, ikke en ændring i kongurationsenergierne. Ligeledes har vi deneret
δW som det arbejde som systemet udfører på omgivelserne. Dette er en ændring i
energierne (fx fordi energiintegralet bliver større når volumen bliver mindre, og derfor
erδW < 0).
Da ændringen i entropien jf. den generelle teori er givet ved
δS =m∑k=1
λkδQk ,
så har vi at hvis alle andre variable end energierne holdes konstant, og dette er
netop hvad vi oftest har, da volumenet eller partikeltallet ikke ændres så meget når
sandsynlighedene ændrer sig (eller oftest er neglicigbelt for små ændringer). Helt
generelt gælder der så at
δQ = TδS .
En stor varmetilførsel er derfor lig med en stor ændring i sandsynlighedsfordelin-
gen, som er lig med en stor ændring af entropien, kort summeret op.
Termodynamikkens første hovedsætning siger da blot at
δU = δQ− δW
= TδS − δW .
6.5 Termodynamikkens anden lov
Lad os sige at vi har et system i en tilstand i med entropien (for den mest sand-
synlige tilstand, forstås) Si, hvor systemet er så stort at antallet af partikler, vo-
lumen, middelenergien og alle andre parametre er konstant (vælg fx Universet som
system). Foretages en-eller-anden ændring af systemet, vil denne nye tilstand f af
systemet med maksimum entropi metoden have entropien Sf (for den mest sandsyn-
lige tilstand). Den gamle sandsynlighedsfordeling med entropien Si vil ligeså være
en sandsynlighedsfordeling med de rette middelværdier; thi således valgtes systemet
for argumentet. Den generelle teori siger da at f er sandsynlighedsfordelingen med
højest entropi, og der gælder således
Sf ≥ Si ⇐⇒ ∆S ≥ 0 ,
for et sådant system, uanset hvilke ændringer, er entropien altså altid voksende
for en tidspil pegende mod fremtiden. Dette er termodynamikkens anden lov.
Bemærk dog strukturen i dette argument. Antages det at man havde kendskab
til den rigtige konguration af systemet (fx ved at løse Hamiltons ligninger for alle
partikler), dvs. har information om alle partikler, må vi have at denne sandsynlig-
hedsfordeling består af en masse δ-funktioner med forskellige argumenter i position,
tid, impuls , da vi jo netop ved hvorledes systemet udvikler sig, og alle størrelser er
35 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
fuldstændig velbestemte2. Dermed vil denne fordeling også være den bedste fordeling
i tilstand f , og således har vi ∆S = 0. Termodynamikkens anden lov formuleret som
at 'Entropien vil altid vokse' er dermed kun sand i tilfælde hvor vi har begrænset
information, og entropi er et sandsynlighedsteoretisk begreb.
6.6 Ligefordelingsloven, Ækvipartitionstheoremet
I den klassiske model for molekyler, antages det molekyler af forskellige atomer (der
opfattes som punktpartikler) bundet til hinanden, men ellers antages at opføre sig
som en ideal gas. De vil derfor have en række frihedsgrader, der er forbundet med Frihedsgrader
vibration mellem atomerne (her både den potentielle energi og kinetiske forbundet
med det), rotation omkring det fælles massemidtpunkt, og translation af molekylet.
Antallet af vibrationsfrihedsgrader fvib vil være lig summen af antallet af atomer
der bundet til hinanden multipliceret med hvor mange bindinger de hver især har til
andre atomer. For diatomige gasser har vi fvib = 1.
Antallet af rotationelle frihedsgrader frot vil være lig antallet af akser som mo-
lekylet kan rotere omkring lovligt siden atomerne er punktformige; frot = 0 for
monoatomige gasser, 2 for diatomige, 3 for højere atomige gasser).
Antallet af de translatoriske frihedsgrader vil være dimensionen af rummet gassen
bevæger sig i, dvs. oftest ftr = 3.
Ligefordelingsloven fremkommer fordi alle disses bidrag til den samlede tilstands-
sum er kvadratiske. Dermed fås for en molekylær ideal gas med N molekyler med de
givne frihedsgrader, at varmekapaciteten er givet ved
CV =1
2(2fvib + frot + ftr)N .
Summen 2fvib + frot + ftr = fi kaldes også 'de indre frihedsgrader'.
6.7 Det generelle tilfælde: Systemvariable
Haves et system, hvor vi kender middelværdierne af energien og af en række størrelser
fk, kaldet systemvariablene Fk =⟨fk⟩, med tilhørende Lagrangemultiplikatorer βλk,
er tilstandssummen
Z =∑konf.
exp
[−β
(Ei +
∑k
λkFk
)].
Entropien er da jf. den generelle teori
S = lnZ + β
(U +
∑k
λkFk
)Der gælder følgende relationer
U +∑k
λkFk = −∂ lnZ
∂β,
2Det samme argument kan føres i statistisk kvantemekanik, selvom at position, impuls osv. ikke
er fuldstændigt velbestemte, da vi da her i tilfældet af maksimal information har kendskab til
bølgefunktionen dikteret af Schrödingerligningen.
36 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
Fk = − 1
β
∂ lnZ
∂λi,
β =∂S
∂U,
βλi =∂S
∂Fi.
En ændring af entropien når både systemvariablene og lagrangemultiplikatorerne
ændres er da
δS = βδU +
(U +
∑k
λkFk
)δβ + β
∑k
λkδFk +∑k
Fkδλk .
Ændringen i entropien når middelværdierne af systemvariablene ændres, uden at
temperaturen og de andre lagrangemultiplikatorer ændres, er da
δS = βδU + β∑k
λkδFk ⇔
δU = TδS︸︷︷︸Varme
+∑k
λkδFk︸ ︷︷ ︸−Arbejde
,
som er i overensstemmelse med termodynamikkens første lov. Systemvariablene
kan deles ind i to klasser a og b, som kan vælges vilkårligt, da det bare er at summe
over først den ene klasse a (med A led), og så summe over resten b (med B = K−Aled) således at man alligevel har summet over alt. Vi har da K = A+B, hvor K er
antallet af system variable
∑k
λkFk =∑a
λaFa +∑b
λbFb
6.8 Frie energier
Vi kan denere K + 1 frie energier G alle på formen
G = −T lnZ −∑a
λaFa
= U − TS +∑b
λbFb
Ændringen i G er da givet ved
37 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
δG = δU − TδS − SδT + δ∑b
λbFb
= δU − TδS − SδT +∑b
λbδFb +∑b
Fbδλb
= δU − T
(βδU + β
∑k
λkδFk
)− SδT +
∑b
λbδFb +∑b
Fbδλb
= −∑k
λkδFk − SδT +∑b
λbδFb +∑b
Fbδλb
= −SδT −∑a
λaδFa +∑b
Fbδλb .
Det ses da at holdes T og λb'erne konstante, er ændringen i den fri energi netop
lig med det udførte arbejde. Man kan sige at ved at denere de frie energier på den
ovenstående måde går varmen ud.Eksempel 9 (Trykensemblet og Gibbs fri energi). For trykensemblet er sy-
stemvariablene (U, V0) med lagrangemultiplikatorerne (T, p). Vi kan denere
en fri energi ved at vælge b-variablene til p, V0, hvor der så ingen a-variableer. Vi har da G = U −TS+pV0, og ændringen i G er da δG = −SδT −V0δp
- vi får da intet fornuftigt ud denne relation.
Vi kan i stedet denere en fri energi (Gibbs fri energi) ved at vælge a-
variablene til p, V0, hvor der så ingen b-variable er. Vi har da G = U−TS,og ændringen i G er da δG = −SδT −pδV0 - her ses at holdes temperaturen
konstant, er G netop det arbejde systemet kan udføre.
6.9 Entalpier
Vi kan denere K + 1 entalpier H alle på formen
H = U +∑a
λaFa .
Ændringen i H er da givet ved
δH = δU + δ∑a
λaFa
= δU +∑a
λaδFa +∑a
Faδλa
=
(TδS − β
∑k
λkδFk −∑k
Fkδλk
)+ +
∑a
λaδFa +∑a
Faδλa
= TδS +∑a
Faδλa −∑b
λbδFb .
Dermed har vi at hvis λa'erne og Fb'erne holdes konstant, vil δH = δQ, dvs. være
lig med den tilførte varme. Vi kan derfor denere en række af varmekapaciteter ved
38 af 53
6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK
C =
(∂H
∂T
)λaFb
.
Ved entalpierne kan vi sige at arbejderne går ud så kun varmen er tilbage, under
forskellige situationer.Eksempel 10 (Store kanoniske ensemble). For det store kanoniske ensemble
er systemvariablene (U, N0) med lagrangemultiplikatorerne (T, µ). Vi kan
denere en entalpi ved at vælge b-variablene til µ, No, hvor der så ingen
a-variable er. Vi har da H = U , og ændringen i H er da δH = TδS+µδN0.
Det ses da, at holdes partikeltallet konstant er δH lig den tilførte varme, og
varmekapaciteten CN =(∂H∂T
)N0.
Vi kan denere en entalpi ved at vælge a-variablene til µ, No, hvor derså ingen b-variable er. Vi har da H = U + µNo, og ændringen i H er da
δH = TδS −N0δµ. Det ses da, at holdes det kemiske potential fast, er δH
den tilførte varme, og varmekapaciteten er Cµ =(∂H∂T
)µ.
6.10 Maxwell relationer
Det gælder at de blandede andenordens partielt aedte af en funktion er uafhængig
af dierentialtionsrækkefølgen. Vi har derfor at
∂2f
∂x∂y=
∂2f
∂y∂x.
Denne trivialitet kan give række meget brugbare og meget generelle (uafhængigt
af den underliggende fysik) sammenhænge mellem hvad der sker når man ændrer
forskellige variable, da vi for en given fri energi eller entalpi får sammenhænge mellem
lagrangemultiplikatorerne og systemvariablene.Eksempel 11 (En Maxwell relation for det store kanoniske ensemble). For
det store kanoniske ensemble er systemvariablene (U, N0) med lagrangemul-
tiplikatorerne (T, µ). Vi kan denere en entalpi ved H = U + µNo med
δH = TδS −N0δµ. Dermed haves at ∂2H∂S∂µ = ∂2H
∂µ∂S . Vi har
∂2H
∂S∂µ=
∂
∂S
(∂H
∂µ
)S
= −(∂N0
∂S
)µ
,
∂2H
∂µ∂S=
∂
∂µ
(∂H
∂S
)µ
=
(∂T
∂S
)S
=T
Cµ
(∂T
∂T
)S
=T
Cµ,
hvor vi har brugt at δQ = TδS = CµδT , dvs. δS = T−1CµδT . Dermed har
vi at (∂N0
∂S
)µ
= − T
Cµ,
hvilket fortæller os at det kemiske potential holdes fast og entropien ændres
positivt, vil ændringen i antallet af partikler være negativt.
39 af 53
7 STATISTISK KVANTEMEKANIK
6.11 Princippet om minimum energi
Det viser sig at princippet om at et system altid vil maksimere sin entropi, er ækvi-
valent med at et system altid vil miniere sin energi. Dette giver intuitivt også meget
god mening, hvis man bare tænker på hvad der sker når man sparker til en fod-
bold. Princippet om minimum er regneteknisk nyttig at anvende når vi har at gøre
med adiabatiske (∆S = 0) processer, men hvor middelenergien ikke nødvendigvis er
det. Vi kan bruge den generelle metode fra afsnittet om maksimal entropi til at n-
de den bedste sandsynlighedsfordeling, under bibetingelserne at entropien skal være
konstant, sandsynlighedsfordelingen skal være normeret, samt hvad vi ellers har af
systemvariable fk.
Vi nder da tilstandssummen og den bedste sandsynlighedsfordeling
Z =∑konf.
e−β(Ei+∑
k λkfk(xi)) ,
pmaxi =
e−β(Ei+∑
k λkfk(xi))
Z,
som netop er identisk med den almindelige maksimum entropi fordeling, hvor
vi antager at middelværdien er konstant. Det kan vises at pmaxi har den minimale
middelenergi af alle sandsynlighedsfordelinger, og at
U = T lnZ + TS −∑k
λkFk
(∂U
∂S
)Fk
= T .
Ved praktiske anvendelser af princippet, har man en situation hvor entropien er
konstant S(T, λi) = S0 = S(T0, λ0,i), og vi vil da minimere middelenergien U under
bibetingelsen at S(T, λi) = S0. Lagrangefunktionen er da
L = U − λ (S − S0) .
Vi dierentierer da partielt, sætter lig nul og løser de fremkomne ligninger som
en funktion af startparametrene, og under brug af at S(T, λi) = S0 for at bestemme
lagrangemultiplieren λ, middelenergien og temperaturen i sluttilstanden.
7 Statistisk kvantemekanik
7.1 Formalisme
Maksimum entropi metoden kan generaliseres til også at omfatte situationer, hvor
den underliggende fysik er kvantemekanik, og ikke klassisk fysik. Dette kræver at vi
laver vores denition af entropi om i dette tilfælde, så operatorformalismen passer
naturligt ind.
Vi skal først denere den såkaldte tæthedsoperator, eller tæthedsmatrice, hvis
den er repræsenteret af en given basis, ved
40 af 53
7 STATISTISK KVANTEMEKANIK
ρ =∑i
wi∣∣ψi⟩⟨ψi∣∣ , hvor
∑i
wi = 1 ,
og∣∣ψi⟩ er alle tilstandene som kvantesystemet kan være, inklusive superpo-
sitioner og egentilstande. ρ er et såkaldt ydre produkt, der beskriver vores viden
omkring systemet, og tager højde for at tilstande kan være i superpositioner, og der-
for biddrager forskelligt fra rene tilstande. ρ ses også yderligere at være hermitisk,
og unitær, da Tr [ρ] =∑
iwi = 1. wi'erne er den sandsynlighedsfordeling som vi
gerne vil nde, da den beskriver sandsynligheden for at nde systemet i tiltanden∣∣ψi⟩.Haves en ortonormalbasis
∣∣n⟩ for Hilbertrummet der beskriver kvantesystemet,
gælder det at I =∑
n
∣∣n⟩⟨n∣∣, og forventningsværdien af en observabel operator A
givet at vi ikke ved hvilken tilstand systemet er i, må være en vægtet sum over alle
tilstande:
⟨A⟩
=∑i
wi⟨ψi∣∣A∣∣ψi⟩ .
Dette kan omskrives til
⟨A⟩
=∑i
wi⟨ψi∣∣IA∣∣ψi⟩
=∑n,i
wi⟨ψi∣∣ (∣∣n⟩⟨n∣∣) A∣∣ψi⟩
=∑n,i
wi
(⟨n∣∣A∣∣ψi⟩) (⟨ψi∣∣n⟩)
=∑n,i
⟨n∣∣A (wi∣∣ψi⟩⟨ψi∣∣)∣∣n⟩
=∑n
⟨n∣∣Aρ∣∣n⟩ =
∑n
⟨n∣∣ρA∣∣n⟩
≡ Tr[ρA]
= Tr[Aρ].
Det kan vises (matematisk resultat) at trace'et er uafhængig af basis, så vi kunne
have valgt en vilkårlig basis og ville stadig få samme forventningsværdi, som vi også
gerne skulle have det, da det er de samme fysiske tilstande der repræsenteres.
ρ er hermitisk og kan derfor altid diagonaliseres. Er spektret af egenværdier
σ (ρ) = pi, og ortonormalbasis'en af egentilstande for systemet∣∣φi⟩, får vi så-
ledes en basis hvor systemet fremstår rent, da der ikke er superpositioner af nogle
tilstande. Sandsynligheden for at systemet er i tilstand∣∣φi⟩ er altså virkelig pi. Vi
har
ρ =∑i
pi∣∣φi⟩⟨φi∣∣ , hvor
∑i
pi = 1 ,
Vores retvisende denition af entropi i kvantesystemer er von Neumann entropien
41 af 53
7 STATISTISK KVANTEMEKANIK
S = −Tr [ρ ln ρ] = −∑i
pi ln pi .
Har vi nu et kvantesystem hvor vi kender middelværdierne/forventningsværdierne
af en række operatorer fk, Fk =⟨fk⟩
= Tr[ρfk
], så siger maksimum entropi metoden
at den bedste fordeling har sandsynlighedsfordelingen (for at være i tilstand i af
egentilstandene for tæthedsoperatoren)
pi =e−
∑k λk
⟨φi
∣∣fk∣∣φi⟩Z
, ρ =∑i
pi∣∣φi⟩⟨φi∣∣ =
1
Ze−
∑k λk fk
med tilstandssummen givet ved
Z = Tr[e−
∑k λk fk
]=∑i
e−∑
k λk
⟨φi
∣∣fk∣∣φi⟩ .Der gælder de sædvanlige egenskaber for maksimum entropi fordelingen og til-
standssummen generaliseret til operatorer:
S = lnZ +∑k
λkFk ,
Fk = −∂ lnZ
∂λk,
λk =∂S
∂Fk.
7.1.1 Kendt Hamiltonoperator
Haves det simpleste tilfælde hvor man har Hamiltonoperatoren H, og kender egen-
værdierne for denne, vil ρ også være diagonal i denne basis. Her bliver sandsynligheds-
fordelingen og entropien meget lig det klassiske udtryk. Lad H have egenværdierne
Ei og egentilstande∣∣φi⟩. Vi indfører β = 1/T som lagrangemultiplier, og vi har
da
pi =e−β⟨φi
∣∣H∣∣φi⟩Z
=e−βEi
Z,
og
Z =∑i
e−∑
k λk
⟨φi
∣∣fk∣∣φi⟩ =∑i
e−βEi .
Dette er som sådan identisk med det klassiske udtryk, og i praksis kommer man
heller ikke til at regne på andre tilfælde end de hvor man kender egenværdierne til
Hamiltonoperatoren.
Regner man på atomer, fx på ét brintatom kender vi umiddelbart egenenergierne
som er En = −13.6 eV/n2. Dog ses tilstandssummen let at divergere, da vi til sidst vil
addere en masse 1-taller! Dette er fordi energierne faktisk kun er korrekte for lave n,
og fordi at når der skal summes over samtlige kongurationer, også skal summes over
42 af 53
7 STATISTISK KVANTEMEKANIK
de frie tilstande, hvor energierne for brint er kontinuerte; så der skal renormaliseres
for at få det korrekte svar. Desuden har vi at for stadig voksende n kan to brintatomer
i en gas heller ikke betragtes som uafhængige, da elektronerne overlapper hinanden.
I sådanne situationer er løsningen at regne på de relative sandsynligheder for de
laveste n, da dette vil være en rigtig god approksimation. Vi har fx
pipj
=e−βEi
Z/e−βEj
Z= e−β(Ei−Ej).
7.2 Énpartikel systemer
7.2.1 Fri partikel
For en fri partikel i en kubisk kasse med volumen V og sidelængder L = 3√V er
egenværdierne til Hamiltonoperatoren H = 12m p2,
Ek =p2
2m=
~2k2
2m=
~2π2(k2x + k2
y + k2z
)2m
.
Har vi at V er stor, vil tilstandene ligge meget tæt siden en tilstand fylder ∆3k =
(πδk/L)3 = (π · 1/L)3 = π3/V i k-rummet, og vi kan erstatte summen med et
integral i tilstandssummen. For én partikel er tilstandssummen da
Z1 =∑i
e−βEi =1
∆3k
ˆR3+
d3k exp
(−β
~2π2(k2x + k2
y + k2z
)2m
)
=1
23∆3k
ˆR3
d3k exp
(−β
~2π2(k2x + k2
y + k2z
)2m
)
=V
8π2
(ˆR
dk exp
(−β ~
2π2k2
2m
))3
= V
(2πm
β~2
)3/2
.
For en ideal gas bestående af ikke-interagerende partikler er tilstandssummen da
Z = ZN1 = V N
(2πm
β~2
)3N/2
.
Dette er nøjagtig det samme som den klassiske ideale gas, selvom det blev udledt
på et helt andet grundlag (ikke noget med bølgefunktioner og egenenergier hér). Det-
te skyldes at vi tillod os at integrere i stedet for at summere. Denne approksimation
bryder ned i grænsen hvor forskellen i energi mellem to tætliggende tilstande δE nær-
mer sig temperaturen, og så får kvanteeekterne manifesteret i summen indydelse.
Dette sker når
δE
T' 1√
mT
~3√V
v 1 .
Dette kan der så løses for på forskellig vis, men det ses generelt at ske ved lave
temperaturer, små masser, og små volumener.
43 af 53
7 STATISTISK KVANTEMEKANIK
7.2.2 Harmonisk oscillator
Hamiltonoperatoren for den harmoniske oscillator er givet ved H = 12m p
2 + 12mω
2x2
med egenenergierne En = ~ω (n+ 1/2), n ∈ N0. Tilstandssummen er
Z =∑i
e−βEi =∞∑n=0
e−βEn
=∞∑n=0
e−β(~ω(n+1/2))
= e−β~ω/2∞∑n=0
(e−β~ω
)n=
e−β~ω/2
1− e−β~ω.
Middelenergien af den harmoniske oscillator er givet ved
U = −∂ lnZ
∂β= ~ω
(1
eβ~ω − 1+
1
2
)≡ ~ω
(⟨n⟩
+1
2
).
⟨n⟩kan opfattes som gennemsnittet af energikvanter i den harmoniske oscilla-
tor ved en given temperatur. Denne er identisk med Bose-fordelingsfunktionen for
energien ~ω.Entropien er givet, sæt x ≡ β~ω, ved
S = lnZ + βU =x
ex − 1− ln
(1− e−x
).
Varmekapaciteten er givet ved
C =∂U
∂T= −β2∂U
∂β=
x2ex
(ex − 1)2 .
For T ~ω har vi
U = T , S = − ln (x) = ln
(T
~ω
), C = 1 .
For T ~ω har vi
U = ~ω(e−β~ω +
1
2
), S = xe−x , C = x2e−x .
7.3 Mangepartikel systemerMå ikke interagere
Haves mange partikler, kan dette også beskrives med den nuværende forståelse af
kvantemekanik på andet år af fysik-studiet, såfremt de kan antages at ikke interage-
re (dvs. ingen partikel-partikel vekselvirkninger), eller højest have at alle partikler
er udsat for samme potential. Haves dette, kan vi med god approksimation behand-
44 af 53
7 STATISTISK KVANTEMEKANIK
le partiklerne uafhængigt af hinanden, selvom deres bølgefunktioner i virkelighedens
verden faktisk overlapper og påvirker hinanden. Hver partikel vil her have en Hamilt-
onoperator Hi = 12m p2
i + V , hvor potential operatoren V er den samme for alle, og vi
kan da nde egentilstande∣∣φini
⟩med kvantetallene ni og egenenergier
Eini
for
Hi . Den samlede Hamiltonoperator er Hi =∑N
i=1 Hi, og en mangepartikeltilstand
er da givet ved
∣∣φ1n1. . . φNnN
⟩=∣∣φini
⟩⊗ · · · ⊗
∣∣φNnN
⟩, E =
∑i
Eini
dvs. blot ved et tensorialt produkt mellem de forskellige énpartikeltilstande som
hver udspænder deres eget Hilbertrum uafhængigt af de andre partikler. I positions-
basis kan vi da også skrive mangepartikelbølgefunktionen ved
Ψ (r1, . . . , rN ) = φ1n1
(r1) · · ·φNnN(rN ) .
Er partiklerne identiske, er der dog en lille (stor) teknikalitet som stiller specielle
krav til mangepartikeltilstanden. Vi kan med god grund ikke skelne identiske partikler
fra hinanden i kvanteverdenen, og mangepartikelbølgefunktionen skal derfor være
enten symmetrisk eller antisymmetrisk under ombytning af to partikler, manifesteret
ved at ri ↔ rj ⇒ Ψ (r1, . . . , ri, . . . , rj , . . . , rN ) = ±Ψ (r1, . . . , rj , . . . , ri, . . . , rN ), da
det må repræsentere samme tilstand i Hilbertrummet. Systemer hvor der gælder '+'
er identiske bosoner, og systemer hvor der gælder '-' er identiske fermioner. Anden basis
Er partiklerne identiske, har de også samme énpartikel bølgefunktioner, og derfor
samme spektrum. Vi kan derfor skifte basis for Hilbertrummet såldes at en tilstand
er beskrevet ved hvor mange er i den og den énpartikeltilstand. Dvs. systemet kan
beskrives ved
∣∣n1 . . . nN⟩,
hvor ni er antallet af partikler i tilstand i. For at skabe mangepartikelbølgefunk-
tioner der overholder antisymmetrikravet, kan vi for en række énpartikeltilstande
indføre Slaterdeterminanten for fermioner givet ved Slaterdeterminant
Ψfermioner (r1, . . . , rN ) =1√N !
∣∣∣∣∣∣∣∣φn1(r1) · · · φnN (r1)
.... . .
...
φn1(rN ) · · · φnN (rN )
∣∣∣∣∣∣∣∣Pauli-princippet
For fermioner fører dette til Pauliprincippet, der siger at der kun kan være én
partikel i hver tilstand. Systemets tilstand vil da typisk i den indførte basis se ud
som fx
Der er ingen tilsvarende begrænsning på bosoner mht. antal i hver tilstand, men
bølgefunktionen skal stadig være symmetrisk under ombytning, så vi kan her ind-
føre Bose-permanent, der udregnes på samme måde som determinanten, dog uden Bose-permanent
fortegnsskift nogle steder,
45 af 53
7 STATISTISK KVANTEMEKANIK
Ψbosoner (r1, . . . , rN ) =1√N !
∣∣∣∣∣∣∣∣φn1(r1) · · · φnN (r1)
.... . .
...
φn1(rN ) · · · φnN (rN )
∣∣∣∣∣∣∣∣+
.
Det samlede antal af partikler i en tilstand∣∣n1 . . . nN
⟩er givet ved
N =∑i
ni ,
mens energien er
E =∑i
Eini .
7.3.1 Antal af tilstande og tilstandstæthed for frie partikler
For en et system af bosoner eller fermioner i et volumen V , hvor der ingen interaktion
mellem partiklerne er (frie partikler), får man ved at løse Schrödingerligningen at
egenenergierne for én partikel er givet ved
εk =~2k2
2m, k = (kx, ky, kz) =
π3√V
(nx, ny, nz) , ni ∈ N .
Én partikel med energien ε svarer da til en 1/8 kugleskal i k-rummet med radius
k =√
2mε/~2, og ligger tilstandene tæt i energiniveauerne som de vil gøre for et
makroskopisk volumen, og vi kan da denere en funktion R(ε) som tæller antallet af
tilstande med energi mindre end ε. Denne har udseendet
R(ε) =1
8
43πk
3
∆3k=
1
8
43πk
3
π3
V
= Vk3
6π2=
V
6π2
(2m
~2
)3/2
ε3/2 .
Tilstandstætheden, dvs. tilstande pr. energi er da
ρ(ε) =dR(ε)
dε=
3V
12π2
(2m
~2
)3/2√ε .
Dette gælder for både bosoner og fermioner.
7.4 Fermioner
For at beskrive en fermi-gas (ikke-interagerene identiske fermioner), vil vi bruge det
store kanoniske ensemble ordentlig generaliseret til kvantemekanik. Vi kender således
gennemsnittet af partikler i gassen N0 = 〈N〉 og middelenergien U = 〈E〉, mens
volumen V af gassen er helt velbestemt. I grænsen N0 1 giver denne fordeling
stort set samme resultat som hvis vi havde kendt antallet af partikler. En tilstand∣∣n1 . . . ni . . .⟩har da antallet af partikler og energien
E =∑i
Eini , N =∑i
ni .
Tilstandssummen er
46 af 53
7 STATISTISK KVANTEMEKANIK
Z =∑konf.
e−β(E−µN)
=1∑
ni=0
e−β(∑
i(Ei−µ)ni)
=∏i=0
(1∑
ni=0
e−β((Ei−µ)ni)
)=
∏i=0
(1 + e−β(Ei−µ)
).
Den generelle teori giver U − µN0
U − µN0 = −∂ lnZ
∂β
=∑i
Ei − µ1 + e−β(Ei−µ)
= 〈E − µN〉 ≡∑i
(Ei − µ) 〈ni〉
≡∑i
(Ei − µ)nF (Ei)
, hvor 〈ni〉 ∈ [0, 1]er det gennemsnitlige antal partikler i énpartikeltilstand i, og
vi kan generelt denere Fermi-fordelingsfunktionen
nF (ε) ≡ 1
1 + e−β(ε−µ),
som giver antallet af partikler i en énpartikeltilstand givet temperaturen T og
det kemiske potential µ. Bemærk at vi for ε = µ har at
nF (µ) =1
2.
For T = 0 er nF (ε) en stepfunktion, og alle tilstande med energi ε < µ vil
være helt fyldt op. I dette tilfælde vil kvantetallet hørende til den højeste energi
εmaxN ≤ µ netop være antallet af partikler i gassen. Denne højeste energi som når
energiniveauerne ligger tæt er lig µ kaldes Fermienergien εF . Vi har således Fermienergi
R(εF ) =V
6π2
(2m
~2
)3/2
ε3/2F , ρ(εF ) =
3V
12π2
(2m
~2
)3/2√εF ,
hvor vi af antallet af partikel kan indføre partikeltætheden n ≡ N/V og vi har
netop for T = 0 (i praksis blot lave temperaturer ift. εF , dvs. i størrelsesorden µ) at
n =N0
V= R(εF ) =
V
6π2
(2m
~2
)3/2
ε3/2F ⇒
εF =~2
2m
(6π2n
)2/3.
47 af 53
7 STATISTISK KVANTEMEKANIK
7.4.1 Degenereret Fermi-gas
En fermigas siges at være degenereret såfremt at εF T , hvor kun de laveste
energiniveauer er optaget. I dette tilfælde kan man lave en række gode approksi-
mationer ved en såkaldt Sommerfeld-udvikling. Sommerfeld-udviklingen af en funk-
tion f af energien til anden orden i en Taylorudvikling en værdi for integralet
I [f ] =´∞−∞ f(ε)nF (ε)dε, der er givet ved
I [f ] =
ˆ ∞−∞
f(ε)nF (ε)dε
= F (µ) +π2
6f ′(µ)T 2 .
Herfra haves fx kombinationen af middelenergi U og middelpartikeltallet, U −µN0, der er givet ved
U − µN0 = 〈E − µN〉 =∑i
(ε− µ)⟨ni⟩
=∑i
(εi − µ)nF (εi)
'ˆ µ
−∞(ε− µ) ρ(ε)dε+
π2
6ρ (µ)T 2
Kombinationen U − µ 〈N〉 beregnes ved
U − µ 〈N〉 = −∂ lnZ
β=∑i
εi − µeβ(εi−µ) + 1
Middelpartikeltal (bruges oftest til at beregne det kemiske potential med)
N0 = 〈N〉 =∑i
⟨ni⟩
= R (µ) +π2
6ρ′ (εF )T 2
= R (εF )|T=0
Kemisk potential
µ = εF −π2
6
ρ′ (εF )
ρ (εF )T 2
Varmekapacitet (under fastholdt µ)
Cµ =π2
3ρ (µ)T
Tryk af gas (Fermitryk)
p =1
V
ˆ εF
−∞R(ε)dε+
π2T 2
6V
(ρ (εF )−N ρ′ (εF )
ρ (εF )
)
48 af 53
7 STATISTISK KVANTEMEKANIK
7.4.2 Degenereret ideal Fermi-gas
En fermi-gas der er pendant til den klassiske urelativistiske ideale gas. Der antages
ingen vekselvirkninger at være mellem partiklerne.
µ = εF −π2
12
T 2
εF
Cµ = Nπ2
2
T
εF
p =2
5nεF
(1 +
5π2
12
T 2
ε2F
)' 2
5nεF
7.5 Bosoner
For en samling af identiske uden vekselvirkning (en såkaldt Bose-gas)vil vi bruge
det store kanoniske ensemble ordentlig generaliseret til kvantemekanik. Vi kender
således gennemsnittet af partikler i gassen N0 = 〈N〉 og middelenergien U = 〈E〉,mens volumen V af gassen er helt velbestemt. I grænsenN0 1 giver denne fordeling
stort set samme resultat som hvis vi havde kendt antallet af partikler. En tilstand∣∣n1 . . . ni . . .⟩har da antallet af partikler og energien
E =∑i
Eini , N =∑i
ni .
Tilstandssummen er
Z =∑konf.
e−β(E−µN)
=∑∣∣n1 ... ni ...
⟩ e−β(∑i(Ei−µ)ni)
=∏i
( ∞∑ni=0
e−β((Ei−µ)ni)
)
=∏i
( ∞∑ni=0
(e−β(Ei−µ)
)ni
)
=∏i
(1
1− e−β(Ei−µ)
)=
∏i
ZHOi .
Altså blot produktet af mange harmoniske oscillatorer med energien ~ω = Ei−µ.Det gennemsnitlige antal bosoner i en tilstand i er
〈ni〉 =1
β
∂ lnZHOi
∂µ=
1
eβ(Ei−µ) − 1≡ nB(Ei) ,
hvor vi har indført Bose-fordelingsfunktionen, der giver antallet af bosoner i sam-
me énpartikel tiltand ved temperaturen T , kemisk potential µ og energien ε:
49 af 53
7 STATISTISK KVANTEMEKANIK
nB (ε) ≡ 1
eβ(ε−µ) − 1.
Vi har at der må gælde µ ≤ ε.Det gennemsnitlige antal af partikler er
N0 = 〈N〉 =∑i
⟨ni⟩
=∑i
nB(Ei)
=
ˆ ∞µ
ρ(ε)nB(ε)dε
For en ideal bosegas af partikler med masse m og kemisk potential µ, har vi da
at tilstandstætheden er ρ(ε) = 3V12π2
(2m~2)3/2√
ε
N0 =
ˆ ∞µ
ρ(ε)nB(ε)dε
=
ˆ ∞µ
3V
12π2
(2m
~2
)3/2√ε
1
eβ(ε−µ) − 1dε
=3V
12π2
(2m
~2
)3/2 ˆ ∞0
ε1/2
eβµeβε − 1dε
=3V
12π2
(2mT
~2
)3/2
g1/2(eβµ) ,
hvor g1/2(eβµ) er et såkaldt Bose-integral, hvor det her forstås at µ ≈ 0. Vi
kan for en Bosegas denere en karakteristiske længde for systemet, som vil være ca.
afstanden mellem partikler, givet ved
` =
(V
〈N〉
)1/3
,
samt en karakteristisk energi
e` =~2
2m`2=
~2
2m
(〈N〉V
)2/3
samt en karakteristisk temperatur TB givet ved
TB = (2π)4/3 e` =~2
2m
(4π2 〈N〉
V
)2/3
.
Vi har da i tilfældet med den ideale bosegas at
1 =
(T
TB
)3/2
g1/2(eβµ) .
For temperaturer meget højere end TB kan ligningen opfyldes af små værdier
for integralet g1/2(eβµ). Går vi i lav-temperaturgrænsen, sker der dog det at vi (for
andre bose-systemer) ikke nødvendigvis kan opfylde ligningen, da vi for T → 0 har at
50 af 53
7 STATISTISK KVANTEMEKANIK
g1/2(eβµ)→ g1/2(1), og dette integral er endeligt. Dermed sker der altså noget sjovt i
sådanne tilfælde, og dette kaldes Bose-Einstein-kondensation. Den temperatur hvor
dette sker kaldes den kritiske temperatur TC og er i den ideal bose partikel gas givet
ved
TC = g1/2(1)−2/3TB
7.5.1 Bose-Einstein kondensation
Såfremt at N0 =´∞µ ρ(ε)nB(ε)dε <∞ for β →∞⇔ T → 0, vil gassen bosekonden-
sere, da grundtilstanden vil blive fyldt op. Dette er betingelsen for bose-kondensation,
og man gør det ved udregninger at man tjekker om integralet gn(1) hvor n er eks-
ponenten af ε i ρ(ε) er konvergent i grænsen T → 0. Er den konvergent, vil gassen
bosekondensere, og den kritiske temperatur er
TC = gn(1)−2/3TB .
Brøkdelen af tilstande i grundtilstanden x0 for T < TC er givet ved
x0 = 1−(T
TC
)3/2
.
51 af 53
A APPENDIX
A Appendix
A.1 Konstanter og omregning
Konstant Værdi Enhed 1 Enhed 2
kB 1.38 · 10−23 J/K 1eV v 11600K
NA 6.022 · 1024 1/mol 1eV ≡ 1.60 · 10−19J
~ 1.055 · 10−34 Js
h 6.626 · 10−34 Js
A.2 Vigtige integraler
A.2.1 Eksponentiale- og gaussiske integraler
ˆ ∞−∞
e−(ax2+bx+c)dx =
√π
ae(b
2−4ac)/4a =
√π
aexp
(b2
4a
)exp (−c)
ˆ ∞0
xne−x/adx = n!an+1
ˆ ∞0
x2ne−x2/a2dx =
√π (2n)!
n!
(a2
)2n+1
ˆ ∞0
x2n+1e−x2/a2dx =
n!
2a2n+2
ˆ ∞0
cos (bx) e−axdx =a
a2 + b2
ˆ ∞0
sin (bx) e−axdx =b
a2 + b2
A.2.2 Trigonometriske integraler
ˆ π/2
0sin2n xdx =
ˆ π/2
0cos2n xdx =
1 · 3 · 5 · . . . · (2n− 1)
2 · 4 · 6 · . . . · 2nπ
2
ˆ π/2
0sin2n+1 xdx =
ˆ π/2
0cos2n+1 xdx =
2 · 4 · 6 · . . . · 2n1 · 3 · 5 · . . . · (2n+ 1)
π
2
ˆ π/2
0cos2p−1 x sin2q−1 dx =
p!q!
2 (p+ q)!
A.2.3 Bose-integraler
gn(1) =
ˆ ∞0
xn
ex − 1dx = ζ(n+ 1)Γ(n+ 1) <∞ for n ∈ R+
52 af 53
A APPENDIX
n gn(1) eksakt gn(1) approksimeret
1/2 12
√πζ(3/2) 2.315157374
1 π2/6 1.644934068
3/2 34
√πζ(5/2) 1.783293191
2 2ζ(3) 2.404113806
5/2 158
√πζ(7/2) 3.744532091
3 π4/15 6.493939406
7/2 10516
√πζ(9/2) 12.26807131
4 24ζ(5) 24.88626612
9/2 94532
√πζ(11/2) 53.66205552
5 8π6/63 122.0811675
A.3 Vigtige aedte
A.3.1 Hyperbolske funktioner
d
dxln coshx =
sinhx
coshx= tanhx
d
dxtanhx = sech2x =
1
cosh2 x= 1− tanh2 x
A.4 Vigtige summe∞∑n=0
xn =1
1− xiff |x| < 1
53 af 53