8.6 Entropie

Wir machen ein Gedankenexperiment:

PIC

Wir öffnen das Ventil:

PIC

Wir definieren die Wahrscheinlichkeit pL(M) M Teilchen aus N Teilchen links zu finden. Wir suchen also die Anzahl der Möglichkeiten, im linken Teil M Teilchen aus N auszuwählen (Kombinatorik). Diese berechnet sich nach folgender Formel:

(N  )       N !
      = -----------
  M     M !(N - M )!

Die Anzahl der Möglichkeiten, N Teilchen auf links/rechts zu verteilen ist 2N. Dann folgt für die Wahrscheinlichkeit:

        ( )
        -NM--
pL(M ) = 2N  = pR(M )

PIC

|----------------------------------------------------------------------------------------|
|F¨ur große Teilchenzahlen N ist die Gleichverteilung sehr wahrscheinlich, selbst kleine Abweichungen sind
|sehr unwahrscheinlich.                                                                     |
|                                                                                        |
-----------------------------------------------------------------------------------------

Wir machen ein Gedankenexperiment:

PIC

Was ist das Maß für die Gleichverteilung? N Teilchen sind auf m Gefäße verteilt.

Definition:
|-------- sum m-------|
S := -cN     pnln pn|
|        n=1       |
--------------------

c  /\ = Beliebige Konstante

pn= /\ Wahrscheinlichkeit, ein Teilchen im Gef¨aß n zu finden

Beispiel (Gedankenexperiment):

Die Entropie eines Teilchens, das auf m Gefäße verteilt sein kann, lautet:

         sum m 1   ( 1)          ( 1)
S = -cN     m-ln  m-  = - cN ln  m-  = cN ln(m)
        n=1

Mit der speziellen Wahl c = --1--
ln(2) und ln(m) = ln(2)log 2(m) erhält man somit:

|--------------|
|SI = N .log2(m)|
----------------

[SI] = 1bit

Es handelt sich um die Information (im Sinne von Shannon). In der Thermodynamik wählt man:

|------|
-c =-kB-

Daraus folgt:

|----------------|
|S = N .kB .ln(m) |
-----------------

[S] =-J
     K

Entropie:

Öffnet man das Ventil zu einem weiteren Gefäß, steigt die Entropie an, es gilt DS > 0, weil Abweichungen von der Gleichverteilung sehr unwahrscheinlich sind. Der Prozeß ist spontan nicht umkehrbar. Die Entropie ist eine extensive Größe: Es gilt die Umrechnung:

|------------|
S-=-kB-ln(2)SI-

      J
[S] =--
     K

[SI] = 1bit

Beispiel:
SI = 1023 bit =: 1 Makrobit“
                ”

Daraus folgt für die Entropie:

S = 0,96 J- ~~  1 J
        K     K

Diese Zahl kann man sich sehr gut merken!

|------------------------|
|  23                 /\  J |
|10 bit =: 1Makrobit= 1 K|
--------------------------

Beispiel (Entropie):

PIC

PIC

Mit S = -kBN  sum npn lnpn folgt:

           sum  DV    (DV  )          (DV  )
S = -kBN     ----ln  ----  = -kBN ln  ---- = kBN  (ln(V)- ln(DV ))
           n  V      V                V

Die absolute Angabe von S ist nicht eindeutig, weil sie abhängig von der Wahl von DV ist. Bei der Angabe von Entropiedifferenzen fällt DV heraus:

                                        (   )            (   )        (   )
DS = S - S = k  N (ln(V )- ln(V )) = k N ln V2  = k N  .nln  V2  = nR ln  V2
      2   1   B       2      1     B      V1     B -A      V1           V1
                                                  R

|-------------------(--)-|
DS  = S2- S1 = nR ln  V2  |
---------------------V1---

Für die Informationsentropie folgt:

              (   )
DSI = N -1--ln  V2
        ln(2)    V1

Beispiel:Mischungsentropie

PIC

                        /\ 
DS = S2- S1 = 2nR ln(2)= Mischungsentropie

Beziehungsweise gilt:

DSI = 2N bit

Die Mischungsentropie taucht natürlich nur dann auf, wenn man verschiedene Gase betrachtet.