Entropie
Physik
Basiswissen
Die Einheit der Entropie ist Joule pro Kelvin[2]. Der Begriff spielt eine wichtige Rolle in der Thermodynamik[1] und der Kosmologie[14] und auch der Philosophie[10]. Die Entropie ist ein Maß für die Unregelmäßigkeit oder Unordnung in einem System[3]. Das übliche Formelzeichen ist ein großes lateinisches S. Hier werden kurz einige Grundaussagen zur Entropie vorgestellt.
Jeder Gegenstand hat Entropie
Alle Gegenstände, das heißt Anordnungen aus Materie, haben Entropie, ihre Entropie ist also von Null verschieden.[8, Seite 43] Es gibt keinen Gegenstand mit der Entropie Null.
Arbeit transportiert niemals Entropie
Arbeit im Sinne der Physik und der Thermodynamik transportiert keine Entropie.[9] Siehe auch Arbeit ↗
Wärme transportiert immer Entropie
Wenn Wärme übertragen wird, wird immer auch Entropie übertragen. Dabei ist es ganz gleich, in welcher Form die Wärme übertragen wird.[8, Seite 43]
Entropie wird nur zusammen mit Wärme übertragen
Wenn Entropie übertragen wird, wird immer auch Wärme übertragen. Bemerkenswert ist aber, dass pro übertragener Wärme nicht immer dieselbe Menge an Entropie übertragen wird.[8, Seite 43]. Siehe auch Wärme ↗
Bei kalter Temperatur wird mehr Entropie übertragen
Bei hohen Temperaturen wird pro übertragener Wärme nur wenig Entropie mit übertragen. Bei niedrigen Temperaturen wird hingegen vergleichsweise mehr Entropie mit der Wärme übertragen. Die Temperatur ist gleich dem Quotienten aus der übertragenen Wärme und der übertragenen Entropie (T=Q/S)[8, Seite 44]. Bei dieser Formel muss die Temperatur in Kelvin eingesetzt werden, nicht in Grad Celsius. Siehe auch Temperatur ↗
Die Entropie ist eine extensive Größe
Masse, Teilchenzahl, Volumen, innere Energie und auch die Entropie[7]: als extensiv bezeichnet man in der Physik jede Größe, die sich bei einer Verdopplung der Teilchenzahl oder des Volumens mit verdoppelt, also proportional dazu ist. Das trifft auf die Entropie zu: verdoppelt man zum Beispiel die Menge an Wasser (in einem perfekt gleichartigen Zustand) so verdoppelt sich auch die Entropie. Siehe auch extensive Größe ↗
Entropie und der zweite Hauptsatz der Thermodynamik
Der zweite Hauptsatz der Thermodynamik, auch Entropiesatz genannt, besagt, dass die Entropie in einem abgeschlossenen System niemals abnehmen kann. Die maximale Entropie wird dann erreicht, wenn das abgeschlossene System ein vollständiges thermodynamisches Gleichgewicht erreicht hat. Solange dieser Zustand nicht erreicht, kann die Entropie gleich bleiben oder zunehmen, aber niemals abnehmen.[6] Siehe auch zweiter Hauptsatz der Thermodynamik ↗
Die Entropie ist keine Erhaltungsgröße
Energie, Impuls (auch Drehimpuls) und elektrische Ladung sind Beispiele für sogenannte Erhaltungsgrößen: ihre Menge kann in einem abgeschlossenen System weder zu noch abnehmen. Die Entropie gehört nicht zu den Erhaltungsgrößen.[11] Entropie kann "aus dem Nichts heraus entstehen". Aber der Umkehrschluss gilt nicht: "Entropie kann nur produziert, aber niemals vernichtet werden".[8, Seite 44]
Definition der Entropie I: Wärmetransport bei T
"ΔS=Qᵣₑᵥ/T"[13] oder auch "ΔS=Qᵣₑᵥ/T ist die Änderung der Entropie S zweier Zustände"[15]. Als Zahlenbeispiel kann man die Erhitzung von 1000 Gramm Wasser von einer Temperatur 293 K auf 297 K betrachten. Nimmt man als mittlere Temperatur des Übergangs 295 K an, und gibt ein Tauchsieder mit einer Leistung von 600 Watt in jeder Sekunde 600 J an Wärme an das Wasser ab und dauert die Erwärmung insgesamt 30 Sekunden, so kommt man zu einer übertragenen Wärme von 18000 Joule bei einer Temperatur von 295 K, das ergibt über die hier beschriebene Quotientenmethode oben eine Änderung der Entropie um 61 Joule pro Kelvin[16].
Definition der Entropie II: Zunahme der Mikrozustände
Bei thermodynamisch betrachteten Systemen, etwa Luft, unterscheidet man sogenannte Mikro- und Makrozustände. Makrozustände sind zum Beispiel die Temperatur, der Druck und das Volumen[17]. Um einen Makrozustand zu messen, benötigt man keine Kenntnisse über den dazugehörigen Zustand der einzelnen Teilchen des Systems, etwa der Luftteilchen. Tatsächlich können zum Makrozustand 20 °C einer Lufttemperatur in einem kleinen Studierzimmer praktisch unendlich viele Mikrozustände gehören. Denn für die 20 °C wichtig ist die durchschnittliche kinetische Enregie der Teilchen, nicht welches einzelne Teilchen welche Geschwindigkeit oder Flugrichtung hat. Der Physiker Ludwig Boltzmann schlug nun vor, dass man die Anzahl der Mikrozustände, die denselben Makrozustand ergeben, als Maß für die Entropie eines Systems nimmt[20], wobei sich das Problem des Zählens der Mikrozustände ergibt[22]. Diese Definition wird auch heute noch verwendet, und zwar in der Form ΔS = k·ln(w).[13]
Definition der Entropie über Wahrscheinlichkeiten
Keine Definition im eigentlichen Sinn, aber doch die Beschreibung einer wesentlichen Eigenschaft der Entropie bringt die Wahrscheinlichkeit von natürlichen Systemen[23] mit ins Spiel: ändert ein System seinen Zustand, sodass der Zustand nachher wahrscheinlicher ist als vorher, so nimmt auch die Entropie zu. In einen abgeschlossenen System laufen nun Vorgänge so lange von alleine ab, bis das System seinen wahrscheinlichsten Zustand erreicht hat, das heißt, bis seine Entropie maximal ist.[24]
Entropie und die Definition von Leben
Nicht die Nutzung von Energie alleine, sondern die Fähigkeit Energie niedriger Entropie zu Nutzen und Energie hoher Entropie wieder aus dem eigenen System ausscheiden zu können, betrachten verschiedene Denker wie Erwin Schrödinger[5] oder Valentin Turchin[27] als wesentlich für die Definition von Leben. Siehe auch Leben ↗
Quaestiones
- 1) Ist es richtig, dass man für einen Körper, eine Menge Gas oder sonst ein Objekt keinen absoluten Wert von Entropie angeben kann, sondern immer nur Änderungen in der Entropie?[26]
- 2) Bei der Definition der Entropie über Wahrscheinlichkeiten vergleicht man Anzahlen von mikroskopischen Zuständen die zu einem makroskopischen Zustand gehören. Wenn aber die mikroskopischen Zustände kontinuierlich und nicht diskret (z. B. gequantelt) sind, dann vergleicht man eine Unendlichkeit mit einer anderen. Boltzmann ging in seinen Schriften darauf ein[19]. Gibt es dafür eine einfache Erklärung, wie man nämlich die Anzahl mikroskopischer Zustände zählt, wenn die beteiligten Größen kontinuierlich sind?
Fußnoten
- [1] Aus einem Lexikon des Jahres 1911: "Entropīe (grch.) nach Clausius der Teil der innern Energie eines Körpersysthems, welcher sich nicht in Arbeit verwandeln läßt; denn während Arbeit gänzlich in Wärme verwandelt werden kann, läßt sich nur ein kleiner Teil dieser wieder in Arbeit zurückverwandeln, der größere geht zu den kühlern Körpern hinüber. Jetzt gebraucht man E. nicht allein für Wärme, sondern für jede Energieform." In: Brockhaus' Kleines Konversations-Lexikon, fünfte Auflage, Band 1. Leipzig 1911., S. 518-519. Online: http://www.zeno.org/nid/2000108187X
- [2] Was Joule pro Kelvin (hier noch Calorie pro Kelvin) bedeutet gibt der Physiker Erwin Schrödinger: "Am absoluten Nullpunkt (ungefähr –273 °C) ist die Entropie jeder Substanz gleich Null. Wenn man eine Substanz durch kleine, umkehrbare Schritte in irgendeinen anderen Zustand überführt (auch wenn die Substanz dabei ihre physikalische oder chemische Natur verändert oder sich in zwei oder mehrere Teile von verschiedener physikalischer oder chemischer Natur aufspaltet), nimmt die Entropie um einen Betrag zu, der errechnet wird, indem man alle kleinen Wärmebeträge, die man bei diesem Vorgehen zuschießen mußte, durch die absolute Temperatur, bei welcher sie geliefert wurden, dividiert und dann alle diese kleinen Beträge zusammenzählt. Um ein Beispiel zu geben: Wenn man einen festen Körper zum Schmelzen bringt, so nimmt seine Entropie um den Betrag der Schmelzwärme, dividiert durch die Temperatur des Schmelzpunktes, zu. Daraus ersieht man, daß die Einheit, mit der die Entropie gemessen wird, cal./°C ist." In: Erwin Schrödinger: Was ist Leben?: Die lebende Zelle mit den Augen des Physikers betrachtet. R. Piper GmbH & Co. KG, München 1987. ISBN: 3-492-11134-3. Dort die Seite 103.
- [3] Die Formel zur statistischen Bedeutung der Entropie ist: "Entropie = k log D Es bedeuten k die sogenannte Boltzmannsche Konstante (=3,2983x10⁻²⁴ cal./°C) und D ein quantitatives Maß der atomaren Unordnung des fraglichen Körpers. Eine exakte Erklärung dieser Größe D in kurzen Ausdrücken der Nichtfachsprache ist beinahe unmöglich. Die damit bezeichnete Unordnung ist zum Teil diejenige der Wärmebewegung, zum Teil diejenige, welche bei verschiedenen Arten von Atomen oder Molekülen auftritt, wenn sie aufs Geratewohl gemischt statt säuberlich auseinandergehalten werden" In: Erwin Schrödinger: Was ist Leben?: Die lebende Zelle mit den Augen des Physikers betrachtet. R. Piper GmbH & Co. KG, München 1987. ISBN: 3-492-11134-3. Dort die Seite 104.
- [4] Eine sehr ausführliche Herleitung in klarer Sprache gibt Max Planck in: Die Einheit des physikalischen Weltbildes. Vortrag, gehalten am 9. Dezember 1908 in der naturwissenschaftlichen Fakultät des Studentenkorps an der Universität Leiden.
- [5] Sich einer wachsenden Entropie entziehen zu können ist für Physiker und Nobelpreisträger Erwin Schrödinger (1887 bis 1961) ein wesentliches Kennzeichen von Leben: "Ein Organismus erscheint deswegen so rätselhaft, weil er sich dem raschen Verfall in einen unbewegten »Gleichgewichtszustand« entzieht, und dieses Rätsel hat der Menschheit so viel zu schaffen gemacht, daß sie seit den frühesten Zeiten des philosophischen Denkens und teilweise auch heute noch behauptet, im Organismus sei eine unkörperliche, übernatürliche Kraft wirksam (vis viva, Entelechie). Wie entzieht sich der lebende Organismus dem Zerfall? Die Antwort lautet offenbar: Durch Essen, Trinken, Atmen und (im Falle der Pflanzen) durch Assimilation." Schrödinger fragt dann, was ausgetauscht wird. Er verwirft die Ideen, dass das Wesentliche des Austausches Stoffliches oder Energie seien. Worum es geht, so Schrödinger, ist die Entropie: "Das, wovon ein Organismus sich ernährt, ist negative Entropie. Oder, um es etwas weniger paradox auszudrücken, das Wesentliche am Stoffwechsel ist, daß es dem Organismus gelingt, sich von der Entropie zu befreien, die er, solange er lebt, erzeugen muß." Wenige Seiten weiter wiederholt er diesen Gedanken noch einmal "Der Kunstgriff, mittels dessen ein Organismus sich stationär auf einer ziemlich hohen Ordnungsstufe (einer ziemlich tiefen Entropiestufe) hält, besteht in Wirklichkeit aus einem fortwährenden »Aufsaugen« von Ordnung aus seiner Umwelt." In: Erwin Schrödinger: Was ist Leben?: Die lebende Zelle mit den Augen des Physikers betrachtet. R. Piper GmbH & Co. KG, München 1987. ISBN: 3-492-11134-3. Dort die Seiten 102 und 103 sowie 106. Siehe auch Leben ↗
- [6] Das Spektrum Lexikon der Physik bezeichnet den zweiten Hauptsatz auch als Entropiesatz und definiert, dass "die Entropie S eines abgeschlossenen thermodynamischen Systems stets danach strebt, einen Maximalwert einzunehmen, der im vollständigen thermodynamischen Gleichgewicht erreicht wird. Ist also zu irgendeinem Zeitpunkt die Entropie eines Systems von ihrem Maximalwert verschieden, so nimmt sie in den folgenden Zeitpunkten zu oder bleibt im Grenzfall konstant." Daraus folgt dann: "Ist also zu irgendeinem Zeitpunkt die Entropie eines Systems von ihrem Maximalwert verschieden, so nimmt sie in den folgenden Zeitpunkten zu oder bleibt im Grenzfall konstant." In: Spektrum Lexikon der Physik. Dort der Artikel "Zweiter Hauptsatz der Thermodynamik". Abgerufen am 30. Januar 2024. Online: https://www.spektrum.de/lexikon/physik/zweiter-hauptsatz-der-thermodynamik/15949
- [7] Das Spektrum Lexikon der Physik listet explizit als Beispiele für extensive Größen auf: "Masse, Stoffmenge, Volumen, innere Energie, Entropie" In: Spektrum Lexikon der Physik. Abgerufen am 30. Januar 2024. Online: https://www.spektrum.de/lexikon/physik/extensive-groesse/4656
- [8] Martin Buchholz: Energie - wie verschwendet man etwas, das nicht weniger werden kann? Springer-Verlag Berlin Heidelberg. Zweite erweiterte und korrigierte Auflage von 2019. ISBN: 978-3-662-56772-2.
- [9] Martin Buchholz und andere: Thermo verstehen. Internet-Erklär-Seite. Abgerufen am 30. Januar 2024. Online: https://www.thermo-bestehen.de/entropie
- [10] Erwin Schrödinger sieht Leben in enger Verbindung mit niedriger Entropie: "Der Kunstgriff, mittels dessen ein Organismus sich stationär auf einer ziemlich hohen Ordnungsstufe (einer ziemlich tiefen Entropiestufe) hält, besteht in Wirklichkeit aus einem fortwährenden »Aufsaugen« von Ordnung aus seiner Umwelt." Schrödinger erklärt diese Aussage auch mathematisch-physikalisch über die Formel "-(Entropie) = k·log(1/D)". In: Erwin Schrödinger: Was ist Leben?: Die lebende Zelle mit den Augen des Physikers betrachtet. R. Piper GmbH & Co. KG, München 1987. ISBN: 3-492-11134-3. Dort die Seite 106. Siehe auch Leben ↗
- [11] Die Entropie ist keine Erhaltungsgröße: "Findet in einem abgeschlossenen System ein irreversibler Vorgang statt, so nimmt die Entropie S dieses Systems immer zu; sie nimmt niemals ab." Und: "Die Entropie unterscheidet sich von der Energie in der Hinsicht, dass sie keinem Erhaltungssatz genügt." In: David Halliday, Robert Resnick, Jearl Walker: Halliday. Physik. Englischer Originaltitel: Fundamentals of Physics. Wiley-VCH Weinheim. 2007. ISBN: 978-3-527-40746-0. Dort die Seite 454.
- [12] Zwei äquivalente Definitionen der Änderung von Entropie: "Es gibt zwei äquivalente Möglichkeiten, die Entropieänderung eines Sstems zu definieren: (1) durch die Temperatur des Systems und die von dem System aufgenommene oder abgegebene Wärmeenergie, und (2) durch ein Abzählen aller Möglichkeiten, in der sich die Atome oder Moleküle eines Systems anordnen können." Zu dieser Definition sei die Frage angemerkt, ob Entropie nur für Systeme aus Atomen oder Molekülen definiert ist oder etwa auch eine Menge von Photonen oder Teilchen in einem Plasma eine Entropie haben. In: David Halliday, Robert Resnick, Jearl Walker: Halliday. Physik. Englischer Originaltitel: Fundamentals of Physics. Wiley-VCH Weinheim. 2007. ISBN: 978-3-527-40746-0. Dort die Seite 454.
- [13] Die Äquvialenz der zwei Defintionen von Entrophie behandelt auch das Höfling Schulbuch der Physik: "Es soll abschließend noch gezeigt weden, daß die im vorhergenden Abschnitt eingeführte und ganz anders definierte Größe ΔS=k·lnw mit der hier gefundenen Größe ΔS=Q/T identisch ist, sodass die Verwendung des gleichen Formelzeichens ΔS gerechtfertigt ist." Der Herleitung beginnt mit der Gleichsetzung ΔS = k·lnw=v·R·ln(V₂/V₃)." Durch Änderungen der Bezeichnungen Q₁, T₁, V₁, V₂ in Q, T, V₃, V₂" ergibt sich die "Gleichung Q/T=v·R·ln(V₂/V₃)". In: Oskar Höfling: Physik. Lehrbuch für Unterricht und Selbststudium. Fünfzehnte Auflage. 1994. ISBN: 3-427-41045-5. Dort die Seite 378.
- [14] "Die Entropie im gesamten Weltgeschehen wächst beständig" Und: "Die Entropie ist die physikalische Größe, die für die einseitige Richtung der Naturvorgänge entscheidend ist." Sowie:"Der Entropiebegriff steht in bezug auf seine umfassende Bedeutung dem Energiebegriff nicht nach. Die Entropiezunahme ist letzten Endes der Motor allen Geschehens, soweit es sich um periodische Wiederholungen stets gleicher Vorgänge handelt." In: Oskar Höfling: Physik. Lehrbuch für Unterricht und Selbststudium. Fünfzehnte Auflage. 1994. ISBN: 3-427-41045-5. Dort die Seite 379 und 380. Siehe auch Weltprozess ↗
- [15] Das Metzler Schulbuch der Physik definiert die Änderung der Entropie als: "ΔS=Qᵣₑᵥ/T ist die Änderung der Entropie S zweier Zustände. Sie wird bestimmt durch den Quotienten aus der Wärmeenergie Qᵣₑᵥ und der absoluten Temperatur T bei der die Wärmeenergie reversibel zu- oder abgeführt wird." Und: "Die Wärmeenergie Qᵣₑᵥ trägt den Index reversibel, da zurBerechnung reversible Zustandsänderungen verwendet wruden." In: Metzler Physik. 5. Auflage. 592 Seiten. Westermann Verlag. 2022. ISBN: 978-3-14-100100-6. Dort die Seite 170.
- [16] Eine detaillierte und vollständige Messung über einen Zeitraum von 4 Minuten mit Temperaturen, die für jeweils 30 Sekunden gemittelt wurden, ergab bei einer Erhitzung von 293 K bis auf 327 K eine Zunahme der Entropie um 464,6 J/K. In: Metzler Physik. 5. Auflage. 592 Seiten. Westermann Verlag. 2022. ISBN: 978-3-14-100100-6. Dort die Seite 171.
- [16] "Entropie is a measure of the unvavailability of a given energy." In: Tor Norretranders: The User Illusion. Penguin Books. Erstveröffentlichung 1991. ISBN: 0 14 02 3012 2 (Taschenbuch). Dort die Seite 16.
- [17] Eine ausführliche Beschreibung von Boltzmanns Theorie der Mikro- und Makrozustände zur Definition der Entropie steht in: Tor Norretranders: The User Illusion. Penguin Books. Erstveröffentlichung 1991. ISBN: 0 14 02 3012 2 (Taschenbuch). Dort vor allem die Seiten 32 bis 35.
- [18] Es ist mir [6] seit dem Beginn meines Ingenieurstudiums im Jahr 1992 bis heute unklar geblieben, wie man die Anzahl der Mikrozustände zählt, die zu einem Makrozustand gehören. Das Problem tritt auf, wenn man als Zustand eine kontinuierliche Größe wie etwa die Geschwindigkeit zulässt. Wenn man erlaubt, dass ein Teilchen zwischen zum Beispiel der Geschwindigkeit 300 m/s (Meter pro Sekunde) und 310 m/s unendlich viele Zwischengeschwindigkeiten einnehmen kann, dann hat bereits ein System aus nur wenigen Teilchen eine unendlich große Anzahl möglicher Verteilungen der Geschwindigkeiten auf die Einzelteilchen. Ludwig Boltzmann erwähnt schreibt wörtlich "Die Zahl der verschiedenen Geschwindigkeiten dagegen, deren jedes Molekül fähig ist, muss
- [19] Ludwig Boltzmann: Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht. In: Sitzungsber. d. k. Akad. der Wissenschaften zu Wien II 76, S. 428 (1877). Nachdruck in Wissenschaftliche Abhandlungen von Ludwig Boltzmann, Band II., S. 164–223.
- [20] Boltzmann Ausgangsgedanke hin zum Entropie-Begriff: ""Es ist klar dass jede einzelne gleichförmige Zustandsvertheilung, welche bei einem bestimmten Anfangszustande nach Verlauf einer bestimmten Zeit entsteht, ebenso unwahrscheinlich ist, wie eine einzelne noch so ungleichförmige Zustandsvertheilung, grade so wie im Lottospiele jede einzelne Quinterne ebenso unwahrscheinlich ist, wie die quinterne 12345. Nur daher, dass es weit mehr gleichförmige als ungleichförmige Zustandsvertheilungen gibt, stammt die grössere Wahrscheinlichkeit, dass die Zustandsvertheilung mit der Zeit gleichförmig wird. Ferner: Man könnte sogar aus dem Verhältnisse der Zahl der verschiedenen Zustandsbertheilungen deren Wahrscheinlichkeit berechnen, was vielleicht zu einer interessanten Methode der Berechnung des Wärmegleichgewichtes führen wurde. Es ist also damit ausgesprochen, dass man den Zustand des Wärmegleichgewichtes dadurch berechnen kann, dass man die Wahrscheinlichkeit der verschiedenen möglichen Zustände des Systems aufsucht. Der Anfangszustand wird in den meisten Fällen ein sehr unwahrscheinlicher sein, von ihm wird das System immer wahrscheinlicheren Zuständen zueilen, bis es ehdlich den wahrscheinlichsten, d. h. den des Wärmegleichgewichtes, erreicht hat. Wenden wir dies auf den zweiten Hauptsatz an, so können wir diejenige Grösse, welche man gewöhnlich als die Entropie zu bezeichnen pflegt, mit der Wahrscheinlichkeit, des betreffenden Zustandes identifizieren." In: Ludwig Boltzmann: Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht. In: Sitzungsber. d. k. Akad. der Wissenschaften zu Wien II 76, S. 428 (1877). Nachdruck in Wissenschaftliche Abhandlungen von Ludwig Boltzmann, Band II., S. 164–223.
- [21] Boltzmanns Wand-Gleichnis: "Denken wir uns ein System von Körpern, welche für sich isoliert und nicht mit andern Körpern in Wechselwirkung sind, z. b. einen Körper von höherer und einen von niedererer Temperatur und einen sogenannten Zwischenkörper welcher die Wärmeübertragung zwischen beiden vermittelt, oder um ein anderes beispiel zu wählen, ein Gefäss mit absolut glatten und starren Wänden, dessen eine Hälfte mit Luft von geringerer Temperatur oder Spannung, dessen andere Hälfte mit Luft von höherer Temperatur oder Spannung erfüllt ist." In: Ludwig Boltzmann: Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht. In: Sitzungsber. d. k. Akad. der Wissenschaften zu Wien II 76, S. 428 (1877). Nachdruck in Wissenschaftliche Abhandlungen von Ludwig Boltzmann, Band II., S. 164–223.
- [22] Ludwig Boltzmann zum Abzählen der Mikrozustände: "Die Zahl der verschiedenen Geschwindigkeiten dagegen, deren jedes Molekül fähig ist, muss als mathematisch unendlich gross gedacht werden." Und das erschwert die Betrachtung: "Da namentlich der letztere Umstand die Rechnung sehr erschwert, so will ich im ersten Abschnitte dieser Abhandlung behufs leichteren Verständnisses des Folgenden den Grenzübergang in einer Weise bewerkstelligen, wie ich es schon in frueheren Abhandlungen öfters gethan habe […] Wir wollen zunächst annehmen, jedes Molekül sei nur im Stande, eine bestimmte endliche Anzahl von Geschwindigkeiten anzunehmen". Eine Lösung liefert Boltzmann im Kapitel " Die lebendigen Kräfte gehen continuirlich in einander über". Diese Lösung ist jedoch mathematisch sehr anspruchsvoll (Differentiale, Mehrfachintegrale). In: Ludwig Boltzmann: Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht. In: Sitzungsber. d. k. Akad. der Wissenschaften zu Wien II 76, S. 428 (1877). Nachdruck in Wissenschaftliche Abhandlungen von Ludwig Boltzmann, Band II., S. 164–223.
- [23] "Ein durch viele Beispiele belegbarer Erfahrungssatz ist: Alle natürlichen Vorgänge verlaufen so, dass ein Zustand erreicht wird, in dem Materie und Energie möglichst gleichmäßig über den zur Verfügung stehenden Raum verteilt sind." In: Metzler Physik. 5. Auflage. 592 Seiten. Westermann Verlag. 2022. ISBN: 978-3-14-100100-6. Dort die Seite 174.
- [24] "Läuft in einem System ein Prozess von einem Zustand 1 zu einem Zustand 2 ab, dessen Wahrscheinlichkeit größer ist, so nimmt dabei die Entropie des Systems zu. In einem abgeschlossenen System laufen so lange Vorgänge von alleine ab, bis sich der wahrscheinlichste Zustand eingestellt, d. h., bis die Entropie ein Maximum erreicht hat." Dabei ist die "Wahrscheinlichkeit w einer bestimmten Verteilung der Teilchen in einem System" definiert als "Quotient aus der Anzahl n der zu dieser Verteilung gehörigen günstigen Fälle und der Anzahl N der überhaupt möglichen Fälle: w=n/N." In: Metzler Physik. 5. Auflage. 592 Seiten. Westermann Verlag. 2022. ISBN: 978-3-14-100100-6. Dort die Seite 174.
- [25] Die Entropie als extensive Größe: "Die Entropie ist eine additive Eigenschaft, d. h. wir berechnen die Entropie eines Systems von Körpern als die Summe der einzelnen Entropien." In: Franz Serafin Exner: Vorlesungen über die physikalischen Grundlagen der Naturwissenschaften. Deuticke, Wien 1919, OBV. Dort die 22te Vorlesung "Grenzen des II Hauptsatzes, Entropie und Wahrscheinlichkeit". Das Zitat steht auf Seite 171.
- [26] Die Entropie eines Körpers kann nicht angegeben werden, nur Veränderungen: "Wir kennen den absoluten Wert der Entropie eines Körpers nicht. Was wir bestimmen können, das sind immer nur die Veränderungen, welche diese Funktion erleidet und wir sprechen von Differenzen in der Entropie ganz im selben Sinne wie von Niveaudifferenzen bei der Bewegung von Massen im Schwerefeld der Erde, wo wir auch die absoluten Niveaus von einem willkürlichen Nullpunkte an zählen können, um dessen Lage wir uns aber gar nicht weiter kümmern, da es immer nur auf die Veränderungen im Niveau ankommt. Ebenso fragen wir auch nicht nach dem absoluten Betrage der Entropie, sondern nur nach deren Variationen." In: Franz Serafin Exner: Vorlesungen über die physikalischen Grundlagen der Naturwissenschaften. Deuticke, Wien 1919, OBV. Dort die 22te Vorlesung "Grenzen des II Hauptsatzes, Entropie und Wahrscheinlichkeit". Das Zitat steht auf Seite 170.
- [27] Der Systemtheoretiker Valentin Turchin sieht eine zentralle Rolle von Entropie in der Definition von Leben: "This low of energy where it enters
- [28] Entropie im Sinne der Informationstheorie ist behandelt in: C. E. Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Band 27, Nr. 3, 1948, S. 379–423, doi:10.1002/j.1538-7305.1948.tb01338.x