Entropia

Z Wikipedii, wolnej encyklopedii
Rozmowa z prof. Robertem Hołystem. Podcast z serii Nauka XXI wieku

Entropia (s lub S[a]) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu[2][3] i rozproszenia energii[4]. Jest wielkością ekstensywną[b]. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do innego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.

W termodynamice klasycznej[edytuj | edytuj kod]

W ramach II zasady termodynamiki zmiana entropii (w procesach kwazistatycznych) jest zdefiniowana przez swoją różniczkę zupełną jako:

gdzie:

temperatura bezwzględna,
ciepło elementarne, czyli niewielka ilość ciepła dostarczona do układu (wyrażenie Pfaffa).

Entropię pewnego stanu termodynamicznego można wyznaczyć ze wzoru:

gdzie:

pojemność cieplna,
– temperatura w stanie

Podstawowe równanie termodynamiki fenomenologicznej, w którym występuje entropia, ma postać

gdzie:

energia wewnętrzna,
– liczba różnych składników,
temperatura
ciśnienie
potencjał chemiczny i-tego składnika

W termodynamice statystycznej[edytuj | edytuj kod]

Całkowita entropia układu makroskopowego jest równa[5]:

  • entropii Boltzmanna–Plancka[6]:

równoważnie:

  • entropii Gibbsa[7]:

gdzie:

stała Boltzmanna,
– liczba sposobów, na jakie makroskopowy stan termodynamiczny układu (makrostan) może być zrealizowany poprzez stany mikroskopowe (mikrostany),
– prawdopodobieństwo i-tego mikrostanu.

Zatem

jest liczbą bitów potrzebnych do pełnego określenia, którą realizację przyjął dany układ.

Praktyczne obliczenie W jest w większości przypadków technicznie niemożliwe, można jednak oszacowywać całkowitą entropię układów poprzez wyznaczenie ich całkowitej pojemności cieplnej poczynając od temperatury 0 K do aktualnej temperatury układu i podzielenie jej przez temperaturę układu.

Ciało pozbawione niedoskonałości, zwane kryształem doskonałym, ma w temperaturze 0 bezwzględnego (0 K) entropię równą 0, gdyż jego stan może być zrealizowany tylko na jeden sposób (każda cząsteczka wykonuje drgania zerowe i zajmuje miejsce o najmniejszej energii). Jest to jedno ze sformułowań trzeciej zasady termodynamiki. Oznacza to, że każde rzeczywiste ciało ma w temperaturze większej od zera bezwzględnego entropię większą od zera.

Aspekt fizyczny[edytuj | edytuj kod]

Carnot zaproponował, że ciepło musi być zawsze tracone, aby silnik cieplny mógł wykonywać swoją pracę, ale nie okreśił ilościowo straty ciepła. Rudolf Clausius w swoim artykule „On the Moving Force of Heat, and the Laws regarding the Nature of Heat itself which are deducible therefrom” z 1851 roku potwierdził dwie teorie:[8]

  • energia wewnętrzna jest zachowana (pierwsza zasada termodynamiki), określona jako
  • ciepło przepływa w sposób naturalny z ciała cieplejszego do chłodniejszego (bez określenia ilościowego)

Po przedstawieniu cyklu Carnota rozszerzonego o trzecie ciało (gaz doskonały), które odpowiada za transport ciepła pomiędzy dwoma zbiornikami, Clausius zauważył, że w przypadku silników odwracalnych iloraz ciepła dostarczonego do odprowadzonego było stale równe ilorazowi temperatur bezwzględnych cieplejszego i chłodniejszego zbiornika:

co po przekształceniu dało:

Clausius następnie zbadał silniki nieodwracalne i stwierdził, że powyższa relacja nie zachodzi, np. gdy następuje przepływ ciepła z ciała o temperaturze do ciała o temperaturze , to:[8]

To oznacza, że dla procesu nieodwracalnego, iloraz ciepła do temperatury bezwzględnej wzrasta w kierunku naturalnego przepływu ciepła. W sumie, dla silnika cieplnego:

natomiast dla sekwencji procesów:

gdzie jest ilorazem ilości przesłanego ciepła w procesie do temperatury otoczenia, gdzie ciepło jest przesyłane.

Podsumowując, iloraz ilości ciepła do temperatury ma cechy właściwości, ponieważ nie zmienia się w cyklu, ale jest również związany z przekazywaniem ciepła.[8]

Clausius, nazwał ten iloraz „wartością równoważną”, zdefiniował także „przemianę równoważną” (taką, która może być zastąpiona przez inną bez żadnej innej trwałej zmiany).

Iloraz jest funkcją, która:

  • przy zamianie ciepła na pracę w temperaturze musi być proporcjonalna do ilości ciepła i zależeć od temperatury:
  • przy przepływie ciepła między ciałami o temperaturach i musi być proporcjonalna do ilości przekazanego ciepła i zależeć od obu temperatur:

Po serii obliczeń i przekształceń, Clausius otrzymał równość i na podstawie równości postanowił wprowadzić za funkcję

Wtedy zamiana ciepła o temperaturze T na pracę ma wartość równoważną a przepływ ciepła między ciałami o temperaturach i ma wartość równoważną

W 1865 Clausius nazwał „wartość równoważną” entropią i wybrał dla niej symbol

Istnienie oraz postać funkcji stanu zwanej entropią wynika właśnie wprost z równania opisującego cykl Carnota:

Fakt ten wyróżnia w jakiś sposób wielkość W cyklu pracy silników odwracalnych ciepło w temperaturze jest równoważne ciepłu w temperaturze jest pochłaniane, a wydzielane. Ta sama ilość wielkości zostaje pochłonięta, co wydzielona (nie ma ani straty, ani zysku).

Suma algebraiczna wartości przy przemianie odwracalnej jest równa zero. Gdy mamy do czynienia z procesem cyklicznym, to:

W przypadku procesu nieodwracalnego, wystąpi przepływ ciepła z ciała o temperaturze do ciała o temperaturze Wtedy entropia układu zmieni się o:

Z faktu, że wynika Gdy proces nieodwracalny jest cykliczny, to

Aspekt matematyczny[edytuj | edytuj kod]

Entropia jest funkcją stanu, to znaczy, że jej wartość zależy wyłącznie od stanu układu (od aktualnych wartości jego parametrów). Zmiana funkcji stanu nie zależy od drogi, lecz jedynie od stanu początkowego i końcowego układu. Z punktu widzenia matematycznego różniczka entropii jest różniczką zupełną i wynik jej całkowania nie zależy od drogi całkowania. Z pierwszej zasady dynamiki:

podstawiając oraz otrzymujemy różniczkę ciepła:

Możemy stwierdzić, że różniczka ciepła nie jest różniczką zupełną, gdyż:

Poszukujemy zatem czynnika całkującego, aby:

co po uproszczeniach daje:

Rozwiązując to równanie różniczkowe zwyczajne, otrzymujemy:

Wtedy jest różniczką zupełną, a zatem jest funkcją stanu.

Ponadto, z równania opisującego cykl Carnota stosując drugą zasadę termodynamiki w formie Kelvina-Plancka: wynika, że:

W przypadku, gdy wszystkie przemiany są odwracalne, to:

Na tej podstawie można wykazać, że entropia w procesie przeprowadzającym układ od stanu 1 do stanu 2 wynosi:

Natomiast w przypadku procesu odwracalnego zachodzi równość.

Jeśli układ jest izolowany, to (entropia wtedy nie maleje). Oznacz to, że układ jest w stanie 2 później niż w stanie 1 (entropia rośnie, ponieważ czas płynie naprzód)[9].

Entropia czarnej dziury[edytuj | edytuj kod]

W ogólnej teorii względności, aby opisać czarną dziurę, wystarczy podać jej masę, moment pędu i ładunek elektryczny. Zgodnie z tą teorią czarna dziura nie zawiera żadnej informacji ponad te parametry. Potocznym językiem fizycznym „brak włosów” w pojęciu czarnej dziury oznacza, że jej entropia jest równa 0. Do czarnej dziury wpada materia o niezerowej entropii, zatem przy wpadaniu entropia całego układu się zmniejsza. Wynika z tego, że ogólna teoria względności łamie drugą zasadę termodynamiki. Fizycy zaczęli więc poszukiwać uogólnienia teorii czarnych dziur, tak żeby pozostawała w zgodzie z termodynamiką. Owocne okazało się rozważenie efektów kwantowych.

Wzór na entropię czarnej dziury powstał przy założeniu, że podczas spadania ciała do czarnej dziury jej masa rośnie wraz z jej entropią; proporcjonalny do masy jest horyzont zdarzeń, czyli promień Schwarzschilda. Ścisły wzór wg Stephena Hawkinga ma postać:

gdzie:

stała Boltzmanna,
– powierzchnia horyzontu zdarzeń czarnej dziury,
prędkość światła w próżni,
– zredukowana stała Plancka,
– stała grawitacyjna.

Kosmologia[edytuj | edytuj kod]

Według II zasady termodynamiki każdy układ izolowany dąży do stanu równowagi, w którym entropia osiąga maksimum. Zakładając, że Wszechświat jako całość jest układem izolowanym, powinien on również dążyć do równowagi. Wychodząc z tych założeń, Hermann von Helmholtz wysunął hipotezę śmierci cieplnej Wszechświata, według której Wszechświat w końcu dojdzie do równowagi termodynamicznej, w której niemożliwa będzie zamiana energii cieplnej na pracę, przez co niemożliwy będzie rozwój Wszechświata. Stwierdzenie tego faktu jest jednak stosunkowo trudne do zaobserwowania i dlatego prowadzi się liczne dyskusje, czy Wszechświat jest, czy nie jest układem izolowanym, czy też tylko zamkniętym, oraz czy rzeczywiście dąży jako całość do równowagi. Przeciwnicy tej koncepcji są zdania, że rozszerzającego się Wszechświata nie można traktować jako układu izolowanego, gdyż nie można wyznaczyć obszaru, z którego nie wychodziłoby promieniowanie. Wiadomo jedynie, że entropia olbrzymiej większości znanych układów izolowanych rośnie w kierunku, który nazywamy przyszłością. Tak więc, z tego punktu widzenia, termodynamika określa kierunek upływu czasu (tzw. termodynamiczna strzałka czasu).

Według Boltzmanna aktualna entropia Wszechświata jest jeszcze bardzo niska, w porównaniu z wartością „docelową”, na co dowodem miały być wysokie wartości fluktuacji statystycznych zjawisk obserwowanych w skali kosmosu – np. bardzo nierównomierne rozmieszczenie gwiazd w przestrzeni. Współcześnie taka interpretacja entropii jest jednak uważana za całkowicie nieuprawnioną z kosmologicznego punktu widzenia.

Powiązania z innymi naukami[edytuj | edytuj kod]

Z punktu widzenia fizycznego każdy proces ekonomiczny również ma charakter jednokierunkowego wzrostu entropii, sporadycznie formułowano teorie o ekwiwalentności pieniądza i niskiej entropii (G. Helm, J. Lotka[10]).

Zobacz też[edytuj | edytuj kod]

Uwagi[edytuj | edytuj kod]

  1. Małą literę stosuje się w ujęciu ogólnym, dużą dla wielkości molowej[1].
  2. W opisie układów dalekich od stanu równowagi, klasyczna (ekstensywna) termodynamika zawodzi. Próby jej rozszerzenia, w oparciu o teorie Rényi’ego i Tsallisa wymagają bardziej ogólnej definicji entropii. Entropie Rényi’ego i Tsallisa są w ogólności nieekstensywne; obejmująca je dziedzina badań nosi nazwę termodynamiki nieekstensywnej.

Przypisy[edytuj | edytuj kod]

  1. Witold Tomassi, Helena Jankowska: Chemia fizyczna. Warszawa: Wydawnictwa Naukowo-Techniczne, 1980, s. 29. ISBN 83-204-0179-8.
  2. F. Reif, Fizyka statystyczna, PWN, Warszawa 1973, s. 171.
  3. Entropia, [w:] Encyklopedia PWN [dostęp 2021-07-30].
  4. Heller i Pabjan 2014 ↓, s. 68–70.
  5. Heller i Pabjan 2014 ↓, s. 70.
  6. Boltzmanna–Plancka entropia, [w:] Encyklopedia PWN [dostęp 2020-02-27].
  7. Gibbsa entropia, [w:] Encyklopedia PWN [dostęp 2020-02-27].
  8. a b c CLAUSIUS INEQUALITY AND ENTROPY. [dostęp 2024-03-08].
  9. Joseph M. Powers: Lecture Notes on Thermodynamics. Indiana: Department of Aerospace and Mechanical Engineering. University of Notre Dame., 2023, s. 213–245.
  10. Nicholas Georgescu-Roegen: Entropia, wartość i rozwój. W: Ponad ekonomią. Warszawa: PIW, 1985, s. 363. ISBN 83-06-01042-6.

Bibliografia[edytuj | edytuj kod]

Linki zewnętrzne[edytuj | edytuj kod]

Polskojęzyczne
Anglojęzyczne