Subject: Entropia & disordine
From: Giorgio Pastore 
Date: 09/01/2000
Newsgroups: it.scienza.fisica
Proprio in questi giorni sto finendo di rileggere il bellissimo libro di H.B. Callen "Termodynamics and an introduction to Thermostatistics" nella seconda edizione (Wiley, NY, 1985). A suo tempo avevo studiato la termodinamica sulla prima edizione e l' avevo trovato in assoluto il miglior testo di approfondimento sull' argomento. (Infinitamente meglio di tutti i Fermi e Zemansky che continuano ad imperversare nelle aule universitarie, IMHO).

Nella seconda edizione ho scoperto nel capitolo 17 (chissà, forse c'era anche nella prima ma non lo ricordo) una lucidissima esposizione dell' ambito tecnico in cui è lecito identificare entropia e disordine.

Viste le discussioni che si stanno svolgendo su un paio di threads, penso di fare cosa utile riportando un sunto dei punti rilevanti.

  1. Il concetto di ordine (e la sua negazione, il disordine) è apparentemente familiare a tutti. Per esempio, una successione di lettere è generalmente riconosciuta come ordinata se corrisponde ad una parola elencata sul dizionario. Lettere disordinate fanno pensare ad una scimmia che preme a caso i tasti di un sistema di scrittura. Tuttavia, un testo apparentemente disordinato o casuale secondo il linguaggio ordinario, potrebbe essere il risultato di una codifica di un messaggio perfettamente "ordinato". Gli esempi potrebbero continuare ma il punto chiave è che ordine o disordine sono concetti vaghi finché non si dice secondo quale criterio. I criteri però possono essere diversi ed anche contrastanti.

  2. Occorre perciò definire bene il tipo di ordine a cui siamo interessati dal punto di vista della termodinamica statistica. Di fatto quello che è possibile fare in meccanica statistica è di definire il grado di disordine nella distribuzione del sistema tra i possibili microstati.

  3. Avendo così ristretto il senso della parola ordine (disordine), possiamo, dal punto di vista tecnico, introdurre una misura del disordine di questa distribuzione mediante lo stesso formalismo sviluppato da Shannon per la teoria dell' informazione.

  4. Come è stato dimostrato da Khinchin, poche richieste ragionevoli su questa misura del disordine in termini della distribuzione di frequenze tra microstati, fj, permettono di arrivare ad una formula per il "disordine":

    "disordine" = -k Sj fj log fj

    dove k è una costante positiva. Questo "disordine" è massimo per microstati equiprobabili. In tal caso vale:

    "disordine" = k log W

    con W = numero di microstati.

Quindi, conclude Callen, "Per un sistema chiuso, l' entropia corrisponde alla misura quantitativa di Shannon del massimo possibile disordine nella distribuzione del sistema sui possibili microstati".

Qui finisco il riassunto-citazione ed aggiungo solo due commenti:

a) entropia = disordine sì, ma solo nel senso tecnico di misura del numero dei microstati accessibili al sistema isolato.

b) entropia = disordine no, se pensiamo all' ordine "macroscopico" del sistema (quello che tecnicamente si potrebbe chiamare la comparsa di un parametro d' ordine diverso da zero). Il motivo per questo è nella gran quantità di controesempi che si possono trovare appena si va al di là dei soliti gas ideali.

Giorgio Pastore

[Un interessante articolo al riguardo si trova su http://simu.ulb.ac.be/newsletters/N3I.pdf. Utile anche la pagina Entropy in the Physical Sciences ES]