Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

vettore di poynting ed entropia

46 views
Skip to first unread message

Federico

unread,
Dec 30, 2008, 3:22:18 PM12/30/08
to
Si dice che il vettore di Poynting rappresenta l'energia che un' onda
elettromagnetica trasporta attraverso l'elemento di area nell'unita' di
tempo. Ma l'onda trasporta anche entropia ? Ed, eventualmente, c'entra
con il vettore di poynting ? buonasera. Federico.

Enrico SMARGIASSI

unread,
Jan 5, 2009, 3:43:01 AM1/5/09
to
Federico wrote:

> Ma l'onda trasporta anche entropia ?

Be', qualunque scambio di energia, nelle condizioni giuste, altera
l'entropia dei corpi che tale entropia si scambiano: dS=dQ/T. Quindi
puo' farlo anche la radiazione elettromagnetica. Se prendi un corpo
freddo e lo riscaldi ponendolo davanti ad una stufa elettrica stai
aumentandone l'entropia, e la causa e' proprio (trascurando effetti di
conduzione e convezione) l'assorbimento di radiazione.

Elio Fabri

unread,
Jan 5, 2009, 2:51:26 PM1/5/09
to
Federico ha scritto:

Enrico SMARGIASSI ha scritto:


> Be', qualunque scambio di energia, nelle condizioni giuste, altera
> l'entropia dei corpi che tale entropia si scambiano: dS=dQ/T. Quindi
> puo' farlo anche la radiazione elettromagnetica. Se prendi un corpo
> freddo e lo riscaldi ponendolo davanti ad una stufa elettrica stai
> aumentandone l'entropia, e la causa e' proprio (trascurando effetti di
> conduzione e convezione) l'assorbimento di radiazione.

Io direi che la cosa e' un po' piu' complessa: in dS=dQ/T (dove
accetto il dQ solo "pro bono pacis" :-) ) che cosa e' T?

Come sappiamo, il problema esiste anche nel caso semplice del contatto
termico tra corpi a temp. diversa, e io non so se Federico ha chiaro
questo.
Detto velocemente, se si ha contatto termico tra corpi a temp. diverse
siamo in presenza di un processo irreversibile, in cui si ha
necessariamente _produzione di entropia_.
Quindi il corpo che riceve il calore acquista piu' entropia di quanta
ne perda quello che lo cede.

Tornando alla radiazione, la domanda mi pare che sia: si puo'
associare un'entropia a una rad. e.m. che si propaga?
La risposta e' si', ma il calcolo richiede la conoscenza della
distribuzione spettrale e spaziale della raidazione.
A rigore solo una radiazione nera ha una temp. definita, e quindi le
puoi associare un'entropia pari a E/T, dove E e' l'energia
trasportata e T la temperatura.
Esempio: la radiazione che ci arriva dal Sole ha (appross.) una temp.
di 5700 K.

In casi diversi la situazione si complica: per es. una rad.
monocromatica e collimata ha entropia nulla, e infatti in linea di
principio la puoi trasformare integralmente in lavoro meccanico.

Tornando all'esempio del Sole, e' ovvio che se la usi per scaldare un
corpo poniamo a T0 = 300 K, questo corpo accrescera' la sua entropia
di E/T0, che e' molto di piu' dell'entropia posseduta dalla radiazione.
E infatti questo e' un modo poco intelligente di usare la luce solare.

La cosa ha grande importanza per il mantenimento della vita sulla
Terra: infatti sebbene il bilnacio energetico della Terra si ain media
nullo, tra energia ricevuta dal Sole ed energia riemessa nello spazio,
tuttavia lo stesso non vale per l'entropia.
L'entropia ricevuta e' molto minore di quella riemessa, e cio'
permette la sussistenza di processi irreversibili (che quindi creano
entropia) legati ai fenomeni vitali.
O meglio: permette che si mantengano condizioni di non equilibrio,
contro la tendenza verso l'equilibrio che comporterebbe u continuo
aumento di entropia.

--
Elio Fabri

argo

unread,
Jan 4, 2009, 5:46:06 PM1/4/09
to

Domanda interessante.
Pero' non parlei di 'onda' ma di campo elettromagnetico o in forma del
tutto generale
di tensore energia-impulso T_{mu nu}
(il vettore di Poynting ne costituisce le componneti T_{0i} per i=/=0
nel caso di un campo elettromagnetico.
T_{00} e' la densita' di energia).
Chiamerei densita' di entropia (in realta' non io, ho letto alcuni
lavori di Fridan su questioni lontanamente correlate, in particolare
chi fosse interessato alla questione in ambito quantistico e/o al
flusso di entropia nei quantum wires, puo' guardare cond-mat/0505084)
l
a quantita'
s=k\beta[T_{00}-<T_{00}>] e
J_{i}=k\beta T_{0i} la densita' di corrente di entropia, proporzionale
al vettore di Poynting nel caso di un campo elettromagnetico.
Con <T_{00}> ho indicato il valore all'equilibrio alla temperatura
inversa beta=1/kT.
Non ne so praticamente nient'altro.

Federico

unread,
Jan 5, 2009, 5:06:43 AM1/5/09
to
Cerco di capire: se un'onda elettromagnetica incide su un corpo e ne
viene (completamente, diciamo, per semplicita') assorbita ne innalza la
temperatura, a prescindere dalla eventuale polarizzazione dell'onda.

Pero' e' difficile rinunciare all'idea che a radiazione polarizzata sia
associata un'entropia minore di quella di un suo omologo non polarizzata.

Se ne deve concludere che l'informazione relativa allo stato di
polarizzazione dei fotoni incidenti viene conservata nei moti
microscopici dei costituenti del corpo, di modo che nel caso di luce
polarizzata risultino meno "casuali" rispetto al caso della radiazione
non polarizzata ?

ciao ciao

P.S. Adesso che ci ripenso, sono sicuro di avere letto di una
caratterizzazione del corpo nero ideale come l'emettitore che, ad una
data temperatura, produce radiazione con la massima entropia. Pero'
era su una rivista online che non riesco a rintracciare.

Soviet_Mario

unread,
Jan 5, 2009, 7:43:05 PM1/5/09
to
Elio Fabri ha scritto:
CUT ALL

> Io direi che la cosa e' un po' piu' complessa: in dS=dQ/T (dove
> accetto il dQ solo "pro bono pacis" :-) ) che cosa e' T?
>
> Come sappiamo, il problema esiste anche nel caso semplice del contatto
> termico tra corpi a temp. diversa, e io non so se Federico ha chiaro
> questo.
> Detto velocemente, se si ha contatto termico tra corpi a temp. diverse
> siamo in presenza di un processo irreversibile, in cui si ha
> necessariamente _produzione di entropia_.
> Quindi il corpo che riceve il calore acquista piu' entropia di quanta
> ne perda quello che lo cede.
>
> Tornando alla radiazione, la domanda mi pare che sia: si puo'
> associare un'entropia a una rad. e.m. che si propaga?
> La risposta e' si', ma il calcolo richiede la conoscenza della
> distribuzione spettrale e spaziale della raidazione.

il discorso spaziale non riesco a capirlo senza ulteriori
dati (poi magari nemmeno con, eh ... mah)

> A rigore solo una radiazione nera ha una temp. definita, e quindi le
> puoi associare un'entropia pari a E/T, dove E e' l'energia
> trasportata e T la temperatura.
> Esempio: la radiazione che ci arriva dal Sole ha (appross.) una temp.
> di 5700 K.
>
> In casi diversi la situazione si complica: per es. una rad.
> monocromatica e collimata ha entropia nulla, e infatti in linea di
> principio la puoi trasformare integralmente in lavoro meccanico.
>
> Tornando all'esempio del Sole, e' ovvio che se la usi per scaldare un
> corpo poniamo a T0 = 300 K, questo corpo accrescera' la sua entropia
> di E/T0, che e' molto di piu' dell'entropia posseduta dalla radiazione.
> E infatti questo e' un modo poco intelligente di usare la luce solare.
>
> La cosa ha grande importanza per il mantenimento della vita sulla
> Terra: infatti sebbene il bilnacio energetico della Terra si ain media
> nullo, tra energia ricevuta dal Sole ed energia riemessa nello spazio,
> tuttavia lo stesso non vale per l'entropia.

osservazione stupefacente ! E la butti lě cosě come nulla
fosse ? Mi ha sconvolto. Non avevo mai pensato a questo
aspetto del problema.

> L'entropia ricevuta e' molto minore di quella riemessa, e cio'
> permette la sussistenza di processi irreversibili (che quindi creano
> entropia) legati ai fenomeni vitali.

Giustissimo. A pensarci a posteriori posso dire che avrei
avuto elementi per poterlo almeno sospettare (ad es. so
qualcosa dell'albedo e di termodinamica di base), ma non ho
mai intuito questo aspetto.

Per vedere se ho capito giusto : la terra irradia tanta
energia quanta ne riceve ma a distribuzione spettrale molto
piů fredda (quindi equivale a calore a bassa T, ossia piů
disordinato) ... E cosě smaltisce tutta l'entropia comunque
prodotta ivi generata.

In fondo non č molto diverso dall'avere una sorgente calda
(nel nostro caso con spettro ad "alta" frequenza) e una
sorgente fredda (nel caso, il cosmo, freddo), e quindi la
terra fa né piů né meno da macchina termica che attinge
dalla prima e scarica nell'altra, per chiudere ogni suo
"ciclo" interno.

> O meglio: permette che si mantengano condizioni di non equilibrio,
> contro la tendenza verso l'equilibrio che comporterebbe u continuo
> aumento di entropia.

ciao
Soviet_Mario

Federico

unread,
Jan 7, 2009, 4:25:37 PM1/7/09
to
> accetto il dQ solo "pro bono pacis" :-)
In che senso ?

> A rigore solo una radiazione nera ha una temp. definita, e quindi le
> puoi associare un'entropia pari a E/T

Vediamo se ho capito: la temperatura e' una grandezza che concorre a
parametrizzare stati di equilibrio, dunque niente equilibrio, niente
temperatura. Ad esempio, prendiamo radiazione avente spettro non termico
(es, proveniente da un sincrotrone) e gettiamola nella famosa cavita'
con forellino con cui si "approssima" un corpo nero ideale. Parte viene
assorbita dalle pareti e ne accresce la temperatura, parte rimane nella
cavita' dove, insieme a quella precedente, assume distribuzione
spettrale di corpo nero. Solo allora si puo' parlare di temperatura
della radiazione.

> In casi diversi la situazione si complica: per es. una rad.
> monocromatica e collimata ha entropia nulla

Non comprendo: questo ha attinenza con la formulazione del terzo
principio secondo cui nello stato a minima energia l'entropia ha un
valore ben definito che dipende solo dalla degenerazione dello stato
fondamentale ?

Tommaso Russo, Trieste

unread,
Jan 8, 2009, 10:16:18 AM1/8/09
to
Soviet_Mario ha scritto:
> Elio Fabri ha scritto:

>> La cosa ha grande importanza per il mantenimento della vita sulla
>> Terra: infatti sebbene il bilnacio energetico della Terra si ain media
>> nullo, tra energia ricevuta dal Sole ed energia riemessa nello spazio,
>> tuttavia lo stesso non vale per l'entropia.
>
> osservazione stupefacente ! E la butti lì così come nulla fosse ? Mi ha
> sconvolto. Non avevo mai pensato a questo aspetto del problema.

Non ci avevi mai pensato? E' un anello fondamentale (quello che spiega
l'origine ed il perpetuarsi della vita) della "catena riduzionista"
fisica - chimica - biologia - sistema nervoso - modello previsionale -
coscienza, indispensabile per una visione laica del "chi siamo e da dove
veniamo".

Googla "strutture dissipative Prigogine".

ciao

--
TRu-TS

Enrico SMARGIASSI

unread,
Jan 8, 2009, 1:56:41 PM1/8/09
to
Federico wrote:

> Se ne deve concludere che l'informazione relativa allo stato di polarizzazione dei fotoni incidenti
> viene conservata nei moti microscopici dei costituenti del corpo, di modo che nel caso di luce
> polarizzata risultino meno "casuali" rispetto al caso della radiazione non polarizzata ?

E perche' mai? Mi sembra che tu ragioni come se l'entropia dello stato
finale - il corpo riscaldato dalla luce - dipendesse da quella della
luce incidente. Non e' cosi': il processo di assorbimento e'
irreversibile e l'entropia del sistema comunque aumenta. Alla fine del
processo l'aumento di T, dunque l'aumento di S (ipotizzo non vi siano
altri effetti), dipende solo dall'energia totale ricevuta e non
dall'entropia del mezzo da cui arriva. Per esempio, nell'esperienza di
Joule l'aumento di T si ottiene tramite lo scendere di un peso collegato
ad un agitatore. Il sistema peso+agitatore, visto come sorgente di
energia potenziale gravitazionale, ha entropia nulla, ma questa energia
pot. grav. viene interamente trasformata in moto termico nel liquido che
viene agitato.

Elio Fabri

unread,
Jan 8, 2009, 3:29:34 PM1/8/09
to
argo ha scritto:

> Chiamerei densita' di entropia (in realta' non io, ho letto alcuni
> lavori di Fridan su questioni lontanamente correlate, in particolare
> chi fosse interessato alla questione in ambito quantistico e/o al
> flusso di entropia nei quantum wires, puo' guardare cond-mat/0505084)
> la quantita'

> s=k\beta[T_{00}-<T_{00}>] e
> J_{i}=k\beta T_{0i} la densita' di corrente di entropia, proporzionale
> al vettore di Poynting nel caso di un campo elettromagnetico.
> Con <T_{00}> ho indicato il valore all'equilibrio alla temperatura
> inversa beta=1/kT.
Forse non l'ho capita bene, ma questa definizione non mi convince.
Dato che T_{00} puo' essere maggiore o minore di <T_{00}>, ne
seguirebbe che la densita' di entropia puo' essere sia maggiore che
minore di quella della radiazione nera?
Secondo me potrebbe essere soltanto minore.

--
Elio Fabri

Elio Fabri

unread,
Jan 8, 2009, 3:30:21 PM1/8/09
to
Federico ha scritto:
> ...

> Pero' e' difficile rinunciare all'idea che a radiazione polarizzata
> sia associata un'entropia minore di quella di un suo omologo non
> polarizzata.
Hai ragione, anche se non ci avevo mai pensato...

> Se ne deve concludere che l'informazione relativa allo stato di
> polarizzazione dei fotoni incidenti viene conservata nei moti
> microscopici dei costituenti del corpo, di modo che nel caso di luce
> polarizzata risultino meno "casuali" rispetto al caso della radiazione
> non polarizzata ?

Ne dubito, almeno nel caso di assorbimento da un metallo.

Sarei portato a dire che se hai un insieme di n fotoni, tutti nello
stesso stato di plarizzazione, l'entropia differisce (in meno) da
quella dello stesso insieme non polarizzato per n*k*ln2.
Pero' c'e' qualcosa che mi lascia dubbioso...

> P.S. Adesso che ci ripenso, sono sicuro di avere letto di una
> caratterizzazione del corpo nero ideale come l'emettitore che, ad una
> data temperatura, produce radiazione con la massima entropia. Pero'
> era su una rivista online che non riesco a rintracciare.

Detto cosi' non mi e' tanto chiaro, e non sono sicuro che sia giusto.
Sicuramente la radiazione nera e' - a parita' di energia - quella che
ha la massima entropia.

Pero' qui si tocca una questione seria: si puo' parlare di entropia
per un sistema non in equilibrio?

Soviet_Mario ha scritto:


> il discorso spaziale non riesco a capirlo senza ulteriori
> dati (poi magari nemmeno con, eh ... mah)

Nemmeno io :-)
L'ho buttato li' senza pensarci, ma poi mi sono venuti dei dubbi.
Ma per spiegare i dubbi dovrei scrivere parecchio...

> osservazione stupefacente ! E la butti lě cosě come nulla


> fosse ? Mi ha sconvolto. Non avevo mai pensato a questo
> aspetto del problema.

Che vuoi farci? A me questo e' chiaro da qualche decennio :-)

> Giustissimo. A pensarci a posteriori posso dire che avrei avuto
> elementi per poterlo almeno sospettare (ad es. so qualcosa dell'albedo
> e di termodinamica di base), ma non ho mai intuito questo aspetto.

Lieto di avertici fatto pensare.
(Pero' guarda che "albedo" e' femminile :-)) )

> Per vedere se ho capito giusto : la terra irradia tanta energia quanta
> ne riceve ma a distribuzione spettrale molto piů fredda (quindi
> equivale a calore a bassa T, ossia piů disordinato) ... E cosě
> smaltisce tutta l'entropia comunque prodotta ivi generata.

Esattamente.

> In fondo non č molto diverso dall'avere una sorgente calda (nel nostro
> caso con spettro ad "alta" frequenza) e una sorgente fredda (nel caso,
> il cosmo, freddo), e quindi la terra fa né piů né meno da macchina
> termica che attinge dalla prima e scarica nell'altra, per chiudere
> ogni suo "ciclo" interno.

Non e' molto diverso, ma il bello e' che il tutto funziona con
processi a bassa temperatura.
Magie della chimica :-)

Federico ha scritto:


>> accetto il dQ solo "pro bono pacis" :-)
> In che senso ?

Eh eh...
Nel senso che "dQ" starebbe a indicare un differenziale esatto, il che
non e'.
Non si dovrebbe usare quel tipo di simbolo, ne' per il calore ne' per
il lavoro.

> Vediamo se ho capito: la temperatura e' una grandezza che concorre a
> parametrizzare stati di equilibrio, dunque niente equilibrio, niente
> temperatura.

> ...


> Solo allora si puo' parlare di temperatura della radiazione.

OK

> Non comprendo: questo ha attinenza con la formulazione del terzo
> principio secondo cui nello stato a minima energia l'entropia ha un
> valore ben definito che dipende solo dalla degenerazione dello stato
> fondamentale ?

Ripeto a te la confessione che ho gia' fatto a Soviet_Mario: in quel
post ho scritto un po' di cose che avrei difficolta' a giustificare
per bene.
Non che pensi che sono sbagliate, ma solo che l'esatta giustificazione
non mi pare immediata. Forse e' come dici tu.

Commento: questo thread promette di essere parecchio stimolante :)

--
Elio Fabri

argo

unread,
Jan 9, 2009, 1:07:04 PM1/9/09
to
On 8 Gen, 21:29, Elio Fabri <elio.fa...@tiscali.it> wrote:

> > s=k\beta[T_{00}-<T_{00}>] e
> > J_{i}=k\beta T_{0i} la densita' di corrente di entropia, proporzionale
> > al vettore di Poynting nel caso di un campo elettromagnetico.
> > Con <T_{00}> ho indicato il valore all'equilibrio alla temperatura
> > inversa beta=1/kT.
>
> Forse non l'ho capita bene, ma questa definizione non mi convince.

Cerco di spiegare qui quello che ho capito (no molto a dire il vero :-
( ) del senso di quella definizione.
L'idea e' di cercare di capire quale sia la variazione di entropiadi
un sistema
una volta che l'hamiltoniana H0 rispetto alla quale il sistema si
trovava in equilibrio alla temperatura T:
H=H0+deltaH. I valori di aspettazione di una certa osservabile O,
<O>=, sono modificati dal valore
<O>=<O>_{eq} ala valore <O>=<O>_{eq}+delta<O>. L'entropia S e' data
da
S=k(1-\beta\partial_{\beta})\lnZ
dove Z e' la funzione di partizione del sistema Z=Tr[exp(-\betaH)].
Il cambio di entropia sara' dato da
\deltaS=...=k\beta\delta<H0>=k\beta\delta\int_{V} <T_{00}>
dunque e' naturale definire l'operatore densita' di entropia s come
s=k\beta[T_{00}-<T_{00}>_{eq}] e
J_{i}=k\beta T_{0i} .

Inoltre, siccome la ''matrice densita''' rho(t) evolve secondo
\partial_{t}\rho(t)=-i[H,\rho(t)]
si ha che il valore di aspettazione <O>=Tr[O(t)\rho(t)]
evolve nel tempo rispetto ad una H perturbata seguendo
\partial_{t}<O(t)>=<\partial_{t}O(t)>+i<[\deltaH,O(t)]>.
Dunque per la densita' di entropia segue (seguirebbe d'obbligo perche'
come dicevo sono confuso sull'argomento) che
\partial_{mu}<J^{mu}>=i<[\deltaH,s(t,x)]>
dove J^{mu}={s,J^{i}}.
Integrando quest'ultima espressione (cioe' integrando entrambe le
densita' di entropia ai due membri e trascurando termini di bordo) si
ottiene
d/dt <S(t)>=i<[\deltaH,S(t)]> =ik\beta<[\deltaH,H]>=ik\beta
[\deltaH,H0].
Torno a rifletterci su perche' poche cose di quelle che ho scritto mi
sono veramente chiare (le ho scritte perche' in realta' qualcuno tra
voi mi aiutasse in queste riflessioni :-) ).
ciao.


Tommaso Russo, Trieste

unread,
Jan 9, 2009, 6:41:03 PM1/9/09
to
Elio Fabri ha scritto:

> Pero' qui si tocca una questione seria: si puo' parlare di entropia
> per un sistema non in equilibrio?

Scusa, e perche' mai non si dovrebbe potere? Un sistema (chiuso) lontano
dall'equilibrio non e' semplicemente un sistema in uno stato a entropia
molto minore di quella massima possibile? Per definire l'entropia di un
sistema in uno stato noto non occorre usarne la temperatura (che, lei
si', puo' essere non definibile), basta calcolare la numerosita' (in
microstati) del suo macrostato e applicare la relazione di Boltzmann.

--
TRu-TS

marcofuics

unread,
Jan 10, 2009, 6:14:54 AM1/10/09
to
> Elio Fabri ha scritto:
>
> > Pero' qui si tocca una questione seria: si puo' parlare di entropia
> > per un sistema non in equilibrio?

hmmmmm
ho un serio dubbio.
Sapete come si procede nella teoria del microcanonico... beh il
sistema totale non ha una dimensione limite al di sotto della quale nn
vale il ragionamento... solo si parla di sistema "grande abbastanza
da .....".
Ok
Per sviluppare la teoria si considerano dei sub-sistemi appartenenti a
quello superiore e che lo costituiscono che non-devono-per-forza-
essere il equilibrio... anzi la cosa importante e che essi siano:
abbastanza grandi per potervi applicare una statistica all'interno
come se costituiti di <<altri sub-sistemi>> di cui non ci
interessiamo; e abbastanza piccoli da poter replicare la statistica
tra essi e il sistema superiore.

Se un sistema non e' in equilibrio:
A) non vale per esso la considerazione termodinamica e quindi
Boltzmann...
B) si puo' sempre pensare che esso sia parte di un altro sitema
superiore.... e siccome l'entropia e' additiva............... potremmo
pensare di replicare la cosa 100 e 1000 e tante volte in maniera tale
che ognuno sia entropicamente nella stessa condizione e quindi
stabilire che alla fine la situazione di nn equilibrio non e' un
problema.
La A e la B si pestano i piedi a Vicenza

> "Tommaso Russo, Trieste" <tru...@tin.it> wrote:
> Scusa, e perche' mai non si dovrebbe potere? Un sistema (chiuso) lontano
> dall'equilibrio non e' semplicemente un sistema in uno stato a entropia
> molto minore di quella massima possibile?

perche' <<molto>> minore?
minore... mi sembra sufficiente....
hmmm
Stai dicendo che l'accelerazione con cui un sistema lontano
dall'equilibrio si porta verso l'eq.brio e' legato all'entropia?


> Per definire l'entropia di un
> sistema in uno stato noto non occorre usarne la temperatura (che, lei
> si', puo' essere non definibile), basta calcolare la numerosita' (in
> microstati) del suo macrostato e applicare la relazione di Boltzmann.

Si pero' Boltzmann nasce e cresce e si sviluppa solo perche' ci siamo
messi a ragionare su un sistema che --consideravamo-- in equilibrio

Giorgio Pastore

unread,
Jan 10, 2009, 7:36:25 AM1/10/09
to
Tommaso Russo, Trieste wrote:
> Elio Fabri ha scritto:
>
>> Pero' qui si tocca una questione seria: si puo' parlare di entropia
>> per un sistema non in equilibrio?
>
> Scusa, e perche' mai non si dovrebbe potere?

Per potere si puo' tutto... poi pero' occorre vedere se quello che
chiamiamo entropia di un sistema non in equilibrio ha senso, serve a
qualcosa e ha una qualche relazione con la quantita' all' equilibrio.

> Un sistema (chiuso) lontano
> dall'equilibrio non e' semplicemente un sistema in uno stato a entropia
> molto minore di quella massima possibile?

Non in termodinamica/meccanica statistica.
Intanto la tua frase ha degli aspetti oscuri: se parli di stato a
entropia molto minore ... di che stai parlando ? Dovresti parlare di un
macrostato. Ma caratterizzato da quali parametri termodinamici ? E'
proprio qui il punto. Solo l' equilibrio termodinamico ti autorizza ad
ignorare i dettagli e ad utilizzare pochi parametri per caratterizzare
le proprieta' del sistema.

Se invece stai pensando ad equilibri vincolati, questi sono stati di
equilibrio.

Quello che invece si puo' fare in molte situazioni di non equilibrio e'
di ricorrere al cosiddetto equilibrio termodinamico locale. Ma
questo non e' sempre giustificato.


> Per definire l'entropia di un
> sistema in uno stato noto non occorre usarne la temperatura (che, lei
> si', puo' essere non definibile), basta calcolare la numerosita' (in
> microstati) del suo macrostato e applicare la relazione di Boltzmann.

Non funziona se non sei all' equilibrio. E poi un termodinamico d.o.c.
obbietterebbe che l' entropia dovrebbe essere riconduvibile a misure
di quantita' termodinamiche.

Giorgio

Tommaso Russo, Trieste

unread,
Jan 10, 2009, 6:48:34 PM1/10/09
to
marcofuics ha scritto:

> Se un sistema non e' in equilibrio:
> A) non vale per esso la considerazione termodinamica e quindi
> Boltzmann...
> B) si puo' sempre pensare che esso sia parte di un altro sitema
> superiore.... e siccome l'entropia e' additiva............... potremmo
> pensare di replicare la cosa 100 e 1000 e tante volte in maniera tale
> che ognuno sia entropicamente nella stessa condizione e quindi
> stabilire che alla fine la situazione di nn equilibrio non e' un
> problema.
> La A e la B si pestano i piedi a Vicenza

A Vicenza non so come ragionino :-), ma di solito si opera con il
procedimento B, ma all'incontrario: si pensa al sistema come formato da
moltissimi sottosistemi, piccoli ma ancora con un numero abbastanza
grande di componenti da poterli pensare nell "equilibrio termodinamico
locale" di cui parlava Pastore. Il che pero' non e' sempre possibile.

>> Un sistema (chiuso) lontano
>> dall'equilibrio non e' semplicemente un sistema in uno stato a entropia
>> molto minore di quella massima possibile?
>
> perche' <<molto>> minore?
> minore... mi sembra sufficiente....

No, volevo solo sgomberare il campo da tutte le fluttuazioni statistiche
che sono osservabili in un esperimento di durata abbastanza lunga (moti
Browniani, ad esempio).

> hmmm
> Stai dicendo che l'accelerazione con cui un sistema lontano
> dall'equilibrio si porta verso l'eq.brio e' legato all'entropia?

No, no, non avevo nessuna intenzione di addentrarmi in questo campo:
anche se efettivamente la _velocita'_ con cui un sistema si avvicina
all'equilibrio dipende dall'entita' dello squilibrio e quindi dal valore
dell'entropia. Ma dipende anche da tante altre caratteristiche del
sistema: per esempio, il calore (delta minuscolo)Q/dt che passa da un
corpo piu' caldo ad uno piu' freddo separati da un cattivo conduttore
termico e' proporzionale a T_2-T_1 (Fourier), mentre se i corpi sono
separati da spazio vuoto e' proporzionale a T_2^4-T_1^4 (Stefan).

>> Per definire l'entropia di un
>> sistema in uno stato noto non occorre usarne la temperatura (che, lei
>> si', puo' essere non definibile), basta calcolare la numerosita' (in
>> microstati) del suo macrostato e applicare la relazione di Boltzmann.
>
> Si pero' Boltzmann nasce e cresce e si sviluppa solo perche' ci siamo
> messi a ragionare su un sistema che --consideravamo-- in equilibrio

Si': ma, come dicevo a Pastore, il conteggio della numerosita' dei
microstati di un macrostato dato e' possibili, in linea di principio,
per qualsiasi sistema; Boltzmann ha dimostrato che con la sua relazione
si arriva, *in caso si equilibrio*, alla stessa quantita' S definita per
via termodinamica (e che ha senso solo quando T sia definibile almeno
localmente).

ciao
--
TRu-TS

Tommaso Russo, Trieste

unread,
Jan 10, 2009, 6:25:48 PM1/10/09
to
Giorgio Pastore ha scritto:

> Tommaso Russo, Trieste wrote:
>> Elio Fabri ha scritto:
>>
>>> Pero' qui si tocca una questione seria: si puo' parlare di entropia
>>> per un sistema non in equilibrio?
>>
>> Scusa, e perche' mai non si dovrebbe potere?
>
> Per potere si puo' tutto... poi pero' occorre vedere se quello che
> chiamiamo entropia di un sistema non in equilibrio ha senso, serve a
> qualcosa e ha una qualche relazione con la quantita' all' equilibrio.

Penso che abbia senso, che serva a valutare l'entropia istantanea di uno
dei tanti sistemi reali (anche aperti!) in evoluzione, e che negli
istanti in cui l'equilibrio c'e' debba necessariamente coincidere con il
valore calcolato con i metodi applicabili ai soli sistemi in equilibrio.

>> Un sistema (chiuso) lontano dall'equilibrio non e' semplicemente un
>> sistema in uno stato a entropia molto minore di quella massima possibile?
>
> Non in termodinamica/meccanica statistica.
> Intanto la tua frase ha degli aspetti oscuri: se parli di stato a
> entropia molto minore ... di che stai parlando ?

Per esempio, di un sistema formato piu' di un sottosistema,
precedentemente tutti all'equilibrio, che a un certo istante vengono
messi in comunicazione fra loro. Come due corpi a temperature diverse,
prima termicamente isolati e poi messi in contatto diretto, o separati
da un mediocre conduttore di calore, o da spazio vuoto in cui possono
scambiarsi calore per irraggiamento; oppure due bombole immerse in una
bagno termico, ma una vuota e l'altra piena di gas a pressione P, fra le
quali a un certo istante viene aperto un rubinetto (espansione libera
isoterma di Joule).

Oppure, a un sistema in equilibrio termico al cui interno, in una zona
molto ristretta di spazio (chiamiamola "bomba"), una gran quantita' di
energia potenziale, chimica o nucleare, venga convertita in un temmpo
molto breve in energia termica. Ipotizzo (e credo di non allontanarmi
molto dal caso reale) che l'interno della bomba raggiunga un equilibrio
termico prima che l'involucro esploda, e prima che ceda quantita'
significative di calore all'ambiente circostante.

Immediatamente dopo la rimozione dell'isolante o l'apertura del
rubinetto o la rottura dell'involucro, i due sottosistemi costituenti
sono nello stesso stato di prima, e l'entropia totale del sistema e' la
somma delle entropie dei sistemi costituenti, molto inferiore al valore
che raggiungera' al nuovo equilibrio.

> Dovresti parlare di un
> macrostato. Ma caratterizzato da quali parametri termodinamici ? E'
> proprio qui il punto. Solo l' equilibrio termodinamico ti autorizza ad
> ignorare i dettagli e ad utilizzare pochi parametri per caratterizzare
> le proprieta' del sistema.

Ma per quanto ne so, un macrostato non e' caratterizzato dai
*pochissimi* parametri termodinamici (per esempio, in un gas rarefatto,
P,V,n,T) a cui accenni tu: e' caratterizzato (sempre, come esempio, nel
gas rarefatto (supposto monoatomico)) dal *numero* di molecole che si
trovano in ogni ipervolume Dx1*Dx2*Dx3*Dp1*Dp2*Dp3 (leggi "D" come
"delta") nello spazio delle fasi, senza ulteriori conoscenze
sull'identita' delle molecole che si situano in tale ipervolume ne' sui
valori esatti di x1,x2,x3,p1,p2,p3 per ognuna di esse. Cioe', da un
numero di parametri *molto inferiore* a quelli necessari ad una
conoscenza completa del sistema (microstato), ma non limitati ad una
manciata. E che consentono il calcolo (non dico "la misura" :-) della
numerosita' (in microstati) del macrostato anche nel corso
dell'evoluzione, portando (tramite la S = k ln(W) )a corrispondenti
valori di entropia, entrambi (salvo lievi fluttuazioni) crescenti nel tempo.

> Se invece stai pensando ad equilibri vincolati, questi sono stati di
> equilibrio.

Si', che puo' venir rotto rimuovendo i vincoli, permettendo l'evoluzione
verso un nuovo stato di equilibrio.

> Quello che invece si puo' fare in molte situazioni di non equilibrio e'
> di ricorrere al cosiddetto equilibrio termodinamico locale. Ma questo
> non e' sempre giustificato.

Se pensi a sistemi caotici, molto disomogenei e con meccanismi di
trasporto di energia (e materia) molto veloci, effettivamente puo'
essere molto difficile individuare sottosistemi spaziali in equilibrio:
ma anche in questi casi, scegliendo opportunamente lo spazio delle fasi,
la trattazione che fa uso della numerosita' puo' essere condotta (almeno
in linea di principio, non sottovaluto i problemi pratici). Nel caso di
pochi sottosistemi loosely coupled (di cui sopra), o in sistemi in cui i
trasferimenti di energia e materia sono molto lenti rispetto ai tempi
caratteristici di smorzamento, la trattazione puo' venir fatta con
entrambi i metodi.

>> Per definire l'entropia di un sistema in uno stato noto non occorre
>> usarne la temperatura (che, lei si', puo' essere non definibile),
>> basta calcolare la numerosita' (in microstati) del suo macrostato e
>> applicare la relazione di Boltzmann.
>
> Non funziona se non sei all' equilibrio.

E perche' mai? Se io la uso come *definizione* di entropia per un
sistema qualsiasi (che poi nei sistemi all'equilibrio coincide, come ha
dimostrato Boltzmann, con la definizione termodinamica)?

> E poi un termodinamico d.o.c.
> obbietterebbe che l' entropia dovrebbe essere riconduvibile a misure
> di quantita' termodinamiche.

Io riconosco ai termodinamici doc il merito storico di aver definito
l'entropia e di aver dimostrato molte proprieta' correlate facendo uso
di sistemi all'equilibrio, ma non l'esclusiva! :-)

ciao
--
TRu-TS

Giorgio Pastore

unread,
Jan 11, 2009, 12:29:18 PM1/11/09
to
Tommaso Russo, Trieste wrote:
...

> Per esempio, di un sistema formato piu' di un sottosistema,
> precedentemente tutti all'equilibrio, che a un certo istante vengono
> messi in comunicazione fra loro.
...


Ok, allora ho indovinato che ti riferivi ad equilibri vincolati.
Su quelli (sui sottosistemi prima della rimozione del vincolo) non c'e'
problema a definire/calcolare l' entropia.
...


>> Dovresti parlare di un macrostato. Ma caratterizzato da quali
>> parametri termodinamici ? E' proprio qui il punto. Solo l' equilibrio
>> termodinamico ti autorizza ad ignorare i dettagli e ad utilizzare
>> pochi parametri per caratterizzare le proprieta' del sistema.
>
> Ma per quanto ne so, un macrostato non e' caratterizzato dai
> *pochissimi* parametri termodinamici (per esempio, in un gas rarefatto,
> P,V,n,T) a cui accenni tu: e' caratterizzato (sempre, come esempio, nel
> gas rarefatto (supposto monoatomico)) dal *numero* di molecole che si
> trovano in ogni ipervolume Dx1*Dx2*Dx3*Dp1*Dp2*Dp3 (leggi "D" come
> "delta") nello spazio delle fasi, senza ulteriori conoscenze
> sull'identita' delle molecole che si situano in tale ipervolume ne' sui

> valori esatti di x1,x2,x3,p1,p2,p3 per ognuna di esse. ...

No. Il macrostato all' equilibrio *e'* caratterizzato dalla manciata
di parametri P,V,n,T di cui sopra. I numeri di occupazione dele
cellette dello spazio delle fasi a cui fai riferimento sono solo un
dettaglio tecnico legato a come fare i conteggi in statistica classica
in cui lo stato meccanico avrebbe misura nulla.
...


>> Quello che invece si puo' fare in molte situazioni di non equilibrio
>> e' di ricorrere al cosiddetto equilibrio termodinamico locale. Ma
>> questo non e' sempre giustificato.
>
> Se pensi a sistemi caotici, molto disomogenei e con meccanismi di
> trasporto di energia (e materia) molto veloci, effettivamente puo'
> essere molto difficile individuare sottosistemi spaziali in equilibrio:

Un prototipo di sistemi che non sono in equilibrio termodinamico locale
e' un fluido in cui si sta propagando un' onda d' urto. I tempi
caratteristici legati al passaggio del fronte sono minori dei tempi per
raggiungere l' equilibrio (anche solo locale).

> ma anche in questi casi, scegliendo opportunamente lo spazio delle fasi,
> la trattazione che fa uso della numerosita' puo' essere condotta

Si' il conteggio puoi farlo ma cosa te ne fai ?


...


> E perche' mai? Se io la uso come *definizione* di entropia per un
> sistema qualsiasi (che poi nei sistemi all'equilibrio coincide, come ha
> dimostrato Boltzmann, con la definizione termodinamica)?

Prendi il caso di un' espansione libera. Prendi un gas in un contenitore
isolato, metti tutto il gas nella meta' di sinistra del contenitore e
chiudilo in questa meta' con una parete rigida.
Il sistema e' caraterizzato da un' energia E, numero di particelle N
e volume V/2. Se e' in regime di gas ideale ne puoi agevolmente
ricavare l' entropia mediante la formula di Boltzmann che tiene conto
del volume V/2.

Rimuovi il setto. Sicuramente, dopo un po' di tempo (quello necessario
a raggiungere l' equilibrio) il sistema sara' caratterizato da un'
entropia consistente con la formula di Boltzmann relativa ad un volume
V (energia E e numero di particelle N).

Cosa possiamo dire nel transiente da che togliamo il setto a quando il
sistema si riequilibra a volume doppio ?

La formula di Boltzmann direbbe che appena togliamo il setto il numero
di configurazioni accessibili al sistema corrisponde al valore relativo
al volume V. Questo ci darebbe un cambiamento istantaneo e discontinuo
dell' entropia di poca e dubbia utilita' fisica.

Inoltre (e molto piu' alla radice del problema) perche' la formula di
Boltzmann contiene il numero di microstati compatibili col macrostato ?
Perche' si faceva l' ipotesi che il comportamento fisico del sistema
potesse essere descritto dalla distribuzione di probabilita' nello
spazio delle fasi. E nel microcanonico la distribuzione di probabilita'
e' uniforme. Ma attenzione perche' alla base di questa ultima
affermazione c'e' l' altra ipotesi che siamo all' equilibrio. Se
invece non siamo all' equilibrio la distribuzione di probabilita'
nello spazio delle fasi non e' piu' costante, diviene una funzione
esplicita del tempo e non abbiamo piu' motivi per dare lo stesso peso a
tutti i punti delle sperfici ad energia costante => fine della formula
di Boltzmann nella versione originale e a buona parte delle connessioni
tra meccanica statistica e termodinamica a cui siamo abituati.


Giorgio

Tommaso Russo, Trieste

unread,
Jan 13, 2009, 7:35:23 AM1/13/09
to
Giorgio Pastore ha scritto:
> Tommaso Russo, Trieste wrote:
>> Ma per quanto ne so, un macrostato non e' caratterizzato dai *pochissimi* parametri termodinamici (per esempio, in un gas rarefatto, P,V,n,T) a cui accenni tu: e' caratterizzato (sempre, come esempio, nel gas rarefatto (supposto monoatomico)) dal *numero* di molecole che si trovano in ogni ipervolume Dx1*Dx2*Dx3*Dp1*Dp2*Dp3 (leggi "D" come "delta") nello spazio delle fasi, senza ulteriori conoscenze sull'identita' delle molecole che si situano in tale ipervolume ne' sui valori esatti di x1,x2,x3,p1,p2,p3 per ognuna di esse. ...
>
> No. Il macrostato all' equilibrio *e'* caratterizzato dalla manciata di parametri P,V,n,T di cui sopra.

Si', scusa: e' stato un mio errore di terminologia. Intendevo proprio:


> I numeri di occupazione dele cellette dello spazio delle fasi

ma non avevo le idee chiare su come chiamarli. Avrei potuto usare
"complessioni", alla Boltzmann/Planck, ma mi pareva un po' aulico.
"Configurazioni" o "partizioni"? Puo' indurre ambiguita'. Probabilmente il nome
giusto e' "distribuzioni", specificando che non parlo solo di quelle
all'equilibrio (e nemmeno di quelle della sola energia), e su uno spazio delle
fasi che non e' quello dell'intero sistema, ma quello di una sola molecola (e
monoatomica, altrimenti avrei dovuto aggiungere 4 o 6 dimensioni per tener
conto delle rotazioni).

> Un prototipo di sistemi che non sono in equilibrio termodinamico locale e' un fluido in cui si sta propagando un' onda d' urto. I tempi caratteristici legati al passaggio del fronte sono minori dei tempi per raggiungere l' equilibrio (anche solo locale).

OK, immaginavo proprio qualcosa del genere.

>> ma anche in questi casi, scegliendo opportunamente lo spazio delle fasi, la trattazione che fa uso della numerosita' puo' essere condotta
> Si' il conteggio puoi farlo ma cosa te ne fai ?

Proprio questo!: ottenere dalla numerosità dei microstati che ricadono in una
certa distribuzione una grandezza (k ln W), calcolabile per qualsiasi
microstato, che nei miscrostati corrispondenti all'equilibrio coincide con la S
calcolata in base alle grandezze di stato, e che quindi e' lecito considerare
un'estensione della definizione di entropia applicabile a qualsiasi microstato
(o distribuione corrispondente).

> Prendi il caso di un' espansione libera. ... Rimuovi il setto. ...


> La formula di Boltzmann direbbe che appena togliamo il setto il numero di configurazioni accessibili al sistema corrisponde al valore relativo al volume V.

Esattamente.

> Questo ci darebbe un cambiamento istantaneo e discontinuo dell'entropia

Della probabilita', non dell'entropia! L'entropia e' data dalla numerosita'
in microstati della distribuzione corrispondente al miscrostato effettivo, che,
dato il precedente equilibrio vincolato, non cambia finche' il primo atomo non
oltrepassa l'ex setto; la probabilita' invece cambia istantaneamente perche' le
numerosita' di tutte le distribuzioni prima inaccessibili si sommano al
denominatore. Il sistema si trova all'improvviso in uno stato con la stessa
entropia di quella di una attimo prima, ma che la rimozione del vincolo rende
estremamente improbabile perche' sono ora accessibili stati ad entropia
(numerosita') notevolmente superiore.

> Inoltre (e molto piu' alla radice del problema) perche' la formula di Boltzmann contiene il numero di microstati compatibili col macrostato ? Perche' si faceva l' ipotesi che il comportamento fisico del sistema potesse essere descritto dalla distribuzione di probabilita' nello spazio delle fasi. E nel microcanonico la distribuzione di probabilita' e' uniforme. Ma attenzione perche' alla base di questa ultima affermazione c'e' l' altra ipotesi che siamo all' equilibrio. Se invece non siamo all' equilibrio la distribuzione di probabilita' nello spazio delle fasi non e' piu' costante, diviene una funzione esplicita del tempo e non abbiamo piu' motivi per dare lo stesso peso a tutti i punti delle sperfici ad energia costante = fine della formula di Boltzmann nella versione originale e a buona parte delle connessioni tra meccanica statistica e termodinamica a cui siamo abituati.

Di questo non sono convinto. Secondo Gibbs, un ensamble microcanonico
comprende, all'equilibrio statistico, microstati arbitrariamente vicini a
*tutti* i microstati permessi dall'energia totale, anche quelli lontanissimi
dall'equilibrio termodinamico, con la stessa densita' in fase. Semplicemente,
per N grandi la numerosita' in microstati della configurazione o partizione
compatibili col macrostato e' una frazione della numerosità totale talmente
vicina a 1 che le si puo' confondere.

E tutte le precauzioni che si prendono nella trattazione statistica
dell'entropia (l'ipotesi ergodica, i tempi piu' che astronomici del tempo di
primo ritorno di Poincare' per configurazioni a bassa numerosita', i teoremi
ergodici di Birkhoff e Van Neumann) hanno lo scopo di assicurare che
*all'equilibrio termodinamico* (anche se solo locale, nella formulazione di Van
Neumann) il valore dell'entropia calcolato con metodi statistici corrisponda a
quello che possiamo aspettarci di ottenere misurando (per tempi
sufficientemente lunghi da mediare nel tempo le fluttuazioni microscopiche) le
grandezze di stato. Il fatto che lontano dall'equilibrio tali grandezze in
alcuni casi possano non essere misurabili in tempi lunghi abbastanza, perche'
variabili troppo rapidamente, non ci impedisce di prenderne in considerazione
il solo valore statistico, come un indice del "disordine" del sistema, senza
cercarne relazioni con valori di pressione e temperatura "inesistenti".

- o -

Sono abbastanza convinto di quello che ho scritto, ma non intendo difendere a
spada tratta l'estensione statistica del concetto di entropia: che comunque ha
un limite, in quanto posso pensare che per alcuni sistemi caotici il microstato
effettivo possa essere non solo non misurabile, ma neppure modellizzabile per
una simulazione ab initio.

Il senso della mia risposta a Elio Fabri e' che di entropia di un sistema in
evoluzione si puo' parlare: se non altro per certi sistemi, almeno rallentando
il processo che portera' all'equilibrio in modo da rendere possibili equilibri
locali o temporanei: nell'espansione libera, per esempio, posso pensare di
lasciar espandere il gas per step successivi, aprendo e rinchiudendo un
rubinetto, e lasciandolo chiuso ogni volta un tempo sufficiente a lasciar
smorzare le onde di pressione (la temperatura dovrebbe comunque rimanere
costante ovunque); oppure di rendere il processo estremamante lento, con un
setto poroso, in modo da poter considerare sempre i due semivolumi
all'equilibrio mentre la pressione si va equilibrando fra i due. Stessa cosa
per due corpi neri o grigi, a temperature diverse, che si vedono e irraggiano
verso l'altro solo tramite piccole porzioni di superficie.

L'argomento mi interessa perche' voglio esaminare proprio il processo che
porta all'equilibrio, in una risposta che ho promesso a Elio Fabri ancora il 14
dicembre.

ciao
--
TRu-TS

Giorgio Pastore

unread,
Jan 13, 2009, 7:38:34 PM1/13/09
to
Tommaso Russo, Trieste wrote:
... ottenere dalla numerosità dei microstati che ricadono

> in una
> certa distribuzione una grandezza (k ln W), calcolabile per qualsiasi
> microstato,

Non ci siamo. W e' una proprieta' del macrostato NON del microstato.
E' esattamente proporzionale al numero dei microstati compatibili con un
macro stato. Devi essere in grado di contarli tutti. Altrimenti niente
formula di Boltzmann.

Tradotto in termodinamichese: non esiste l' entropia di un microstato
ma solo del macrostato.

...

Giorgio Pastore wrote:

>> Questo ci darebbe un cambiamento istantaneo e discontinuo dell'entropia
>
> Della probabilita', non dell'entropia! L'entropia e' data dalla
> numerosita'
> in microstati della distribuzione

Mah. Io direi piu' semplicemente il numero di microstati
corrispondenti al macrostato.

corrispondente al miscrostato
> effettivo, che,

...


> estremamente improbabile perche' sono ora accessibili stati ad entropia
> (numerosita') notevolmente superiore.
>

Vedi sopra. Nella meccanica statistica di Gibbs l' entropia non e'
calcolabile per un microstato.
Aggiungo anche che se fosse altrimenti sarei il primo a rallegrarmente:
invece di sudare sette camicie con tecniche ad hoc per calcolare l'
entropia di un liquido facendo simulazione numerica mi basterebbe fare
una banale media. Purtroppo non ce la si fa.

...
>... Secondo Gibbs, un ensamble microcanonico


> comprende, all'equilibrio statistico, microstati arbitrariamente vicini a
> *tutti* i microstati permessi dall'energia totale, anche quelli
> lontanissimi
> dall'equilibrio termodinamico, con la stessa densita' in fase.

Non esistono microstati lontani o vicini all' equilibrio. Al piu' in
taluni ensemble esistono microstati piu' o (magari molto) meno
probabili. Ma se sei nel microcanonico tutti quelli ad energia pari a
quella iniziale (magari puoi stabilire una fascia di variazione, per non
renderti la vita difficile dal punto di vista tecnico, ma e' un
dettaglio irrilevante) hanno la stessa probabilita'.


> Semplicemente,
> per N grandi la numerosita' in microstati della configurazione o partizione
> compatibili col macrostato e' una frazione della numerosità totale talmente
> vicina a 1 che le si puo' confondere.

Se stai ragionando nel microcanonico consideri solo i microstati sono
compatibili col macrostato.

>
> E tutte le precauzioni che si prendono nella trattazione statistica
> dell'entropia (l'ipotesi ergodica, i tempi piu' che astronomici del
> tempo di
> primo ritorno di Poincare' per configurazioni a bassa numerosita', i
> teoremi
> ergodici di Birkhoff e Van Neumann) hanno lo scopo di assicurare che
> *all'equilibrio termodinamico* (anche se solo locale, nella formulazione
> di Van
> Neumann) il valore dell'entropia calcolato con metodi statistici
> corrisponda a
> quello che possiamo aspettarci di ottenere misurando (per tempi
> sufficientemente lunghi da mediare nel tempo le fluttuazioni
> microscopiche) le
> grandezze di stato. Il fatto che lontano dall'equilibrio tali grandezze in
> alcuni casi possano non essere misurabili in tempi lunghi abbastanza,
> perche'
> variabili troppo rapidamente, non ci impedisce di prenderne in
> considerazione
> il solo valore statistico, come un indice del "disordine" del sistema,
> senza
> cercarne relazioni con valori di pressione e temperatura "inesistenti".

Qui mi son perso completamente. Come misuri una grandezza di stato se
non sai neanche definire operativamente lo "stato" (qui e' il macrostato)?

... posso pensare che per alcuni sistemi caotici il


> microstato
> effettivo possa essere non solo non misurabile, ma neppure
> modellizzabile per
> una simulazione ab initio.

Il caos non e' di per se' un problema. Anzi. Un po' di caos serve a
garantire di aver a che fare con un sistema ergodico. Altrimenti addio
ensemble...
Il vero problema sono dinamiche troppo piu' rapide dei tempi di
rilassamento del sistema.

In una simulazione, anche con una dinamica rapida, il microstato lo hai
e lo conosci "a precisione macchina". Ma non sai che fartene perche'
manca un modo sensato di farci una teoria di ensemble.


>
> Il senso della mia risposta a Elio Fabri e' che di entropia di un
> sistema in
> evoluzione si puo' parlare: se non altro per certi sistemi, almeno
> rallentando
> il processo che portera' all'equilibrio in modo da rendere possibili
> equilibri
> locali o temporanei:

In situazione di equilibrio termodinamico locale concordo. E sono
d'accordo anche tutti gli astrofisici che utilizzano l' ipotesi di LTE
per buona parte degli interni stellari :-)

nell'espansione libera, per esempio, posso pensare di
> lasciar espandere il gas per step successivi, aprendo e rinchiudendo un
> rubinetto, e lasciandolo chiuso ogni volta un tempo sufficiente a lasciar

> smorzare le onde di pressione ...
Ok. Pero' stai di fatto utilizzando l' approccio classico della
termodinamica per cui per calcolare la differenza di entropia, essendo
questa una funzione di stato, posso sostituire al processo reale, di
non equilibrio e rapido quanto voglio, un processo quasi-statico
controllato che mi permetta di ottenere la diff. di entropia dalla
misura dei flussi di calore.

Giorgio

Tommaso Russo, Trieste

unread,
Jan 19, 2009, 12:50:23 PM1/19/09
to
Giorgio Pastore ha scritto
(scusa se inverto l'ordine del quoting):

>> Il senso della mia risposta a Elio Fabri e' che di entropia di un
>> sistema in evoluzione si puo' parlare: se non altro per certi sistemi, almeno
>> rallentando il processo che portera' all'equilibrio in modo da rendere possibili
>> equilibri locali o temporanei:
>
> In situazione di equilibrio termodinamico locale concordo. E sono
> d'accordo anche tutti gli astrofisici che utilizzano l' ipotesi di LTE
> per buona parte degli interni stellari :-)
>
> nell'espansione libera, per esempio, posso pensare di
>> lasciar espandere il gas per step successivi, aprendo e rinchiudendo un
>> rubinetto, e lasciandolo chiuso ogni volta un tempo sufficiente a lasciar
>> smorzare le onde di pressione ...
>
> Ok. Pero' stai di fatto utilizzando l' approccio classico della
> termodinamica per cui per calcolare la differenza di entropia, essendo
> questa una funzione di stato, posso sostituire al processo reale, di
> non equilibrio e rapido quanto voglio, un processo quasi-statico
> controllato che mi permetta di ottenere la diff. di entropia dalla
> misura dei flussi di calore.

OK, su questo quindi non ci piove, e questo mi e' sufficiente per i
ragionamenti che voglio fare sui sistemi non in equilibrio. Per puro amore di
approfondimento pero' vorrei chiarire la questione "grandezze termodinamiche di
un microstato lontano dall'equilibrio".

> Non ci siamo. W e' una proprieta' del macrostato NON del microstato.
> E' esattamente proporzionale al numero dei microstati compatibili con un
> macro stato. Devi essere in grado di contarli tutti. Altrimenti niente
> formula di Boltzmann.

Non vorrei che stiamo avvitandoci nuovamente su un problema di terminologia.

Chiariamo: non parliamo di microstati come posizione del sistema nello spazio
delle fasi dell'intero sistema (6N dimensioni per un gas con molecola
monoatomica) ma come distribuzione (configurazione, partizione) delle N
molecole nello spazio delle fasi (6 dimensioni) di una sola molecola, suddiviso
in cellette. Un microstato mi dice che la molecola_1 ha posizione e impulso
(x1x2x3p1p2p3)_1 (+o- Dx1/2, Dx2/2, .. Dp3/2); la molecola_2 ha posizione e
impulso (x1x2x3p1p2p3)_2 (+o- Dx1/2, Dx2/2, .. Dp3/2); e cosi' via fino
all'N-esima molecola. La distribuzione mi dice che nella celletta centrata sul
punto (x1x2x3p1p2p3)_1 ci sono n_1 molecole, nella celletta centrata sul punto
(x1x2x3p1p2p3)_2 ci sono n_2 molecole e cosi' via fino a esaurimento delle
cellette (ovviamente sum n_i = N).

Se scambio fra loro due molecole che stanno in cellette diverse, ottengo due
microstati diversi: ma nella stessa configurazione. Il numero di modi in cui
posso farlo e' la numerosita' della configurazione. Dato che un microstato
individua univocamente una configurazione, potrei parlare di "numerosita' del
microstato", intendendo "il numero dei microstati diversi che realizzano la
configurazione in cui, fissate le cellette, si viene a trovare il microstato
dato". Visto che puo' indurre in confusione, meglio evitarlo.

Chiamo "macrostato" la configurazione con numerosita' massima. Nei sistemi in
cui il numero medio di molecole in ogni cella dello spazio delle fasi a 6
dimensioni e' grande, la sua numerosita' e' superiore di parecchi ordini di
grandezza alla somma delle numerosita' di tutte le rimanenti configurazioni,
per cui confondendo, a fini di calcolo, la numerosita' della configurazione
piu' probabile con il numero totale di tutti i microstati compatibili con
l'energia totale, si commette un errore trascurabile. Ma a rigore sono due
numeri diversi, e nella loro differenza stanno tutti i microstati lontani
dall'equilibrio.

Nello spazio delle fasi di Gibbs (a 6N dimensioni), la distribuzione
microcanonica e' una distribuzione di *sistemi* diversi, caratterizzati
dall'avere energia totale compresa fra E e E+deltaE e distribuita con eguale
densita' ("densita' in fase") in questa sottile iperconchiglia (che al tendere
di deltaE a zero si riduce a una ipersuperficie). Essa comprende evidentemente
*anche* sistemi ben lontani dall'equilibrio. Ognuno di questi sistemi
rappresenta un microstato, non una distribuzione: uno scambio fra due molecole
scambia fra loro due sestuplette di coordinate, portando ad un punto nello
spazio 6N che puo' essere lontanissimo da quello di partenza, e comunque
diverso (anche se caratterizzato dalla stessa E).

> Tradotto in termodinamichese: non esiste l' entropia di un microstato
> ma solo del macrostato.

Io credo che di variabili termodinamiche "locali" ed "istantanee" abbia senso
parlare in qualsiasi microstato. Ovviamente bisogna conoscerlo esattamente, il
che esclude di poterlo misurare: ma in una simulazione, per esempio, questo e'
possibile. Per esempio, per misurare la pressione istantanea su una faccia di
una piccola supeficie deltaS, basta calcolare per un tempo deltat piccolo, ma
ancora abbastanza grande da permettere ad un numero grande di molecole di
attraversarla, le somma delle componenti degli impulsi ortogonali a deltaS, e
dividerla per deltat. Tu obbietterai che questa grandezza non e' scalare in
quanto non isotropa, in quanto lo stesso calcolo effettuato sull'altra faccia
di deltaS potrebbe portare ad un risultato diverso, ed e' vero: materializzando
deltaS, potremmo ottenere una foglia spazzata via da un'onda d'urto, o una
particella di polvere accelerata in un moto pseudobrowniano. Ma non e'
esattamente questo di cui parliamo, quando parliamo di code di comete formate
dal vento solare, o di pressione di radiazione?

Per la temperatura, ho sentito parlare in casi analoghi di "temperatura
cinetica", data dalla k di Boltzmenn moltiplicata per l'energia media per grado
di liberta' degli atomi e particelle presenti in un volume deltaV a un certo
istante. non so quanto sia diffusa questa dizione, ma un significato
(energetico, se non termodinamico) ce l'ha.

Per l'entropia, abbiamo a disposizione una granzezza globale, dell'intero
sistema o di un suo sottosistema, il logaritmo naturale della numerosita' della
configurazione attuale, che puo' essere sempre calcolato, e che quando un
sistema (o almeno un suo sottositema) si trova all'equilibrio (almeno locale)
coincide esattamente con l'entropia misurata con metodi termodinamici. Perche'
evitare di usarla come definizione generalizzata di entropia?

>>> Questo ci darebbe un cambiamento istantaneo e discontinuo dell'entropia
>> Della probabilita', non dell'entropia! L'entropia e' data dalla
>> numerosita' in microstati della distribuzione
> Mah. Io direi piu' semplicemente il numero di microstati
> corrispondenti al macrostato.

Io direi, *ma solo all'equilibrio*, dal numero di microstati corrispondenti
alla configurazione piu' numerosa compatibile con l'energia del macrostato, che
e' vicinissimo (ma non eguale) al numero totale di microstati compatibili con
l'energia del macrostato; mettendo cosi' ben in evidenza l'approssimazione
effettuata nella teoria.

> Nella meccanica statistica di Gibbs l' entropia non e'
> calcolabile per un microstato.

Beh, visto che vene definita come un limite per t->inf della media di misure
effettuate su un sistema in evoluzione, e' chiaro che la richiesta di
equilibrio viene imposta fin dall'inizio. Ma la riflessione era proprio sul
fatto che sia possibile darne una definizione senza attendere un equilibrio.
Una definizione quindi estensiva, ma accettabile se nei casi di equilibrio
coincide con quella di Gibbs.

> Aggiungo anche che se fosse altrimenti sarei il primo a rallegrarmente:
> invece di sudare sette camicie con tecniche ad hoc per calcolare l'
> entropia di un liquido facendo simulazione numerica mi basterebbe fare
> una banale media. Purtroppo non ce la si fa.

[e, poco oltre:]


> In una simulazione, anche con una dinamica rapida, il microstato lo hai
> e lo conosci "a precisione macchina". Ma non sai che fartene perche'
> manca un modo sensato di farci una teoria di ensemble.

Non conosco i dettagli delle tue simulazioni, ma comunque non te la caveresti
con una banale media: direi piuttosto, per quanto detto sopra, che servirebbe
un calcolo combinatorio non proprio banale. Ma fattibile. Non e' che lo hai
escluso solo perche' troppo pesante dal punto di vista computazionale? (Magari
si puo' risportarlo a valori umani con un uso accorto di Stirling). Oppure che
non calcoli l'entropia direttamente dal microstato perche' *stai cercando
proprio* il valore che assumera' all'equilibrio, e non hai certezza che la
simulazione ti abbia gia' portato all'equilibrio?

> Non esistono microstati lontani o vicini all' equilibrio.

Ma come no? Un microstato in cui tutte le molecole si trovano nello stesso
deltaV e tutte meno una sono ferme? Numerosita' 1, entropia 0. (OK, sembra un
biliardo piu' che un gas, ma e' un microstato possibile: gas vicino allo zero
assoluto, poche molecole sparatevi dentro da una fonte caldissima...)

> Qui mi son perso completamente.

Scusa, sono stato oscuro per eccesso di sintesi. Magari ci ritorno sopra in
seguito, ma chiariamo prima questo punto:

> Come misuri una grandezza di stato se
> non sai neanche definire operativamente lo "stato" (qui e' il macrostato)?

vorrei distinguere fra microstato (quello calcolabile a precisione macchina),
distribuzione (nello spazio a 6 dimensioni) e macrostato (la distribuzione piu'
probabile). Operativamente so definire una distribuzione lontana
dall'equilibrio (quella di un equilibrio vincolato, subito dopo aver rimosso il
vincolo). Poi posso etichettare arbitrariamente le molecole presenti in quella
distribuzione e seguire l'evoluzione del microstato risultante in una
simulazione. Vorrei essere legittimato a parlare di un'entropia calcolabile del
microstato simulato, che nelle situazioni di equilibrio iniziale e finale,
ossia prima della rimozione del vincolo e all'equilibrio finale, coincide con
l'entropia calcolabile termodinemicamente.

ciao

--
TRu-TS

Giorgio Pastore

unread,
Jan 21, 2009, 6:01:54 PM1/21/09
to
Ci ho messo un po' ma penso di aver capito qual e' la sorgente di
incomprensione:
tu stai pensando all' entropia di Boltzmann ed io do per scontata la
superiorita' di quella di Gibbs!
Purtroppo le due, in generale, non sono la stessa cosa ed e' quella di
Boltzmann ad avere dei problemi. Vedi dopo.


Tommaso Russo, Trieste wrote:
...

> Non vorrei che stiamo avvitandoci nuovamente su un problema di
> terminologia.

Lo e' solo nel senso che esistono due diversi oggetti cui affibbiamo il
nome di entropia.

> Chiariamo: non parliamo di microstati come posizione del sistema nello
> spazio delle fasi dell'intero sistema (6N dimensioni per un gas con
> molecola monoatomica) ma come distribuzione (configurazione, partizione)
> delle N molecole nello spazio delle fasi (6 dimensioni) di una sola
> molecola, suddiviso in cellette.

...
Ovvero stai usando la densita' ridotta ad una particella nello spazio
delle fasi f^(1)(r,p). Questa va bene per sistemi di tipo gas. E
infatti per questi la puoi usare per dimostrare il teorema H e ottenere
il risultato di Boltzmann sull' approccio all' equilibrio.

Il principale problema della densita' ridotta a 1 corpo e' che se
invece di un gas hai a che fare con un sistema non debolmente
interagente, non e' piu' sufficiente a caratterizzare il sistema.
Infatti, se la distribuzione di probabilita' di Gibbs non e'
fattorizzabile, non la puoi ricostruire dalla sola f^(1)(r,p) mentre il
viceversa e' sempre possibile. In principio, per ricostruire la distr
di Gibbs (6N dimensionale) ti servirebbero tutte le densita' ridotte a
n particelle con n <=N (N numero totale di particelle).

...


> Io credo che di variabili termodinamiche "locali" ed "istantanee" abbia
> senso parlare in qualsiasi microstato.

Non e' questo che metto in dubbio.

...


> Per la temperatura, ho sentito parlare in casi analoghi di "temperatura
> cinetica", data dalla k di Boltzmenn moltiplicata per l'energia media
> per grado di liberta' degli atomi e particelle presenti in un volume
> deltaV a un certo istante. non so quanto sia diffusa questa dizione, ma
> un significato (energetico, se non termodinamico) ce l'ha.

Infatti l' energia cinetica media va benissimo per ottenere la
temperatura (a meno di fattori) e purche' si medi su tempi lunghi
ovvero, valendo l' ipotesi ergodica, sull' ensemble opportuno.
...
...


> Non conosco i dettagli delle tue simulazioni, ma comunque non te la
> caveresti con una banale media: direi piuttosto, per quanto detto sopra,
> che servirebbe un calcolo combinatorio non proprio banale. Ma fattibile.

Appena hai le interazioni non basta il calcolo combinatorio. Nelle
combinazioni pure devi cominciare mettere pesi legati all' energetica
delle configurazioni...

...


>> Non esistono microstati lontani o vicini all' equilibrio.
>
> Ma come no? Un microstato in cui tutte le molecole si trovano nello
> stesso deltaV e tutte meno una sono ferme? Numerosita' 1, entropia 0.
> (OK, sembra un biliardo piu' che un gas, ma e' un microstato possibile:
> gas vicino allo zero assoluto, poche molecole sparatevi dentro da una
> fonte caldissima...)

Se lo vedi nell' ensemble di Gibbs, quel microstato ha esattamente la
stessa probbailita' di uno piu' "disordinato". Poi, in certe
situazioni (sempre *solo* nel caso del gas ideale) ci sara' solo uno
stato "ordinato" e uno sfracelo di stati "disordinati" tutti alla stessa
energia. Ma nei sistemi interagenti le proporzioni dipendono dal
macrostato (altrimenti non riusciresti a spiegare l' esistenza dei
cristalli).
...
... Vorrei essere


> legittimato a parlare di un'entropia calcolabile del microstato

Per quello che ho detto sopra (molto succinto, lo ammetto) non lo puoi
fare in generale. Di entropia del microstato come la intendi tu si puo'
parlare nel caso molto particolare del gas perfetto e poco piu'.
C'e' una terza "entropia" che invece potrebbe essere utilizzata per
dare un senso al' entropia di un microstato (nel senso di Gibbs) che e'
l' entropia algoritmica del microstato. Ma questa e' un' altra
storia irta di difficolta' concettuali e pratiche ancora maggiori.


Giorgio

Teti_s

unread,
Jan 26, 2009, 7:32:02 PM1/26/09
to
Gen 2009, 21:30, Elio Fabri <elio....@tiscali.it> ha scritto:

> Tornando alla radiazione, la domanda mi pare che sia: si puo'
> associare un'entropia a una rad. e.m. che si propaga?
> La risposta e' si', ma il calcolo richiede la conoscenza della
> distribuzione spettrale e spaziale della raidazione.

> A rigore solo una radiazione nera ha una temp. definita, e quindi le

> puoi associare un'entropia pari a E/T, dove E e' l'energia
> trasportata e T la temperatura.

Mi risulta che ci sia un fattore 3/4, il 3 viene dalla dimensionalità
spaziale, il 4 viene dalle dimensioni spaziali aumentate di una unità, per
questo leggendo l'articolo linkato da Argo mi ha piuttosto stranito leggere
la definizione di entropia come T_00/T, infatti ci dovrebbe essere un
fattore 2. Come mi ha meravigliato il fatto che venga trattata un poco
ambiguamente come quantità conservata, sia generata dai gradienti,
nonostante la presenza di giunzioni che potrebbero essere sorgenti di
entropia, ma il punto chiave qui non è certo il fattore, nè l'entropia
associata ad un tensore energia impulso in un sistema termodinamico, quanto
proprio la questione della definizione di una entropia per radiazione
elettromagnetica che non è in equilibrio radiativo con corpi termalizzati.

L'argomento è piuttosto importante in astrofisica, Ruggeri tratta l'entropia
come un campo aggiuntivo ai 10 tradizionali della relatività generale, in
ambito astrofisico capita spesso in effetti di pensare a campi in parziale
equilibrio ed in interazione con la materia, rarefatta o densa che sia e
magari si riesce a definire uno stato di equilibrio locale, e penso che
qualche rilevanza l'abbia anche in questioni termodinamiche legate
all'assorbimento, ad esempio, di luce laser dove però l'equilibrio è
lontanissimo, ma in quel caso esiste un modo per stimare la produzione di
entropia e valutare la propagazione di quella. In quest'ultimo caso oltre
alla eventuale polarizzazione conta certamente anche la collimazione.
Ricordiamo che fra i postulati fondamentali della statistica di equilibrio
(o quasi tale) c'è la circostanza che l'entropia, essendo definita dalla
molteplicità degli stati microscopici compatibili con uno stato macroscopico
assegnato, deve essere un funzionale della distribuzione di probabilità, e
deve essere funzione delle grandezze macroscopiche conservate del sistema:
generalmente le grandezze che si considerano sono energia, impulso e momento
angolare totale del sistema, tutto il resto lo si assume generalmente
soggetto a mixing: per quanto questa ipotesi sia piuttosto forte è
ragionevole che per tempi ragionevoli tutte le grandezze che non sono
esattamente conservate per ragioni di simmetria generale evolvano verso
l'equilibrio, la polarizzazione è generalmente fra quelle grandezze che si
assumono soggette a mixing.

Tuttavia l'argomento che solo gli integrali primi dovuti a simmetrie
universali siano conservati e quindi abbiano rilevanza nel dare struttura
alla distribuzione di equilibrio è un argomento relativamente fragile se
sottoposto ad uno studio critico di sistemi particolari, fanno eccezione
come noto vari sistemi che hanno integrali primi esatti o quasi esatti
dovuti a simmetrie intrinseche alla struttura della hamiltoniana di
interazione: uno dei più celebri è il sistema di Fermi Pasta Ulam, per
questo motivo non è da escludere
a priori che possano esistere sistemi di qualche interesse concreto,
oltrechè speculativo, nei quali la polarizzazione dei modi elettromagnetici
sia parzialmente conservata o debolmente modificata. Penso ad esempio
all'equilibrio radiativo in un sistema di cristalli liquidi attraversato da
luce o, meglio, un sistema astronomico di gas rarefatto. E vedo subito di
passare a spiegare il senso di quel "meglio".

Quando è importante considerare l'entropia trasportata da un campo? Quando
la scala temporale della produzione di entropia è grande rispetto alle scale
temporali della dinamica complessiva del sistema. Ad esempio nella
propagazione di un'onda acustica in un gas è lecito assumere che in prima
approssimazione la densità di entropia sia conservata. Ora questo non mi
sembra che sia il caso di cristalli liquidi in interazione con radiazione
elettromagnetica, a meno di considerare situazioni molto particolari in cui
la velocità di gruppo della luce diventi confrontabile con i tempi di scala
delle interazioni termo-meccaniche nel sistema, e sono casi limite ottenuti
per esempio "congelando" la luce sfruttando particolarità di materiali molto
speciali, una situazione decisamente non più quotidiana di quello che può
essere la propagazione della luce in un gas astronomico. (dal punto di vista
di alcuni fisici c'è certamente uno shift di paradigma :-) e questi
argomenti potrebbero esser quotidiani, non certo un fisico che studia le
stelle, nè un fisico che studia le galassie vicine, ma forse per un fisico
che studia la produzione di luce di sincrotrone in getti questi argomenti
potrebbero essere importanti).

Torniamo allora per un attimo all'impulo ed al momento angolare: sono
generalmente esclusi dal gioco perchè quotidianamente si considerano sistemi
vincolati ad un laboratorio che rompe la simmetria traslazionale e
rotazionale, ma non quella per traslazione temporale, quindi si postula
un'entropia di
equilibrio che è funzione della sola energia. Ma il momento angolare torna
importanti se consideriamo sistemi rotanti, mentre per i sistemi in moto
rettilineo uniforme generalmente ci si dimentica dell'impulso assumendo come
al solito che si stia considerando un riferimento in moto traslatorio e
quindi
applicando il principio di invarianza galileiano o einsteniano. Non è però
questo il caso di una radiazione elettromagnetica, perchè non è possibile
scegliere un riferimento solidale al "gas di fotoni collimati".

> > Pero' e' difficile rinunciare all'idea che a radiazione polarizzata
> > sia associata un'entropia minore di quella di un suo omologo non
> > polarizzata.
> Hai ragione, anche se non ci avevo mai pensato...
>
> > Se ne deve concludere che l'informazione relativa allo stato di
> > polarizzazione dei fotoni incidenti viene conservata nei moti
> > microscopici dei costituenti del corpo, di modo che nel caso di luce
> > polarizzata risultino meno "casuali" rispetto al caso della radiazione
> > non polarizzata ?
> Ne dubito, almeno nel caso di assorbimento da un metallo.
>
> Sarei portato a dire che se hai un insieme di n fotoni, tutti nello
> stesso stato di plarizzazione, l'entropia differisce (in meno) da
> quella dello stesso insieme non polarizzato per n*k*ln2.
> Pero' c'e' qualcosa che mi lascia dubbioso...


C'è un celebre esperimento astronomico in cui la considerazione della
statistica di un gas di fotoni emesso in condizioni di equilibrio, ma
altamente collimato ha importanza, è l'esperimento di Hanbury Brown Twiss.
In questo celebre esperimento le correlazioni a distanza nella radiazione
elettromagnetica hanno un'importanza cruciale. In effetti la struttura delle
correlazioni risente significativamente
della struttura dell'entropia (di equilibrio) per un gas di bosoni. E qui si
nota una curiosità. Torniamo per un attimo al caso di equilibrio (un
articolo che mette bene in luce il rapporto che c'è fra le grandezze
effettivamente misurabili, anche da strumenti lontani, e la convergenza
all'equilibrio è
questo articolo di Eisenberg Horwitz:
http://star.tau.ac.il/~eli/PDFS/p13.pdf): un gas di bosoni all'equilibrio ha
entropia che risulta dalla somma dei contributi: -k g_i [n_i ln(n_i) +
(1-n_i) ln(1-n_i)] dove n_i è il numero di
occupazione di ogni singolo stato, g_i degenere, accessibile al sistema: n_i
è definito come il numero di particelle che occupano lo stato di indice i,
g_i volte degenere diviso per la degenerazione stessa dello stato. Questa
espressione, per gas fortemente degeneri, differisce significativamente
dall'espressione -k [ n ln(n) ] di Gibbs o di Von Neumann, che tuttavia è
quella più comunemente usata. La curiosità dell'esperimento di HBT è che la
distanza della sorgente e la monocromaticità dei rivelatori va a selezionare
una fascia ristrettissima di elementi dello spazio delle fasi, tanto che il
secondo termine, generalmente ininfluente diventa, indirettamente importante
nella spiegazione di quello che si osserva, in effetti il secondo termine
rimane trascurabile, ma non di meno cambia l'espressione per le correlazioni
in presenza di fluttuazioni rilevanti e l'osservazione di fotoni correlati a
distanza in una finestra temporale adeguata può essere inquadrata come
fluttuazione estrema. Non so se esistono esperimenti HBT che vanno a
guardare la correlazione in polarizzazione, ma di certo le osservazioni
sarebbero differenti nel caso di sorgente fortemente polarizzata rispetto al
caso di sorgente non polarizzata e la causa sarebbe da cercare nella diversa
degenerazione degli stati con il correlato sul numero di occupazione.

E' da notare che l'entropia di Von Neumann, nonostante questa particolarità
che differisce dall'entropia effettiva per gas degeneri è molto usata come
sinonimo di entropia dei sistemi quantistici e come estensione dell'entropia
classica di Shannon o Kolmogorov. Ma temo che Kolmogorov avrebbe molto da
ridire sul modo in cui si pretende, talvolta, di applicare il suo
sofisticato apparecchio, quasi ignorando del tutto le conseguenze
dell'algebra di inclusione esclusione e le correlazioni in virtù di ipotesi
di indipendenza statistica.

E' importante notare che alla formula che ho scritto per l'entropia si
arriva semplicemente contando la molteplicità dello stato i nel caso che il
suo numero di occupazione sia n_i. Per statistica di Bose questa
molteplicità è C(g_i + n_i -1, n_i ) il cui logaritmo, per l'approssimazione
di Stirling ha l'espressione che ho riportato prima. Quello che cambia
rispetto all'entropia della luce nella stella è il numero di elementi su cui
andiamo a sommare. In questo discorso quello che lascia più perplessi è la
circostanza che l'entropia dipende dall'esperimento
considerato, per quanto la sorgente sia completamente ignara
dell'esperimento :-
) in verità quello che conta è l'accoppiata stella, rivelatore. L'entropia
totale della luce nella sorgente non è ne più nè meno di quella che
impongono le considerazioni di equilibrio, può essere derivata in
approssimazione di equilibrio esatto e la derivata variazionale dell'energia
libera per punti
distanti è tale che le correlazioni spariscono a corta distanza, ma la
derivata variazionale dell'entropia rispetto al numero di fotoni rivelati da
rivelatori posti ad anni luce, va ad esplorare solo una porzione dello
spazio delle fasi, rilevante ai fini dell'esperimento, e ll derivata
variazionale è differente. La distanza si
comporta come un filtro dinamico. In altre parole l'entropia che stiamo
considerando è massima a parità di entropia e di direzione di propagazione,
ovvero stiamo considerando una distribuzione differente da quella a fissata
energia, tanto differente che una trattazione classica del campo
elettromagnetico fornisce ugualmente la risposta esatta. E' dovuta a Purcell
la constatazione che la correlazione bosonica può essere riprodotta
dall'ipotesi che il campo elettrico vari in modo gaussiano nel tempo di
coerenza, combinata con una statistica puramente poissoniana per il numero
di fotoni rivelati. Fu questa la prima spiegazione delle osservazioni di
Hanbury Brown.


> > P.S. Adesso che ci ripenso, sono sicuro di avere letto di una
> > caratterizzazione del corpo nero ideale come l'emettitore che, ad una
> > data temperatura, produce radiazione con la massima entropia. Pero'
> > era su una rivista online che non riesco a rintracciare.
> Detto cosi' non mi e' tanto chiaro, e non sono sicuro che sia giusto.
> Sicuramente la radiazione nera e' - a parita' di energia - quella che
> ha la massima entropia.
>
> Pero' qui si tocca una questione seria: si puo' parlare di entropia
> per un sistema non in equilibrio?

La risposta è ovviamente sì, ma occorre sapere molto bene che cosa si sta
facendo ed avere una definizione molto precisa di sistema. Non mi sembra che
esista ancora un accordo completo sui sistemi lontani dall'equilibrio. E'
stato focalizzato da tempo che il problema è stabilire il rate di evoluzione
dell'entropia, le definizioni più semplici, come entropia di Shannon, o di
Kolmogorov, la trattazione di Ruelle, Sinai, ed i teoremi di Prigogine
basati sul teorema di Frobenius Perron, in ultima analisi come dialogano con
le quantità effettivamente misurate? Questo problema è stato affrontato
molto approfonditamente in teoria della risposta lineare, ma per esempio la
luce lontano dalla sorgente o un laser che incidono su un blocco di materia
sono tutti oggetti lontani dal regime di risposta lineare. Per queste
situazioni occorre una teoria più complessa. In breve come si procede per i
casi esplorati da Ruelle? Perchè le grandezze entropiche abbiano qualche
possibilità predittiva occorre che l'evoluzione temporale sia mixing. Ovvero
occorre che lo spazio delle fasi del sistema classico sia iperbolico, e per
i sistemi quantistici che lo spettro abbia delle proprietà chiarite dagli
studi di Gutzwiller e risprese per esempio da Jona Lasinio. Esistono molti
sistemi modello in cui queste qualità possono essere controllate con
precisione: una classe fra tante è quella dei sistemi magnetici, per cui la
mappa del gruppo di rinormalizzazione risulta caratterizzato da insiemi di
Julia con singolarità che si accumulano nei pressi dell'asse reale danno
luogo a transizioni di fase, per il teorema di Yang Lee. L'iperbolicità
della mappa ha un ruolo chiave nel caratterizzare l'insieme di livello. In
queste situazioni critiche le fluttuazioni entropiche hanno un ruolo
importantissimo. Uno dei sistemi paradigmatici per le applicazioni è
l'opalescenza critica. Una delle applicazioni più interessanti degli ultimi
anni consiste nel cercare di ricostruire dalla conoscenza di alcune funzioni
di risposta del sistema, una funzione di Hamilton efficace per il sistema
cercando di ripetere su una maggiore varietà di sistemi quello che fece
Purcell nella spiegazione dell'esperimento di Hanbury Brown.
Fondamentalmente si tratta di individuare quali sono i parametri con
maggiore rilievo statistico, questo può essere tradotto quantitativamente
con i metodi di inferenza basati sul teorema di Bayes in misure di indici di
significatività che spaziano dalla cosiddetta informazione di Fisher,
(indice introdotto fra molte controversie da Frieden, c'è un articolo di
Streater su di lui) alle misure indirette delle proprietà degli attrattori
del sistema. E' interessante per esempio che nel caso di una stella si può
imparare molto dalla considerazione di funzioni di correlazione a più punti,
riguardo non solo alle dimensioni della stella, ma anche per esempio
riguardo alla sua attività ed alle strutture convettive. In tutti questi
contesti svolgono un ruolo chiave una pletora di estensioni della nozione di
entropia.

> Soviet_Mario ha scritto:
> > il discorso spaziale non riesco a capirlo senza ulteriori
> > dati (poi magari nemmeno con, eh ... mah)
> Nemmeno io :-)
> L'ho buttato li' senza pensarci, ma poi mi sono venuti dei dubbi.
> Ma per spiegare i dubbi dovrei scrivere parecchio...
>

> > osservazione stupefacente ! E la butti lì così come nulla


> > fosse ? Mi ha sconvolto. Non avevo mai pensato a questo
> > aspetto del problema.
> Che vuoi farci? A me questo e' chiaro da qualche decennio :-)
>
> > Giustissimo. A pensarci a posteriori posso dire che avrei avuto
> > elementi per poterlo almeno sospettare (ad es. so qualcosa dell'albedo
> > e di termodinamica di base), ma non ho mai intuito questo aspetto.
> Lieto di avertici fatto pensare.
> (Pero' guarda che "albedo" e' femminile :-)) )
>
> > Per vedere se ho capito giusto : la terra irradia tanta energia quanta

> > ne riceve ma a distribuzione spettrale molto più fredda (quindi
> > equivale a calore a bassa T, ossia più disordinato) ... E così


> > smaltisce tutta l'entropia comunque prodotta ivi generata.
> Esattamente.
>

> > In fondo non è molto diverso dall'avere una sorgente calda (nel nostro


> > caso con spettro ad "alta" frequenza) e una sorgente fredda (nel caso,

> > il cosmo, freddo), e quindi la terra fa né più né meno da macchina

--------------------------------
Inviato via http://arianna.libero.it/usenet/

0 new messages