Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Pesa più una chiavetta USB vuota o una chiavetta USB piena?

336 views
Skip to first unread message

Michele Andreoli

unread,
Sep 13, 2021, 7:55:03 AM9/13/21
to
Ciao Gruppo,

mi sono imbattuto casualmente nella questione, a partire da un post di Science Focus (vedi link).


Naturalmente, per "vuota" si intende una chiavetta appena formattata, presumibilmente piena di zeri, mentre per "piena" una chiavetta riempita di normali files.


Quello che mi interesserebbe sapere è se si può dare una risposta indipendente dalla tecnologia sottostante, ma basata esclusivamente sui principi primi della Fisica.



grazie per l'attenzione!


Link:
https://www.sciencefocus.com/future-technology/does-a-usb-drive-get-heavier-as-you-store-more-files-on-it/

Elio Fabri

unread,
Sep 13, 2021, 11:00:03 AM9/13/21
to
Bellissima domanda, che presenta molti diversi aspetti a vari livelli.
da questioni di fisica fondamentale a particolarità di struttura dei
moderni dispositivi di memoria e dei sistemi operativi.

Non ti aspettare quindi che ti possa dare la risposta: non so se al
mondo esista qualcuno che conosca davvero a fondo *tutti* gli aspetti
che entrano in gioco. (Il che da sé già dà da pensare... - quanti
accenti :-) )
Quindi dovrò limitarmi a un po' d'idee generali e non escludo affatto
di dire anche cose errate. In tal caso spero che qualcuno mi corregga

Già quello che scrivi sulla chiavetta appena formattata temo non sia
vero, almeno non in generale. Può dipendere dalla tecnologia, dal
fabbricante, dal file system...
Dico questo sulla base di remoti ricordi e di ciò che ho letto in una
veloce scorsa di alcune informazioni.

Partiamo dal livello più alto. Compri una chiavetta (ma vale anche per
un hard disk) nuova di fabbrica: in che stato viene venduta?
Credo non esista uno standard. Forse caso per caso è possibile avere
la risposta. Potrebbe essere che ogni byte venga messo a 00 (hex) ma
anche a FF o altro.

E' possibile con opportuni comandi imporre la scrittura su una
determinata prozione di disco di tutti 00?
Risposta: non lo so. Forse in Linux il comando dd lo permette.
Quello che so di sicuro è che dd è un comando pericolosissimo :-)

Tutti i sistemi operativi consentono di "formattare" una partizione di
un disco (e quindi - credo - anche di una chiavetta) con un
determinato file system, ma questo in genere non significa affatto che
sul disco venga scritto qualcosa.
Per es. i file system tipo FAT (file allocation table) si limitano a
creare appunto la FAT che contiene lunghezza e aree occupate da
ciascun file.
All'inizio nella FAT verrà scritto che non ci sono files in quella
partizione, con una sfilza di zeri (ho dimenticato i dettagli) nella
FAT. Ma il contenuto reale del disco resterà quello che era, che sia
nuovo o già usato.
In altre parole, un comando di formatting non cancella il contenuto
del disco, ma lo rende inacessibile.
Può darsi che in qualche SO ci sia l'opzione di azzerare tutto il
disco, ma non è probabile visto il tempo che potrebbe richiedere...

Tanto meno questo è vero per i comandi di cancellazione di file (rm in
Linux). Il comando si limita a dichiarare nulla la lunghezza del file
e a rendere in qualche modo disponibili le parti di memoria che erano
occupate da quel file.
Anche qui potrebbe esistere un'opzione di cancellazione "hard", ma non
ricordo.

E con questo concludo sulla parte software.
Passiamo allo hardware: dato un dispositivo (chiavetta) se scrivo 00
in un byte, che cosa succede fisicamente?
Di nuovo non sono sicuro, perché non sono certo di aver capito bene
quello che ho letto.

In una memoria "flash" gli elementi fisici di memoria sono FGT
(floating gate transistors). A farla corta, un floating gate è una
zona conduttrici (metallica? non è detto) isolata dal resto in quanto
circondata da materiale non conduttore.
E' possibile modificare la carica di uno di questi gate "iniettandoci"
elettroni per effetto tunnel, o anche sottraendoli.
Questo accade normalmente quando si legge o scrive la chiavetta.
La carica che ho detto in teoria dovrebbe mantenersi per sempre, ma
nella realtà ci sono processi che la disperdono. Ho letto dati
variabili, da 1 a 100 anni, anche in dipendenza dalla temperatura.

Qui nasce una domanda senza risposta: se scrivo 0, il corrispondente
gate sarà carico o scarico? E se carico, con carica positiva o
negativa?
Non so la risposta perché non sono riuscito a estrarla da ciò che ho
letto. Potrebbe darsi che dipenda dalla tecnologia di fabbricazione,
ma non posso dire niente di certo.

Apro una parentesi riportando quello che si legge nel sito che citi.
C'è una cosa certamente sbagliata: dice che se quel gate è carico
contiene più elettroni quindi pesa di più (se questo sia un 1 o uno 0,
non lo so: lì c'è scritto che gate carico = 0, ma non sono sicuro che
sia vero).
Perché dico che è comunque sbagliato?
Il ragionamento è che nel gate carico aumenta il peso (la massa) per
l'aggiunta di elettroni). Sia pure, per il momento.
Ma la chiavetta non porta in totale una carica diversa: quando la
collegate al computer da qualcuna delle linee passerà corrente, ma
quella che entra da una linea esce da un'altra.
La chiavetta staccata dal computer sarà comunque neutra (o avrà una
carica superficiale perché è stata strofinata). A parte la parentesi,
il numero di elettroni che contiene non varia: si sono solo spostati da
una parte all'altra del circuito.

A questo punto è bene ricordare che la massa m di un elettrone è circa
10^(-30) kg. Teniamo presente questo numero.
Se sul gate ci sono n elettroni in più, la massa aumenta di mn. se
invece gli elettroni diminuiscono, la massa cala.
Però, come ho già detto, quella massa viene o va da qualche altra
parte: la massa della chiavetta non cambia.

Però... scommetto che ci avete già pensato :)

Se il gate coi conduttori adiacenti forma un condensatore di capacità
C, dargli una carica ne (di qualunque segno) aumenta l'energia di
(ne)^2/(2C) e quindi la massa di (ne)^2/(2 c^2 C).
Facciamo il conto per n=1, assumendo C=1 pF (non so se sia giusto, ma
credo che possa esser di più, non di meno).

DM = e^2/(2 c^2 C) = 1.4x10^(-43) g.

Molto piccola, però se gli elettroni sono n questa va come n^2.
Non ho idea di quanti siano gli elettroni, ma potrei azzardare
un'altra strada: ipotizzare il potenziale V a cui verrà portato il
gate.

Visto che bisogna distinguere il gate carico da quello scarico, V non
può essere tanto piccolo. Supponiamo V = 1 volt.
La variazione di energia è C V^2/2 quindi la variazione di massa

DM = C V^2/(2 c^2) = 5.6x10^(-30) kg

Notate che è sempre DM>0.
Quindi ogni gate carico aumenta la massa della chiavetta di DM.
--
Elio Fabri

Paolo Russo

unread,
Sep 13, 2021, 1:05:02 PM9/13/21
to
[Michele Andreoli:]
> Naturalmente, per "vuota" si intende una chiavetta appena formattata,
> presumibilmente piena di zeri, mentre per "piena" una chiavetta
> riempita di normali files.
>
>
> Quello che mi interesserebbe sapere è se si può dare una risposta
> indipendente dalla tecnologia sottostante, ma basata esclusivamente
> sui principi primi della Fisica.

Direi di no. Non mi risulta che l'entropia abbia massa.
Con un ragionamento piu' forte: l'interpretazione di certi
stati fisici come "zeri" o come "uni" e` solo una
convenzione, che puo` essere considerata parte integrante
della tecnologia.
Quindi vorresti sapere se la massa aumenta scrivendo file,
ma a prescindere dalla massa dei singoli zeri e uni che
costituirebbero tali file.
Direi che non si puo`. Ci sono casi in cui la massa non e`
additiva, ma nei casi piu' comuni lo e`, e basta gia` questo
a giustificare una risposta negativa.

> Link:
> https://www.sciencefocus.com/future-technology/does-a-usb-drive-get-heavier-as-you-store-more-files-on-it/

Non so molto su come funzioni una memoria flash, ma
francamente il ragionamento a quella pagina mi sembra
assai semplicistico. Mi aspetto che la carica elettrica di
una chiavetta sia globalmente nulla, e che se per caso non
lo e` lo diventi presto interagendo con l'ambiente.
Il numero totale di elettroni non dovrebbe cambiare.
Una differenza di massa puo` essere giustificata da
considerazioni energetiche, ma e` un ragionamento
diverso.

Ciao
Paolo Russo

Soviet_Mario

unread,
Sep 13, 2021, 3:12:03 PM9/13/21
to
Il 13/09/21 17:22, Paolo Russo ha scritto:
> [Michele Andreoli:]
>> Naturalmente, per "vuota" si intende una chiavetta appena formattata,
>> presumibilmente piena di zeri, mentre per "piena" una chiavetta
>> riempita di normali files.
>>
>>
>> Quello che mi interesserebbe sapere è se si può dare una risposta
>> indipendente dalla tecnologia sottostante, ma basata esclusivamente
>> sui principi primi della Fisica.
>
> Direi di no. Non mi risulta che l'entropia abbia massa.

concordo con te, ma credo che i bit che per l'utente sono
INDIPENDENTI tra loro in senso logico, e che potrebbe far
supporre che siano anche NON INTERAGENTI, perlomeno su
supporti di memorizzazione a base MAGNETICA, non implica
affatto che siano non interagenti.

Il magnetismo "laterale" (intendo il campo che sfrangia da
ciascun dominio, e marginalmente investe i domini adiacenti)
interagisce in modo diverso se i domini sono paralleli o
antiparalleli, e qui la vedrei come gli spin di famiglie di
orbitali degeneri alla Hund.

Quindi se le varie configurazioni non sembrano
ISOENERGETICHE, anche la massa del sistema potrebbe imho
(impercettibilmente s'intende, variare).

Ora io non so dire quale sia lo stato di minima energia.
In senso puramente magnetico sarei propenso a pensare allo
stato più ordinato in assoluto.
Tuttavia quando un campo coercitivo riordina i dipoli
magnetici, causa anche un certo qual stress strutturale nei
cristalli, sicché non so se AL NETTO immetta energia nel
metallo o meno.

Ma mi sembrerebbe veramente una coincidenza fortuita se non
congelasse una qualche quantità di energia (o negli stati
molto ordinati o molto disordinati).

Quindi arrivo solo fino a dire : hanno un peso diverso, ma
chi pesi di più e chi meno non lo so, e non so nemmeno se la
conclusione possa essere ritenuta "material-independent".


> Con un ragionamento piu' forte: l'interpretazione di certi
> stati fisici come "zeri" o come "uni" e` solo una
> convenzione, che puo` essere considerata parte integrante
> della tecnologia.

si ma mi pare che non consideri COME materialmente sia
stoccato il bit.

È possibile, ma ne sono meno sicuro (perché ... boh !) che
la cosa possa valere al pari dei magneti, anche per piccoli
CONDENSATORI che hanno campi elettrici, essi pure
interagenti in qualche misura anche minima coi campi di
quelli adiacenti.

Perché tutte le configurazioni dovrebbero essere
isoenergetiche ?

basta non superare i limiti dielettrici e di campo
coercitivo, che si può congelare dell'energia nel materiale,
sia magnetizzandolo/smagnetizzandolo, sia anche
polarizzandolo o depolarizzandolo.

> Quindi vorresti sapere se la massa aumenta scrivendo file,
> ma a prescindere dalla massa dei singoli zeri e uni che
> costituirebbero tali file.
> Direi che non si puo`. Ci sono casi in cui la massa non e`
> additiva, ma nei casi piu' comuni lo e`, e basta gia` questo
> a giustificare una risposta negativa.
>
>> Link:
>> https://www.sciencefocus.com/future-technology/does-a-usb-drive-get-heavier-as-you-store-more-files-on-it/
>
> Non so molto su come funzioni una memoria flash, ma
> francamente il ragionamento a quella pagina mi sembra
> assai semplicistico. Mi aspetto che la carica elettrica di
> una chiavetta sia globalmente nulla, e che se per caso non
> lo e` lo diventi presto interagendo con l'ambiente.
> Il numero totale di elettroni non dovrebbe cambiare.
> Una differenza di massa puo` essere giustificata da
> considerazioni energetiche, ma e` un ragionamento
> diverso.

ah ecco ... okay, allora credo che concordiamo !! Meno male
eh :D

>
> Ciao
> Paolo Russo
>


--
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)

Michele Andreoli

unread,
Sep 13, 2021, 8:50:03 PM9/13/21
to
Intanto, ti saluto, caro Elio! Sono felice di sentire che stai bene ....

> A questo punto è bene ricordare che la massa m di un elettrone è circa
> 10^(-30) kg. Teniamo presente questo numero.
> Se sul gate ci sono n elettroni in più, la massa aumenta di mn. se
> invece gli elettroni diminuiscono, la massa cala.
> Però, come ho già detto, quella massa viene o va da qualche altra
> parte: la massa della chiavetta non cambia.
>
> Però... scommetto che ci avete già pensato :)


In effetti, anche io mi sentirei di dire, come hai fatto tu, che il numero di elettroni nel dispositivo non deve cambiare nel processo di scrittura dei dati, dato che il dispositivo rimane neutro. Se i davvero il peso cambia, quindi, non è per questo.



Come detto nel post, mi piacerebbe ci fosse una soluzione slegata dal tipo di dispositivo particolare e dai principi fisici su sui esso si basa. Esempio: ora si sta parlando di memorie di massa a "transizione di fase", in cui gli elettroni non giocano nessun ruolo (mi pare, ma non ne so niente .... )



Per questo subito ho pensato all'entropia S, intesa in nel senso di Shannon, cioè come numero minimo di bit necessario per rappresentare la stringa di bit. In sostanza, S ci dice quanto è lungo il file dopo che lo abbiamo compresso. Una chiavetta formattata avrebbe quindi meno entropia di una in cui vi abbiano scritto dei dati, perchè i dati in essa contenuti hanno un grado di ripetitività più alto.


A questo punto, il salto carpiato: se dS>0, il primo principio della Termodinamica suggerisce che nel sistema deve essere entrata dell'energia (se T=cost e V=cost), e che quindi la massa complessiva deve essere aumentata, per la Relatività Speciale.

Problema: ma l'entropia di Shannon può essere usata nel Primo Principio delle Termodinamica??

> --
> Elio Fabri

ciao,
Michele

Giorgio Pastore

unread,
Sep 14, 2021, 2:35:03 AM9/14/21
to
Il 13/09/21 16:55, Elio Fabri ha scritto:
....
> Risposta: non lo so. Forse in Linux il comando dd lo permette.

Confermo dd if=/dev/zero of=/dev/XXX

con XXX il device da azzerare.

> Quello che so di sicuro è che dd è un comando pericolosissimo :-)

Solo se usato senza sapere cosa si sta facendo, come peraltro tutti i
comandi che modificano un disco.


.....
> Tanto meno questo è vero per i comandi di cancellazione di file (rm in
> Linux). Il comando si limita a dichiarare nulla la lunghezza del file
> e a rendere in qualche modo disponibili le parti di memoria che erano
> occupate da quel file.
> Anche qui potrebbe esistere un'opzione di cancellazione "hard", ma non
> ricordo.

Su Mac ho un'opzione di 'rm' (-P). Su Linux con le Gnu-utils occorre
usare shred.

>
> E con questo concludo sulla parte software.
....
> Visto che bisogna distinguere il gate carico da quello scarico, V non
> può essere tanto piccolo. Supponiamo V = 1 volt.
> La variazione di energia è C V^2/2 quindi la variazione di massa
>
> DM = C V^2/(2 c^2) = 5.6x10^(-30) kg
>
> Notate che è sempre DM>0.
> Quindi ogni gate carico aumenta la massa della chiavetta di DM.

La cosa interessante è che per una chiavetta da 1TB ~ 10^{13} bit la
varizione di massa sarebbe ~ 10^{-16} kg corrispondente ad una
variazione di peso ~ 1 fN. Con sensibilità dei microscopi a forza
atomica dell' ordine di 0.1pN ed ipotizzando che la legge di Moore
continui a valere per i dispositivi usb, tra una decina di anni saremmo
a valori misurabili (in linea puramente teorica).

Giorgio

Giorgio Pastore

unread,
Sep 14, 2021, 2:40:03 AM9/14/21
to
Il 13/09/21 21:00, Michele Andreoli ha scritto:
....
> Per questo subito ho pensato all'entropia S, intesa in nel senso di Shannon, cioè come numero minimo di bit necessario per rappresentare la stringa di bit. In sostanza, S ci dice quanto è lungo il file dopo che lo abbiamo compresso. Una chiavetta formattata avrebbe quindi meno entropia di una in cui vi abbiano scritto dei dati, perchè i dati in essa contenuti hanno un grado di ripetitività più alto.


Questa però non è l'entropia di Shannon ma l'entropia algoritmica
(Kolmogorov). La differenza fondamentale è che la prima è una proprietà
di una distribuzione di probabilità, mentre la seconda di un microstato.
>
>
> A questo punto, il salto carpiato: se dS>0, il primo principio della Termodinamica suggerisce che nel sistema deve essere entrata dell'energia (se T=cost e V=cost), e che quindi la massa complessiva deve essere aumentata, per la Relatività Speciale.
>
> Problema: ma l'entropia di Shannon può essere usata nel Primo Principio delle Termodinamica??

Tocchi un punto delicato nell' uso disinvolto dell'entropia nella fisica
contemporanea. Sicuramente ci sono sistemi fisici tali che la
probabilità dei microstati non dipende dall'energia. E anche per un
sistema hamiltoniano, il teorema di Louville richiede solo che gli stati
di equilibrio abbiano una distribuzione di probabilità funzione
dell'energia.

La mia risposta è che avere un'"entropia" non autorizza automaticamente
a parlare di termodinamica né di avere un "primo principio". Almeno non
nella forma ususale.

Giorgio

Elio Fabri

unread,
Sep 14, 2021, 4:42:03 AM9/14/21
to
Giorgio Pastore ha scritto:
> Solo se usato senza sapere cosa si sta facendo, come peraltro tutti i
> comandi che modificano un disco.
In linea di principio hai ragione, ma so che a me (che non so
moltissime cose di Linux) scoprire il comando dd ha fatto paura.
E' vero che per es. intervenire sulle partizioni con comandi come il
vecchio fdisk o le versioni più recenti può provocare disastri, ma è
più lontano il rischio dell'errore, per es. perchè prima di scrivere
la partition table sul disco viene chiesta conferma.
Con dd invece basta che ti scappi una lettera invece di un'altra in
of=... e sei fritto.
Come forse immagini, l'ho usato solo per creare una chiavetta bootable
da un'immagine iso di un SO.

Scusate l'OT. Torno al tema centrale.
> La cosa interessante è che per una chiavetta da 1TB ~ 10^{13} bit la
> varizione di massa sarebbe ~ 10^{-16} kg corrispondente ad una
> variazione di peso ~ 1 fN. Con sensibilità dei microscopi a forza
> atomica dell' ordine di 0.1pN ed ipotizzando che la legge di Moore
> continui a valere per i dispositivi usb, tra una decina di anni
> saremmo a valori misurabili (in linea puramente teorica).
Questo conferma quanto dicevo all'inizio, che la domanda implica
parecchi aspetti diversi.
Avrei però un dubbio: la sensibilità di 0.1pN entro quale limite di
peso vale?
--
Elio Fabri

Michele Andreoli

unread,
Sep 14, 2021, 1:30:03 PM9/14/21
to
Il giorno martedì 14 settembre 2021 alle 08:40:03 UTC+2 Giorgio Pastore ha scritto:

> Questa però non è l'entropia di Shannon ma l'entropia algoritmica
> (Kolmogorov). La differenza fondamentale è che la prima è una proprietà
> di una distribuzione di probabilità, mentre la seconda di un microstato.

Scusa, non sono un esperto di questa roba. Grazie della precisazione.



In effetti, era meglio dare come entropia S la definizione di Shannon ( cioè S=-<ln(p)>, dove p(i) sono le probabilità a priori con cui ci aspettiamo il simbolo (i)) dato che assomiglia molto di più a quella della Termodinamica di quella di Kolmogorov, che è invece connessa all'informazione di una singola stringa (mi pare di capire).

> > Problema: ma l'entropia di Shannon può essere usata nel Primo Principio delle Termodinamica??
> Tocchi un punto delicato nell' uso disinvolto dell'entropia nella fisica
> contemporanea. Sicuramente ci sono sistemi fisici tali che la
> probabilità dei microstati non dipende dall'energia.

Ma quali sono le differenze e le analogie tra l'entropia termodinamica e quella di Shannon?

In Shannon, abbiamo dei simboli (i) e la percentuale (media) p(i) con cui vengono "occupati" dai bit della sequenza. In Termodinamica abbiamo i livelli energetici (i) e i numeri di occupazione n(i).

Sembrano definzioni molto simili, ma le domande che vengono in mente sono tante.

Ma cosa succede se se questi livelli sono degeneri in energia?


La derivata dS/dE, per esempio, è sempre positiva? In termodinamica, la derivata fa 1/T, ma con l'entropia di Shannon? Va considerata T=infinito?


Nei testi di termodinamica statistica, S viene introdotta come funzionale, e l'equilibrio cercato annullandone le derivate rispetto ai numeri di occupazione.
Perchè non potrebbe essere la stessa cosa anche per l'entropia di Shannon?

> Giorgio

ciao

Giorgio Pastore

unread,
Sep 14, 2021, 4:50:04 PM9/14/21
to
Il 14/09/21 13:04, Michele Andreoli ha scritto:
> Il giorno martedì 14 settembre 2021 alle 08:40:03 UTC+2 Giorgio Pastore ha scritto:
>
>> Questa però non è l'entropia di Shannon ma l'entropia algoritmica
>> (Kolmogorov). La differenza fondamentale è che la prima è una proprietà
>> di una distribuzione di probabilità, mentre la seconda di un microstato.
>
> Scusa, non sono un esperto di questa roba. Grazie della precisazione.
>
>
>
> In effetti, era meglio dare come entropia S la definizione di Shannon ( cioè S=-<ln(p)>, dove p(i) sono le probabilità a priori con cui ci aspettiamo il simbolo (i)) dato che assomiglia molto di più a quella della Termodinamica di quella di Kolmogorov, che è invece connessa all'informazione di una singola stringa (mi pare di capire).

Esiste un teorema che dice che il valor medio dell'entropia di K. è ben
approssimato dall'entropia di Shannon. Sul significato delle p(i), sono
probabilità qualsiasi interpretzione si scelga.



>
>>> Problema: ma l'entropia di Shannon può essere usata nel Primo Principio delle Termodinamica??
>> Tocchi un punto delicato nell' uso disinvolto dell'entropia nella fisica
>> contemporanea. Sicuramente ci sono sistemi fisici tali che la
>> probabilità dei microstati non dipende dall'energia.
>
> Ma quali sono le differenze e le analogie tra l'entropia termodinamica e quella di Shannon?
>
> In Shannon, abbiamo dei simboli (i) e la percentuale (media) p(i) con cui vengono "occupati" dai bit della sequenza. In Termodinamica abbiamo i livelli energetici (i) e i numeri di occupazione n(i).

il confronto va fatto a 3:
1. entropia termodinamica
2. entropie della meccanica statistica (in principio ogni ensemble ne ha
almeno una)
3. entropia di Shannon

In generale non sono equivalenti. 2 => 1 solo al limite termodinamico,
se esiste. Ovvero solo per sistemi "grandi".
3 =>2 solo se le p(i) sono le probabilità dei microstati di un istema
all'equilibrio con le condizioni al controno corrispondenti ai diversi
ensemble. Ma ci sono molte più distribuzioni di probabilità di quelle
all'equilibrio.

Perciò 3 è più generale di 2 che lo è di 1.
Da notare che le entropie (2) non necessariamente garantiscono le
condizioni per la validità del II principio della termodinamica nelle
formulazioni classiche (Clausius/Kelvin).

> Sembrano definzioni molto simili, ma le domande che vengono in mente sono tante.
>
> Ma cosa succede se se questi livelli sono degeneri in energia?

Appunto. C'e' una linea di pensioero in fisica che parte dal presupposto
che qualsiasi cosa si comporti come l'entropia debba essere
*l'entropia*, dando per scontata una unicità tutta da dimostrare.

> La derivata dS/dE, per esempio, è sempre positiva? In termodinamica, la derivata fa 1/T, ma con l'entropia di Shannon? Va considerata T=infinito?

Già con la meccanica statistica vengono fuori i problemi. Per un sistema
isolato ci sono in giro 3 definizioni di entropia

S1 = k log Sigma
S2 = k log Gamma
S3 = k log omega
dove
Sigma = numero di stati fino ad energia E
Gamma = numero di stati a energia E
omega = d SIGMA / dE

Le definizioni sono ovviamente diverse ma comportano la stessa entropia
per unità di volume o per particella al limite termodinamico.
Una delle differenze è che S1 è per costruzione strettamente monotona in
energia mentre S2 no. Col risultato che S2 può descrivere sistemi finiti
con inversione di popolazione (temperature negative) meglio di S1. Per
sistemi "normali" sono invece indistinguibili.
>
>
> Nei testi di termodinamica statistica, S viene introdotta come funzionale, e l'equilibrio cercato annullandone le derivate rispetto ai numeri di occupazione.
> Perchè non potrebbe essere la stessa cosa anche per l'entropia di Shannon?

Infatti si fa anche con l'entropia di Shannon. Solo che se le p(i) non
dipendono da un'energia tutte le implicazioni energetiche cascano. E
parlare di energia (termodinamica) e calore diventa un uso improprio dei
termini.

In generale, la maggior parte delle difficoltà in questo ambito nascono
dal trascurare l'importanza del requisito di "limite termodinamico" per
ritrovare la termodinamica classica dalla meccanica statistica.
Fuorviati dagli esempi "banali" a base di gas perfetti, tendiamo a
pensare che il comportamente termodinamico corretto sia presente per
qualsiasi taglia del sistema. Non è così. Purtroppo o per fortuna.

Giorgio

Michele Andreoli

unread,
Sep 15, 2021, 10:45:03 AM9/15/21
to
Il giorno martedì 14 settembre 2021 alle 22:50:04 UTC+2 Giorgio Pastore ha scritto:
>
> In generale, la maggior parte delle difficoltà in questo ambito nascono
> dal trascurare l'importanza del requisito di "limite termodinamico" per
> ritrovare la termodinamica classica dalla meccanica statistica.
> Fuorviati dagli esempi "banali" a base di gas perfetti, tendiamo a
> pensare che il comportamente termodinamico corretto sia presente per
> qualsiasi taglia del sistema. Non è così. Purtroppo o per fortuna.
>

Qui, però, pensando ad un disco di 16Giga, abbiamo a che fare con miliardi di bit, per cui ho supposto che il limite
termodinamico non disti molto: una simulazione al computer non darebbe risultati apprezzabilmente diversi, credo.

Riassumendo la discussione, possiamo dunque dire (correggimi se riassumo male):

Sulla base del solo aumento dell'entropia S (da disco "vuoto" a disco "pieno") ,
non è possibile affermare che aumenta anche l'energia E,e quindi la massa.

Per poterlo dire, la probabilità degli stati p(i) (in questo caso del bit 0 e 1) deve
dipendere dall'energia. E la cosa torna abbastanza perchè, se per flippare un bit da 0 ad 1 non devo spendere energia, non si capisce
come mai se ne ritroverebbe di più nella memoria flash stessa.

Possiamo quindi affermare che dE/dS >0, ma gli stati non deveono essere totalmente degeneri in E.

> Giorgio

ciao, e grazie per la discussione

Angelo M.

unread,
Sep 15, 2021, 10:45:04 AM9/15/21
to
Per entrare nel merito, è forse necessario citare un costrutto teorico che Vopson ha proposto nel 2019, chiamato principio di equivalenza massa-energia-informazione.

Il lavoro è ispirato alla ricerca del fisico Rolf Landauer che, nel 1961, propose per primo un collegamento tra termodinamica ed informazione, postulando che l’irreversibilità logica di un processo computazionale implica l’irreversibilità fisica.


Poiché i processi irreversibili sono dissipativi, risulta che l’irreversibilità logica è anche un processo dissipativo e, per estrapolazione, l’informazione è fisica.


Distruggere un bit di informazioni richiede una dissipazione di energia e, analogamente, a causa della legge di conservazione dell’energia, è necessario un input di energia dello stesso valore per creare un bit di informazione.





Se consideriamo la chiavetta USB come un sistema fisico isolato, l’entropia totale del nostro sistema dispositivo di memoria è costituita dall’entropia fisica, relativa agli stati privi di informazione, e dall’entropia informativa, caratteristica degli stati portatori di informazione. L’esecuzione di un’operazione logica irreversibile come una cancellazione, porta il sistema a diminuire la seconda ma ad aumentare la prima, perché la seconda legge della termodinamica afferma che la variazione di entropia totale non può diminuire nel tempo.
Tale cambiamento, si manifesta attraverso una dissipazione di energia termica.


Questo principio, dimostrato sperimentalmente, ha condotto Vopson ad ipotizzare che un bit di informazione digitale ha una massa finita e quantificabile.


Con un po’ di calcoli, «la massa di un bit di informazione a temperatura ambiente è 3,19 × 10-38 Kg». Per un dispositivo da 1 TB la variazione di massa stimata è di 2,5 × 10-25 kg». Questo aumento teorico di massa è probabilmente misurabile.

Giorgio Pastore

unread,
Sep 15, 2021, 11:35:03 AM9/15/21
to
Il 15/09/21 14:04, Michele Andreoli ha scritto:
> Il giorno martedì 14 settembre 2021 alle 22:50:04 UTC+2 Giorgio Pastore ha scritto:
>>
>> In generale, la maggior parte delle difficoltà in questo ambito nascono
>> dal trascurare l'importanza del requisito di "limite termodinamico" per
>> ritrovare la termodinamica classica dalla meccanica statistica.
>> Fuorviati dagli esempi "banali" a base di gas perfetti, tendiamo a
>> pensare che il comportamente termodinamico corretto sia presente per
>> qualsiasi taglia del sistema. Non è così. Purtroppo o per fortuna.
>>
>
> Qui, però, pensando ad un disco di 16Giga, abbiamo a che fare con miliardi di bit, per cui ho supposto che il limite
> termodinamico non disti molto: una simulazione al computer non darebbe risultati apprezzabilmente diversi, credo.

Ci sono cose che si possono stimare benissimo con 32 gradi di libertà e
altre che non verranno mai fuori senza arrivare a infinito. Un esempio
ben noto è la magnetizzazione spontanea in un modello di Ising (momenti
magnetici elementari (m_i) di valore +1 e -1 che interagiscono con un
campo magnetico esterno e in più hanno un'interazione a coppie del tipo

-J*m_i*m_j

con m_i e m_j momenti magnetici di siti primi vicini e J costante
positiva).

Per qualsiasi valore finito del numero di siti del sistema, il valore
medio <m_i> è nullo. Solo al limite termodinamico diventa possibile
avere <m_i>=M diverso da zero.

>
> Riassumendo la discussione, possiamo dunque dire (correggimi se riassumo male):
>
> Sulla base del solo aumento dell'entropia S (da disco "vuoto" a disco "pieno") ,
> non è possibile affermare che aumenta anche l'energia E,e quindi la massa.

Anche perché resta mal definita quale è l'entropia che aumenta.

In ogni caso io sospenderi il giudizio su quello che succede finché non
si chiarisce di quale entropia si sta parlando. Si possono introdurre
delle entropie (plurale) per sistemi finiti, ma queste non hanno nessun
obbligo di coincidere con l'entropia (singolare) termodinamica.

Giorgio

Giorgio Pastore

unread,
Sep 15, 2021, 11:35:03 AM9/15/21
to
Il 15/09/21 11:36, Angelo M. ha scritto:
....
> Per entrare nel merito, è forse necessario citare un costrutto teorico che Vopson ha proposto nel 2019, chiamato principio di equivalenza massa-energia-informazione.
>
> Il lavoro è ispirato alla ricerca del fisico Rolf Landauer che, nel 1961, propose per primo un collegamento tra termodinamica ed informazione, postulando che l’irreversibilità logica di un processo computazionale implica l’irreversibilità fisica.
>
>
> Poiché i processi irreversibili sono dissipativi, risulta che l’irreversibilità logica è anche un processo dissipativo e, per estrapolazione, l’informazione è fisica.

Già qui stiamo su un terreno che io chiamo "fare teoria (magari anche
buona) ma camminando sul ghiaccio". Sono implicazioni a prima vista
ovvie. Poi a pensar meglio tanto ovvie non sono e richiederebbero
spiegazioni e definizioni addizionali.
Esempio: come definisce L. "irreversibile" e "dissipativo"? Sembra
banale ma si possono avere processi irreversibili a artire da sistemi
hamiltoniani perfettamente conservativi. (Il trucco sta sempre
nell'andare a sistemi infiniti).


> Distruggere un bit di informazioni richiede una dissipazione di energia e, analogamente, a causa della legge di conservazione dell’energia, è necessario un input di energia dello stesso valore per creare un bit di informazione.

E cosa vuol dire distruggere un bit? Su un computer reale cancellare un
bit significa scrivere 0 o 1 indipendentemente dal contenuto originale
del bit. Quindi, qualsiasi cosa sipossa dire per "cancellare un bit"
deve potersi dire per "scrivere scrivere un bit".

Questo non toglie nulla al fatto banale che l'informazione non è
rappresentata nell'iperuranio ma corrisponde allo stato di un sistema
fisico. E agli stati dei sistemi fisici corrisponde sempre un'energia.
Per variare uno stato occorre interazione con qualcosa di esterno e di
nuovo interazione porta ad un'energia. Anche nei casi in cui lo scambio
netto è nullo.


>
> Se consideriamo la chiavetta USB come un sistema fisico isolato, l’entropia totale del nostro sistema dispositivo di memoria è costituita dall’entropia fisica, relativa agli stati privi di informazione, e dall’entropia informativa, caratteristica degli stati portatori di informazione.

Ma se l'informazione è rappresentata da particolari configurazioni
elettrostatiche, anche a questa è associata un'energia fisica. Su che
base le separi?

L’esecuzione di un’operazione logica irreversibile come una
cancellazione, porta il sistema a diminuire la seconda ma ad aumentare
la prima, perché la seconda legge della termodinamica afferma che la
variazione di entropia totale non può diminuire nel tempo.

Giustificare ber bene ogni parola della frase precedente richiederebbe
uno sforzo non da poco e, a mia conoscenza, nessuno si è premurato di
farlo finora. La sensazione di restare nell' "handwaiving" resta molto
forte. Poi ci si può anche prendere. O si possono fare scivoloni...

> Tale cambiamento, si manifesta attraverso una dissipazione di energia termica.
>
>
> Questo principio, dimostrato sperimentalmente, ha condotto Vopson ad ipotizzare che un bit di informazione digitale ha una massa finita e quantificabile.

Questo in sé non è sorprendente se si parte dall'idea che la
rappresentazione di un bit è un sistema fisico.

La parte difficilee è la quantificazione :
> Con un po’ di calcoli, «la massa di un bit di informazione a temperatura ambiente è 3,19 × 10-38 Kg». Per un dispositivo da 1 TB la variazione di massa stimata è di 2,5 × 10-25 kg». Questo aumento teorico di massa è probabilmente misurabile.

Con questi ordini di grandezza, la vedo difficile.


Giorgio

Giorgio Pastore

unread,
Sep 15, 2021, 6:45:02 PM9/15/21
to
Il 15/09/21 17:29, Giorgio Pastore ha scritto:
....
> Per qualsiasi valore finito del numero di siti del sistema, il valore
> medio <m_i> è nullo. Solo al limite termodinamico diventa possibile
> avere <m_i>=M diverso da zero.

Dimenticavo la condizione importante: **a campo magnetico esterno nullo**

Elio Fabri

unread,
Sep 16, 2021, 6:30:03 AM9/16/21
to
Giorgio Pastore ha scritto:
> Giustificare per bene ogni parola della frase precedente
> richiederebbe uno sforzo non da poco e, a mia conoscenza, nessuno si
> è premurato di farlo finora. La sensazione di restare nell'
> "handwaving" resta molto forte. Poi ci si può anche prendere. O si
> possono fare scivoloni...
In effetti...
Sono andato a leggere l'articolo di Vopson ma mi sono fermato subito,
perché ci sono un sacco di cose che non capisco.

Esempio:
"A computational process creates digital information via some sort of
physical process"
Io già non capisco come un calcolo possa creare informazione.
So benissimo che da un po' di tempo a questa parte un sacco di fisici
riempiono i loro scritti di "informazione" in tutte le salse, senza
mai definire ciò di cui parlano.
Mi sembra anzi che quella parola se significa qualcosa non abbis
niente a che vedere con quella di Shannon.
Ma se non si sa di che informazione si sta parlando, come si fa a
connetterla con qualsiasi entropia?

Altro esempio la fig. 1, dove ci sono tre esempi di "erase":
- mettere tutti i bit a 0
- mettere tutti i bit a 1
- mettere tutti i bit in "neither 0, nor 1 state".
Quest'ultima l'autore la chiama "true erase operation".
Nel testo fa l'esempio di una memoria magnetica e secondo lui il vero
"erase" significherebbe portare tutti i bit in uno stato di "total
demagnetization" in modo che non si possa identificare né un 1 né uno
0.
Che provasse a dirlo a un ingegnere elettronico...
--
Elio Fabri

Roberto Deboni DMIsr

unread,
Sep 16, 2021, 9:30:05 PM9/16/21
to
On 16/09/2021 12:25, Elio Fabri wrote:
> Giorgio Pastore ha scritto:
> > Giustificare per bene ogni parola della frase precedente
> > richiederebbe uno sforzo non da poco e, a mia conoscenza, nessuno si
> > è premurato di farlo finora. La sensazione di restare nell'
> > "handwaving" resta molto forte. Poi ci si può anche prendere. O si
> > possono fare scivoloni...
> In effetti...
> Sono andato a leggere l'articolo di Vopson ma mi sono fermato subito,
> perché ci sono un sacco di cose che non capisco.
>
> Esempio:

> "A computational process creates digital information via some sort of
> physical process"

La deve vedere come la definizione di "informazione digitale",
cio' che viene prodotta dai processi di calcolo.

> Io già non capisco come un calcolo possa creare informazione.

Lei pensa a "informazione" come un "laico della fisica" intende
lavoro rispetto a cio' che e' il "lavoro" per la fisica.
Invece nella teoria della informazione, il termine "informazione"
ha un significato ben preciso, come "lavoro" lo ha nella fisica.
Ripeto, cio' che non ha capito e' in realta' una semplice
definizione, quindi non c'e' nulla da capire :-)

> So benissimo che da un po' di tempo a questa parte un sacco di fisici
> riempiono i loro scritti di "informazione" in tutte le salse, senza
> mai definire ciò di cui parlano.

Non ho presente chi siano questi "fisici", ma ho studiato Shannon
fin dalla fine degli anni '70, dove "informazione" era una variabile
ben definita e misurabile.

> Mi sembra anzi che quella parola se significa qualcosa non abbis
> niente a che vedere con quella di Shannon.

Proviamo cosi': se guardiamo al singolo evento digitale, potremo
anche dimostrare una violazione della regola, ma provi a vedere
la cosa in modo "termodinamico". Ovvero, guardiamo alle celle di
memoria in massa, come un sistema termodinamico, ed ecco allora
che tutto ha un senso ... statistico :-)

> Ma se non si sa di che informazione si sta parlando, come si fa a
> connetterla con qualsiasi entropia?

L'informazione e' semplicemente cio' che viene prodotto dal
calcolo. Termodinamicamente non serve entrare nel caso dello
specifico risultato, anzi e' controproducente (un sistema
termodinamico, in astratto si potrebbe calcolare considerando
la singola particella ... avendo sufficiente capacita' di
calcolo, ma nella pratica siamo felici della approssimazione
termodinamica considerando l'insieme statistico).

> Altro esempio la fig. 1, dove ci sono tre esempi di "erase":
> - mettere tutti i bit a 0
> - mettere tutti i bit a 1
> - mettere tutti i bit in "neither 0, nor 1 state".
> Quest'ultima l'autore la chiama "true erase operation".

E l'entropia pura ...

> Nel testo fa l'esempio di una memoria magnetica e secondo lui il vero
> "erase" significherebbe portare tutti i bit in uno stato di "total
> demagnetization" in modo che non si possa identificare né un 1 né uno
> 0.

> Che provasse a dirlo a un ingegnere elettronico...

Che direbbe cosa ?

Roberto Deboni DMIsr

unread,
Sep 17, 2021, 7:05:03 AM9/17/21
to
On 13/09/2021 16:55, Elio Fabri wrote:

8>< ----

> E' possibile con opportuni comandi imporre la scrittura su una
> determinata prozione di disco di tutti 00?
> Risposta: non lo so. Forse in Linux il comando dd lo permette.
> Quello che so di sicuro è che dd è un comando pericolosissimo :-)

La potenza assoluta e' carica del fardello della totale
responsabilita' ;-)

Se sbaglio il comando "dd" non ci sono scuse (ho fatto prima
un diligente backup ?)

Soviet_Mario

unread,
Sep 17, 2021, 8:18:02 AM9/17/21
to
Il 16/09/21 22:13, Roberto Deboni DMIsr ha scritto:
e cmq per usare dd e altri, serve avere scalato i privilegi
di root con su/sudo, che malneva il sistema dalla
responsabilità delle cazzate fatte
:D

Soviet_Mario

unread,
Sep 17, 2021, 8:18:03 AM9/17/21
to
Il 16/09/21 22:09, Roberto Deboni DMIsr ha scritto:
> On 16/09/2021 12:25, Elio Fabri wrote:
>> Giorgio Pastore ha scritto:
>>  > Giustificare per bene ogni parola della frase precedente
>>  > richiederebbe uno sforzo non da poco e, a mia
>> conoscenza, nessuno si
>>  > è premurato di farlo finora. La sensazione di restare
>> nell'
>>  > "handwaving" resta molto forte. Poi ci si può anche
>> prendere. O si
>>  > possono fare scivoloni...
>> In effetti...
>> Sono andato a leggere l'articolo di Vopson ma mi sono
>> fermato subito,
>> perché ci sono un sacco di cose che non capisco.
>>
>> Esempio:
>
>> "A computational process creates digital information via
>> some sort of
>> physical process"
>
> La deve vedere come la definizione di "informazione digitale",
> cio' che viene prodotta dai processi di calcolo.

ma quella giustamente non è informazione creata : quei dati
non aggiungono nulla all'informazione contenuta
nell'algoritmo stesso. In altre parole un algoritmo è la
forma più compressa che si può produrre a partire
dall'insieme (completo ? campioni ?) di dati.

O detto diversamente i dati prodotti hanno ridondanza
informazionale.

Cmq ai fini del peso, per stimare l'entropia di tali dati,
penso conti solo la loro massima compressibilità teorica :
più sono comprimibili più sono ordinati. E in teoria un
insieme di dati generati algoritmicamente senza sorgenti di
rumore esterno, è comprimibile al massimo alle informazioni
codificate nell'algoritmo stesso, operatori, parametri,
scelte, etc.

Una sorgente stocastica pura, che produce dati
incomprimibili con qualsiasi algoritmico, equivarrebbe alla
chiavetta con la massima entropia.

Ad ogni modo io resto del punto di vista che ANCHE l'aspetto
energetico, scaturente dalle relazioni di prossimità tra
magneti e/o condensatori, coi loro piccoli campi che
interagiscono lateralmente in modo diverso secondo le
orientazioni relative, e eventualmente persino tensioni
meccaniche generate e congelate nel materiale, diano un loro
proprio contributo "energetico" alla massa totale.
questo punto non mi era chiaro per niente.
Fermo restando che l'informazione è stoccata in forma
ANALOGICA (una % della saturazione magnetica, una frazione
della carica totale che il condensatore può portare, etc),
che viene poi digitalizzata mediante interpretazione
(immagino del tipo : se la magnetizzazione supera una data
soglia, forse arbitraria forse no, allora il BIT è letto 1,
se è inferiore è letto 0), non capisco né il senso né il
modo di scrivere un bit "fuzzy".
Come si comporta la testina o il "lettore" della quantità
analogica, quando la quantità memorizzata ha esattamente il
valore soglia ? Mi verrebbe da pensare "undefined".

Mettere tutti i granuli analogici a questo valore (costante
e uniforme) della magnetizzazione o della carica, cmq, non
mi pare affatto uno stato di massima entropia del sistema,
anzi, mi pare equiparabile ai due sistemi estremi tutti 1 o
tutti 0 in senso entropico-statistico ... in senso
energetico l'interazione dovrebbe essere più debole però.

Una vera randomizzazione "fisica" (= analogica) produrrebbe
una distribuzione caotica dei valori della grandezza
(magnetizzazione o carica immagazzinata), che poi verrebbe
letta come una certa frazione di bit 1 e 0 (in circa uguali
quantità) più una certa altra frazione di bit "undefined",
la cui frequenza è proporzionale all'ampiezza del range
(centrato sul valore di soglia) nel quale la testina si
rifiuta di interpretare il bit come sufficientemente nitido.

Pur non sapendo niente mi sembrerebbe strano che la testina
sia costretta a interpretare sempre e comunque in modo
dicotomico. Dovrebbe pur essere cosciente di campi troppo
deboli (bit smagnetizzato) e non produrre una lettura logica
valida (restituendo boh, forse appunto undefined, forse
errore di lettura o chissà)


>> Quest'ultima l'autore la chiama "true erase operation".
>
> E l'entropia pura ...
>
>> Nel testo fa l'esempio di una memoria magnetica e secondo
>> lui il vero
>> "erase" significherebbe portare tutti i bit in uno stato
>> di "total
>> demagnetization" in modo che non si possa identificare né
>> un 1 né uno
>> 0.

In questo senso cmq è abbastanza diverso il caso di una
cella MAGNETICA vs una cella a CONDENSATORE.

Il magnetismo ha in effetti un segno, e lo zero della scala
è ragionevolmente uno stato smagnetizzato o a
magnetizzazione in valore assoluto troppo debole.

Invece con la carica, vista la presenza di diodi, non saprei
se si possa polarizzare un condensatore in entrambi i sensi,
e boh, mi verrebbe da pensare che la carica assuma solo i
valori negativi (o solo positivi), zero incluso.

Lo stato totalmente smagnetizzato, corrisponde di certo alla
MASSIMA entropia FISICA (nel senso che i domini magnetici,
che esistono perché ci sono sempre nei ferromagnetici, sono
orientati A CASO), ma non è certo la massima entropia LOGICA
(perché sono tutti bit erased / undefined, è uno stato molto
uniforme).
Penserei che ai fini della massa, conti la prima, e la
seconda solo in modo indiretto, mediato dalla prima.

La situazione invece di bit 1 e 0 random, totalmente random,
comporta disordine a scala grossa (in senso atomico) ma
ancora ordine locale, perché esistono larghi raggruppamenti
di domini magnetici orientati nei dintorni della
"parallelitudine" (lol)

in effetti l'argomento entropia in senso "materiale"
(analogico) e in senso digitale non mi sembra poi così univoco

>
>> Che provasse a dirlo a un ingegnere elettronico...
>
> Che direbbe cosa ?


Michele Andreoli

unread,
Sep 17, 2021, 6:05:02 PM9/17/21
to
Il giorno venerdì 17 settembre 2021 alle 14:18:03 UTC+2 Soviet_Mario ha scritto:

> Il magnetismo ha in effetti un segno, e lo zero della scala
> è ragionevolmente uno stato smagnetizzato o a
> magnetizzazione in valore assoluto troppo debole.
>
> Invece con la carica, vista la presenza di diodi, non saprei
> se si possa polarizzare un condensatore in entrambi i sensi,
> e boh, mi verrebbe da pensare che la carica assuma solo i
> valori negativi (o solo positivi), zero incluso.

Scusa, non capisco bene il tuo ragionamento sui "segni", ma il condensatore è un ottimo modello di memoria binaria,
e forse ci permette di chiarirci le idee.

Se assumiamo come 1 il condensatore carico (q!=0), e come 0 il condesatore scarico (q=0),
quello che possiamo dire di sicuro è che l'energia necessaria per caricarlo è q^2/2C, ed è l'energia che
ci ritroviamo come campo elettrico nello spazio tra le piastre.

Un condensatore carico quindi pesa di più di uno scarico.

Dato che i condensatori non interagiscono tra di loro,
l'energia di una rete di condensatori dipende solo dal numero di condensatori carichi,
ed è massima quando sono tutti carichi {11111 ....}, e minima quando sono tutti scarichi {0000....},
con valori intermedi nelle altre disposizioni {100100111 ...}.

Tutto sta ora a capire cosa significa memoria "vuota" e memoria "piena" . Secondo me, questo è il punto
dove interviene il concetto di entropia in senso informatico: per definire il "vuoto" e il "pieno" non possiamo riferirci
al numero di bit accessi (e quindi all'energia), ma all'informazione estraibile da esso.

Una soluzione è proprio la definizione di Kolmogorov: di quanto si "accorcia" la stringa se la comprimo? Chiamerò "vuoto" il file che
si comprime di più, e "pieno" quello che si comprime di meno. In questo modo avremo due possibili vuoti: {11111 ....} e {0000....}, entrambi
ad entropia minima, perchè massimamente comprimibili.

Se assumiamo come "vuoto" la configurazione {000000 ...}, non appena riempiamo il filesistem con "qualcosa", necessariamente aumenterà

l'energia (e anche l'entropia). Se anche la "formattazione" introducesse qualche sporadico "1" , qua e là, come segnaposto nel filesystem, questo non cambierebbe granchè il ragionamento: il vuoto avrebbe comunque l'entropia minore.

Un tale dispositivo a condensatori pesa , quindi, più da "pieno" che da "vuoto" .

Se, al contrario, assumiamo come "pieno" la configurazione {11111 ....}, succede l'esatto contrario: i dispositivo diventa più leggereo scrivendoci sopra.

Anche in questo semplice modello, quindi, non è automatico che a maggiore entropia corrisponda un maggior peso: bisogna anche stabilire
con quale convenzione è stato formattato.

ciao,
michele

Soviet_Mario

unread,
Sep 17, 2021, 6:42:02 PM9/17/21
to
Il 17/09/21 18:55, Michele Andreoli ha scritto:
> Il giorno venerdì 17 settembre 2021 alle 14:18:03 UTC+2 Soviet_Mario ha scritto:
>
>> Il magnetismo ha in effetti un segno, e lo zero della scala
>> è ragionevolmente uno stato smagnetizzato o a
>> magnetizzazione in valore assoluto troppo debole.
>>
>> Invece con la carica, vista la presenza di diodi, non saprei
>> se si possa polarizzare un condensatore in entrambi i sensi,
>> e boh, mi verrebbe da pensare che la carica assuma solo i
>> valori negativi (o solo positivi), zero incluso.
>
> Scusa, non capisco bene il tuo ragionamento sui "segni", ma il condensatore è un ottimo modello di memoria binaria,
> e forse ci permette di chiarirci le idee.
>
> Se assumiamo come 1 il condensatore carico (q!=0),

circa questo punto, stavo sottolineando che isolatamente un
condensatore con una data polarizzazione (non ha carica
netta, ha una SEPARAZIONE di cariche) in valore assoluto,
potrebbe presentarla in due polarità opposte.
Però se inserito in un circuito con anche qualche diodo,
chiaramente potrebbe erogarla solo se polarizzato in modo
"diretto" e non "inverso", non so se ora mi sono capito :D

> e come 0 il condesatore scarico (q=0),
> quello che possiamo dire di sicuro è che l'energia necessaria per caricarlo è q^2/2C, ed è l'energia che
> ci ritroviamo come campo elettrico nello spazio tra le piastre.

okay. Cmq io non parlavo del contenuto energetico del
singolo condensatore, ma delle interazioni di campo
elettrostatico con quelli vicini, che potrebbero rendere
energeticamente diverse, nel complesso, configurazioni a
diversa entropia.

Pensiamo ad es. a una griglia di condensatori a scacchiera,
popolata per metà di condensatori carichi e metà scarichi.

Potremmo avere quelli carichi come le caselle nere della
scacchiera, mediamente lontane tra loro. Oppure avere
cariche tutte le caselle adiacenti di metà scacchiera.

Oltre alla differente entropia delle due configurazioni,
energeticamente non mi sembrano equivalenti

>
> Un condensatore carico quindi pesa di più di uno scarico.

sono d'accordo su questo, e sicuramente è un effetto più
marcato dell'interazione "laterale" che dicevo

>
> Dato che i condensatori non interagiscono tra di loro,

mmm, e come mai ? Cosa scherma così tanto i campi
elettrostatici. Un po' di linee di campo escono dalle
armature, per effetto bordo. E in particolare per componenti
non fatti da piastre infinite, ma miniaturizzate e
vicinissime ...

> l'energia di una rete di condensatori dipende solo dal numero di condensatori carichi,
> ed è massima quando sono tutti carichi {11111 ....}, e minima quando sono tutti scarichi {0000....},
> con valori intermedi nelle altre disposizioni {100100111 ...}.
>
> Tutto sta ora a capire cosa significa memoria "vuota" e memoria "piena" . Secondo me, questo è il punto
> dove interviene il concetto di entropia in senso informatico: per definire il "vuoto" e il "pieno" non possiamo riferirci
> al numero di bit accessi (e quindi all'energia), ma all'informazione estraibile da esso.
>
> Una soluzione è proprio la definizione di Kolmogorov: di quanto si "accorcia" la stringa se la comprimo? Chiamerò "vuoto" il file che

> si comprime di più, e "pieno" quello che si comprime di meno. In questo modo avremo due possibili vuoti: {11111 ....} e {0000....}, entrambi
> ad entropia minima, perchè massimamente comprimibili.

si ma occhio alla compressione dello stato digitale-logico.
Imho la questione della massa è più correlata agli stati
analogici sottostanti, a prescindere dalle convenzioni per
come poi siano interpretati digitalizzando le letture.

>
> Se assumiamo come "vuoto" la configurazione {000000 ...}, non appena riempiamo il filesistem con "qualcosa", necessariamente aumenterà
>

> l'energia (e anche l'entropia). Se anche la "formattazione" introducesse qualche sporadico "1" , qua e là, come segnaposto nel filesystem, questo non cambierebbe granchè il ragionamento: il vuoto avrebbe comunque l'entropia minore.
>
> Un tale dispositivo a condensatori pesa , quindi, più da "pieno" che da "vuoto" .
>

> Se, al contrario, assumiamo come "pieno" la configurazione {11111 ....}, succede l'esatto contrario: i dispositivo diventa più leggereo scrivendoci sopra.
>
> Anche in questo semplice modello, quindi, non è automatico che a maggiore entropia corrisponda un maggior peso: bisogna anche stabilire
> con quale convenzione è stato formattato.
>
> ciao,
> michele
>


Giorgio Pastore

unread,
Sep 17, 2021, 7:20:03 PM9/17/21
to
Il 16/09/21 22:09, Roberto Deboni DMIsr ha scritto:
....
> Lei pensa a "informazione" come un "laico della fisica" intende
> lavoro rispetto a cio' che e' il "lavoro" per la fisica.
> Invece nella teoria della informazione, il termine "informazione"
> ha un significato ben preciso, come "lavoro" lo ha nella fisica.
> Ripeto, cio' che non ha capito e' in realta' una semplice
> definizione, quindi non c'e' nulla da capire :-)

La fai facile. Nella teoria dell' informazione il significato dell'
informazione è cambiato da Shannon in poi, per meglio dire si sono
aggiunti significati ulteriori. Una rappresentazione più fedele della
situazione (non sorprendentemente date le relazioni strette) è che, come
nel caso dell' entropia sarebbe meglio parlare di "entropie", anche nel
caso dell' informazione ci sono concetti correlati ma differenti.

Cito da un testo avanzato di informatica ( Ming Li, Paul Vitanyi "An
Introduction to Kolmogorov Complexity and Its Applications" 3rd ed.
Springer, 2008:
"The paradigms in the computation, manipulation, and transmission of
information shift increasingly from being random-variable oriented to
individual-object oriented. In theoretical terms, this means a shift
from classical information theory to Kolmogorov complexity theory.
....
Shannon ignores the object itself but considers only the characteristics
of the random source of which the object is one of the possible
outcomes, while Kolmogorov considers only the object itself to determine
the number of bits in the ultimate compressed version irrespective of
the manner in which the object arose.
"

Inoltre, proprio avendo ben presenti le possibili definizioni di
informazione, alcune delle affermazioni che girano in fisica
assomigliano più a voli pindarici che ad attente manipolzioni della
definizione.

....
>> Ma se non si sa di che informazione si sta parlando, come si fa a
>> connetterla con qualsiasi entropia?
>
> L'informazione e' semplicemente cio' che viene prodotto dal
> calcolo.

Già questa è una definizione diversa da quella usata nella teoria di
Shannon o in quella di Kolmogorov.

Un calcolo dal punto di vista informatico-algoritmico (nonché di
ingegneria elettronica) è rappresentato dalla sequenza delle
trasformazioni di un sistema a stati finiti.

In che modo lo associ alla definizione di Shannon in cui l'informazione
è associata ad un evento di uno spazio di probabilità ed è quantificata
da log(1/p_i) se p_i è la probabilità di quell'evento?

Secondo me, se trovi la connessione, ti accorgi che informazione non è
"semplicemente cio' che viene prodotto dal calcolo".

....

>> Nel testo fa l'esempio di una memoria magnetica e secondo lui il vero
>> "erase" significherebbe portare tutti i bit in uno stato di "total
>> demagnetization" in modo che non si possa identificare né un 1 né uno
>> 0.
>
>> Che provasse a dirlo a un ingegnere elettronico...
>
> Che direbbe cosa ?

Che nell'elettronica digitale non si fanno calcoli con elementi in stato
indefinito o, peggio, intermedio tra 0 e 1. Di fatto la mitica
"cancellazione" è sempre un operazione di scrittura. Ed è la scrittura
senza salvataggio dello stato precedente che è il processo
"irreversibile". Ma questo è un punto su cui spesso si leggono
affermazioni strane.

In generale, il problema non è che non si possa partire da definizioni
pulite di informazione e trarne conseguenze fisiche. Piuttosto che molto
di quello che si scrive in fisica sull' informazione è scritto in modo
sciatto, a volte giocando sull'ambivalenza di alcuni termini e senza
curare nessi logici e coerenza complessiva.

Giorgio
0 new messages