> ottengo che la sbarra ha lunghezza A
> +-a. Misuro poi una seconda sbarra e trovo che ha lunghezza B+-b. Ora
> accosto le due sbarre (supponendo che abbiano i bordi perfettamente
> lisci e che le accosto perfettamente bene). Cosa posso dire sulla
> lunghezza di questa nuova sbarra che ho creato? Posso affermare che è
> caratterizzata anch'essa da una distribuzione di probabilità
> gaussiana? Se si, la sua deviazione standard e data da sqrt(a^2+b^2)?
> Se si, posso considerare tutto ciò come una giustificazione della
> procedura di somma in quadratura?
No. in questo caso le variabili casuali NON sono le lunghezze delle sbarre,
ma le MISURE di dette lunghezze. La misura della sbarra ottenuta accostando
la prima alla seconda è del tutto indipendente dalle misure effettuate sulle
sbarre singole. Per cui la variabilità della variabile casuale 'misura della
nuova barra' dipenderà solo dalle condizioni sperimentali in cui essa sarà
effettuata.
G. De M:
Sì, la varianza (quadrato della deviazione standard) della somma di due
variabili casuali indipendenti[1] è sempre la somma delle varianze, per
distribuzioni qualsiasi; inoltre la somma di due v.c. gaussiane è
anch'essa una v.c. gaussiana.
[1]Se poi non sono indipendenti, ad es. ti è stato detto che le due barre
sono state ottenute tagliando in due un metro campione...
--
Vuolsi così colà dove si puote
ciò che si vuole, e più non dimandare.
[ T H I S S P A C E I S F O R R E N T ]
<http://xkcd.com/397/>
> Grazie a chi vorr rispondere.
Ciao
Vorrei suggerirti una cosa.
Supponi di aver misurato la tua sbarra, con gli errori e tutto il
resto, e i valori ben riportati su una scheda... diciamo N misurazioni
in totale.
Ora, secondo te... se prendi la sbarra e la dividi in n pezzi (non
uguali ehhh).... oppure e poi in m pezzi, e poi in s pezzi, e cosi'
via, ed ogni volta operi sempre e soltanto N misurazioni (quindi N/n
oppure N/m su ogni pezzo... etc etc) alla fine ottieni o no lo stesso
valore per la intera sbarra?
> No. in questo caso le variabili casuali NON sono le lunghezze delle
> sbarre, ma le MISURE di dette lunghezze. La misura della sbarra ottenuta
> accostando la prima alla seconda è del tutto indipendente dalle misure
> effettuate sulle sbarre singole. Per cui la variabilità della variabile
> casuale 'misura della nuova barra' dipenderà solo dalle condizioni
> sperimentali in cui essa sarà effettuata.
Come dire che le informazioni già in tuo possesso sono perfettamente
inutili e la nuova barra non ha assolutamente nulla a che vedere con le
precedenti?
Le condizioni sperimentali sono le seguenti: separo le due parti che
compongono la sbarra completa, quindi le misuro una a una, dopodiché
riunisco le due parti prendendo come MISURAZIONE (e NON come MISURA) la
somma dei due valori.
Quindi non fare il saputello e cerca di capire la domanda prima di
postare: non hai notato il "Cosa posso dire sulla lunghezza di questa
nuova sbarra" ?
--
Il popolo ha scelto Barabba.
> Quindi non fare il saputello e cerca di capire la domanda prima di
> postare: non hai notato il "Cosa posso dire sulla lunghezza di questa
> nuova sbarra" ?
Io ho risposto alla domanda:
"Se si, la sua deviazione standard e data da sqrt(a^2+b^2)?"
A mio parere no, perchè la formula suddetta si applica al calcolo della
deviazione standard di una variabile casuale che è somma di due variabili
casuali (indipendenti l'una dall'altra). I risultati della misurazione della
barra ottenuta dall'unione delle due barre non è la somma delle misure
ottenute nelle misurazioni precedenti.
G. De M.
> Poniamo che misurando la lunghezza di una sbarra A trovo che le mie
> misure si distribuiscono in modo gaussiano (come DEVE avvenire, se
> faccio tante misure e uso uno strumento che misura troppo "finemente",
> tipo usare un cronometro centesimale utilizzando semplicemente i
> propri riflessi),
Ammesso che la distribuzione dei tuoi riflessi sia effettivamente
gaussiana:)
> magari ci sono in ballo anche errori sistematici ma
> non mi interessa qui, diciamo che ottengo che la sbarra ha lunghezza A
> +-a. Misuro poi una seconda sbarra e trovo che ha lunghezza B+-b. Ora
> accosto le due sbarre (supponendo che abbiano i bordi perfettamente
> lisci e che le accosto perfettamente bene). Cosa posso dire sulla
> lunghezza di questa nuova sbarra che ho creato? Posso affermare che e'
> caratterizzata anch'essa da una distribuzione di probabilita'
> gaussiana? Se si, la sua deviazione standard e data da sqrt(a^2+b^2)?
> Se si, posso considerare tutto cio' come una giustificazione della
> procedura di somma in quadratura?
Credo che la procedura possa essere dimostrata matematicamente, in maniera
semplice, almeno nel caso gaussiano e di misure indipendenti, facendo
appunto riferimento al significato probabilistico/statistico delle
incertezze sperimentali, cioe' associando all'intervallo A+-a un contenuto
di probabilita' che si richiede sia uguale a quello di S+-s, dove S=A+B,
appunto (le regole della propagazione degli errori in generale sono
approssimate ma in questo caso, lineare, credo si tratti di un risultato
esatto).
se invece hai davvero delle sbarre da misurare e stai cercando una
giustificazione sperimentale, il risultato non e' cosi' scontato.
--------------------------------
Inviato via http://arianna.libero.it/usenet/
Non esattamente: se la sbarra e' perfettamente rigida, ha una sua
lunghezza precisa, che pero' tu non conosci. Quello che puoi dire (e lo
puoi proprio dire) e' che la stimi eguale ad A+B con un'incertezza
+-sqrt(a^2+b^2).
> Se si, la sua deviazione standard e data da sqrt(a^2+b^2)?
> Se si, posso considerare tutto ciò come una giustificazione della
> procedura di somma in quadratura?
Dalla mia risposta non puoi giustificare nulla, casomai e' la mia
risposta che ha bisogno di una giustificazione :-)
Per evitare di manipolare sbarre, ti propongo un problema equivalente,
molto frequente in pratica. Vi sono tre punti sul terreno, P1,P2 e P3.
Con strumenti da geometra misuri il dislivello fra P1 e P2, trovando
A+-a, e fra P2 e P3, trovando B+-b. Puoi dire che il dislivello fra P1 e
P3 e' A+B +-sqrt(a^2+b^2)? Se le due misure effettuate sono del tutto
indipendenti si', ed e' quello che si fa normalmente quando la misura
diretta del dislivello fra P1 e P3 non sia praticamente possibile
(perche' per esempio P1, P2 e P3 si trovano lungo la curva di una galleria).
La giustificazione teorica sta nella teoria della propagazione degli
errori (googla o cercalo su Wikipedia).
Cosa accade se ora riesci ad effettuare, con una terza misura
indipendente, anche la misura diretta del dislivello fra P1 e P3?
Otterrai un terzo valore C+-c, ed in generale *non* sara' C=A+B
(devi aspettarti pero' che C cada all'interno dell'intervallo
A+B-sqrt(a^2+b^2) - A+B+sqrt(a^2+b^2). Se questo non avviene, devi
sospettare la presenza di errori grossolani e provare a ripetere tutte
le misure. Se di nuovo questo non avviene, devi sospettare la presenza
di errori sistematici, e metterti a cercarli.)
Posto z(P1)=z1=0, ti ritrovi con tre equazioni in due incognite z2 e z3:
z2 = A
z3 = C
z3-z2 = B
che non possono, in generale, essere soddisfatte da un'unica soluzione.
Con le conoscenze che hai ottenuto dalle misure, puoi cercare pero' la
loro stima piu' probabile, il che si ottiene con una compensazione ai
minimi quadrati. Googla, una buona trattazione (non so se alla tua
portata) e' qui:
http://geomatica.como.polimi.it/presentazioni/MQ.pdf
Un sottoprodotto di tale procedura e' la matrice varianza covarianza di
tutte le grandezze stimate, dalla quale si puo' ricavare l'incertezza
della stima di z3 *tenendo conto di tutte le misure effettuate*:
l'incertezza risultera' inferiore sia a c che a sqrt(a^2+b^2).
Il bello e' che *anche* per z2 e z3-z2 otterrai nuove stime, diverse da
A e da B, e le incertezze delle stime di z2, e di z3-z2, risulteranno
inferiori rispettivamente ad a e a b: la terza misura consente di
affinare le stime anche delle grandeze misurate in precedenza.
--
TRu-TS
Come ha detto Army, se X e Y sono due variabili casuali gaussiane di
medie mu_x e mu_y, varianze (sigma_x)^2 e (sigma_y)^2 rispettivamente,
la loro somma Z = X + Y e' ancora una variabile casuale gaussiana di
media: mu_z = mu_x + mu_y e, se sono indipendenti, varianza:
(sigma_z)^2 = (sigma_x)^2 + (sigma_y)^2.
Quest'ultima relazione si dimostra facilmente.
Per definizione (sigma_x)^2 = E[(X-mu_x)^2]
dove E(V) indica il valore di aspettazione di una variabile V
(Expectation in inglese).
Allora E[(Z-mu_z)^2] = E{[(X+Y) - (mu_x + mu_y)]^2} =
= E{[(X-mu_x) + (Y-mu_y)]^2} =
= E[(X-mu_x)^2 + (Y-mu_y)^2 + 2(X-mu_x)(Y-mu_y)]
= (linearita' del valore di aspettazione) =
= E[(X-mu_x)^2] + E[(Y-mu_y)^2] + 2E[(X-mu_x)(Y-mu_y)] =
= (per l'indipendenza delle variabili X e Y l'ultimo termine e' 0)=
= (sigma_x)^2 + (sigma_y)^2.
Nota che in questa dimostrazione ho usato l'indipendenza di X e Y ma
non il fatto che fossero gaussiane (la loro distribuzione puo' essere
qualunque).
> No. in questo caso le variabili casuali NON sono le lunghezze delle
> sbarre, ma le MISURE di dette lunghezze.
I bayesiani avrebbero qualcosa da ridire su ciò...
Di Bayes conosco solo il teorema omonimo (della probabilitŕ delle cause).
Non mi č chiaro perchč i bayesiani avrebbero da ridire sulla mia
affermazione.
G. De M.
n sum_i (A_i B_i) = (sum_i A_i) (sum_i B_i)
Questo è vero se le misure di A sono sempre uguali e le misure di B
sono sempre uguali (caso poco interessante, sigma nulla...) ma non
vedo perché debba essere sempre vero se le due misure sono
indipendenti. Nell'ottenere quell'equazione ho supposto che la
sommatoria per i che va da 1 a n di un termine che non contiene la i,
vale quel termine moltiplicato per n (ad esempio la sommatoria per i
che va da 1 a n di 2 è 10), è giusto?
Il 03 Lug 2010, 22:31, bibbozibibbo <bibboz...@gmail.com> ha scritto:
> Grazie di tutte le risposte. Sulle quali riflettere! Io ho provato a
> fare dei conti. Ho supposto che le misure della sbarra A siano una
> successione A_i e le misure della sbarra B siano una successione B_i
> (con lo stesso numero n di misure). Ho considerato una terza
> successione A_i+B_i e ne ho calcolato il quadrato della deviazione
> standard, imponendo che sia uguale al quadrato delle altre due
> deviazioni standard. Si semplificano molte cose e ho trovato che le
> deviazioni standard si sommano in quadratura se
>
> n sum_i (A_i B_i) = (sum_i A_i) (sum_i B_i)
>
> Questo e' vero se le misure di A sono sempre uguali e le misure di B
> sono sempre uguali (caso poco interessante, sigma nulla...) ma non
> vedo perche' debba essere sempre vero se le due misure sono
> indipendenti. Nell'ottenere quell'equazione ho supposto che la
> sommatoria per i che va da 1 a n di un termine che non contiene la i,
> vale quel termine moltiplicato per n (ad esempio la sommatoria per i
> che va da 1 a n di 2 e' 10), e' giusto?
Meglio sequenza finita che successione, una successione si intende
che abbia infiniti termini.
> (con lo stesso numero n di misure). Ho considerato una terza
> successione A_i+B_i e ne ho calcolato il quadrato della deviazione
> standard,
In realta' non hai calcolato il quadrato della deviazione standard
(che si chiama varianza) della distribuzione genitrice, cioe' della
distribuzione teorica di _tutti_ i possibili risultati delle misure, ma
hai calcolato la varianza _campionaria_ (a meno di un fattore correttivo
che tende a 1 quando n tende a +oo, dovuto al fatto che la media della
distribuzione genitrice che compare nel calcolo della varianza non e'
nota ma viene stimata come media campionaria dalla distribuzione
campionaria, quindi non e' indipendente dalla varianza campionaria),
questa in generale sara' diversa dalla varianza della distribuzione
genitrice e ne rappresentera' soltanto una stima, perche' l'insieme finito
di misure effettuate non riflette esattamente l'andamento della
distribuzione genitrice ma e' un campione estratto casualmente da essa.
> imponendo che sia uguale al quadrato delle altre due
> deviazioni standard. Si semplificano molte cose e ho trovato che le
> deviazioni standard si sommano in quadratura se
> n sum_i (A_i B_i) = (sum_i A_i) (sum_i B_i)
> Questo è vero se le misure di A sono sempre uguali e le misure di B
> sono sempre uguali (caso poco interessante, sigma nulla...) ma non
> vedo perché debba essere sempre vero se le due misure sono
> indipendenti.
Se le due distribuzioni genitrici sono indipendenti allora la
loro covarianza definita come cov(A, B) = E(A*B) - E(A)*E(B)
(E(X) = valore di aspettazione della variabile casuale X)
e' nulla per definizione, naturalmente nel caso che si considerino
solo un insieme finito di misure derivanti da due distribuzioni
indipendenti allora la loro covarianza campionaria in generale
non sara' nulla a causa dell'errore di campionamento.
> Nell'ottenere quell'equazione ho supposto che la
> sommatoria per i che va da 1 a n di un termine che non contiene la i,
> vale quel termine moltiplicato per n (ad esempio la sommatoria per i
> che va da 1 a n di 2 è 10), è giusto?
Giusto, solo ti sei dimenticato di scrivere n = 5. ;-)
In conclusione, e' vero in generale che la varianza della somma di
due variabili casuali indipendenti e' uguale alla somma delle varianze,
non e' vero che la varianza campionaria di due variabili casuali
indipendenti sia uguale alla somma delle varianze campionarie delle
due variabili.
Ciao
--
Giorgio Bibbiani
> In realta' non hai calcolato il quadrato della deviazione standard
> (che si chiama varianza) della distribuzione genitrice, cioe' della
> distribuzione teorica di _tutti_ i possibili risultati delle misure,
Questo � vero, ne ero perfettamente cosciente, era solo un modo
semplice di impostare il lavoro. In effetti con le due sequenze A_i e
B_i potrei ottenere non n, ma n^2 stime della lunghezza della sbarra
composta. Solo che con la mia scelta i conti erano facili. E' meglio
fare la dimostrazione usando tutte le stime? C'� un libro che spiega
chiaramente queste cose?
> In conclusione, e' vero in generale che la varianza della somma di
> due variabili casuali indipendenti e' uguale alla somma delle varianze,
> non e' vero che la varianza campionaria di due variabili casuali
> indipendenti sia uguale alla somma delle varianze campionarie delle
> due variabili.
Cio�. se ho capito, la mia scelta di utilizzare per la sbarra composta
le stime A_i + B_i (lavorando su quella che chiami varianza
campionaria) e non tutte le stime che realmente potevo ottenere, ha
compromesso tutto?
No, non c'entra, il punto e' che il teorema per cui la varianza della
distribuzione di una variabile casuale che sia somma di due variabili
casuali indipendenti e' uguale alla somma delle varianze delle due variabili
vale per le distribuzioni genitrici, non per le distribuzioni campionarie,
cioe' per verificarlo esattamente nel caso concreto dovresti fare non
n bensi' infinite misure, allora la distribuzione che otterresti sarebbe
quella genitrice.
> C'è un libro che spiega chiaramente queste cose?
Ad es. Bevington, Data reduction and error analysis, McGraw-Hill
> Cioé. se ho capito, la mia scelta di utilizzare per la sbarra composta
> le stime A_i + B_i (lavorando su quella che chiami varianza
> campionaria) e non tutte le stime che realmente potevo ottenere, ha
> compromesso tutto?
No.
Ciao
--
Giorgio Bibbiani
> "Army1987" <army...@foo.invalid> ha scritto nel messaggio
> news:i0l3na$8ja$4...@news.eternal-september.org...
>> On Wed, 30 Jun 2010 09:44:20 +0200, Mezzomatto wrote:
>>
>>> No. in questo caso le variabili casuali NON sono le lunghezze delle
>>> sbarre, ma le MISURE di dette lunghezze.
>>
>> I bayesiani avrebbero qualcosa da ridire su ciò...
>
> Di Bayes conosco solo il teorema omonimo (della probabilità delle
> cause). Non mi è chiaro perchè i bayesiani avrebbero da ridire sulla mia
> affermazione.
Semplificando, nell'interpretazione bayesiana della probabilità,
"casuale" è grossomodo sinonimo con "sconosciuto", perciò se non conosci
la lunghezza esatta della sbarra, questa può essere trattata come una
variabile casuale.
Questo libro è stato scritto da uno che (AFAICT) è un determinista:
<http://bayes.wustl.edu/etj/prob/book.pdf>
Secondo qualche interpretazione della probabilità, la probabilità di un
evento deterministico (o di un evento già passato) è sempre o 0 o 1...
> Semplificando, nell'interpretazione bayesiana della probabilità,
> "casuale" è grossomodo sinonimo con "sconosciuto", perciò se non conosci
> la lunghezza esatta della sbarra, questa può essere trattata come una
> variabile casuale.
> Questo libro è stato scritto da uno che (AFAICT) è un determinista:
> <http://bayes.wustl.edu/etj/prob/book.pdf>
> Secondo qualche interpretazione della probabilità, la probabilità di un
> evento deterministico (o di un evento già passato) è sempre o 0 o 1...
>
Forse si tratta di una questione di lana caprina, ma non vedo perchè si
debba considerare 'casuale' una grandezza sconosciuta.
Poichè però, alla fin fine, si può lavorare solo sulla distribuzione dei
valori osservati, le differenti definizioni finiscono per essere
irrilevanti. O no?
G. De M.