Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Perché si usa la gaussiana

158 views
Skip to first unread message

carlo spinelli

unread,
Aug 7, 2010, 1:01:30 PM8/7/10
to
Ultimamente ho cercato di riflettere sul fatto che per descrivere
l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
non so come ho collegato con il problema del cammino casuale in una
dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
il 50% delle probabilità di "spingere" la misura da una parte
piuttosto che dall'altra. Modellizzando così appare chiaro che gli
esiti delle misure si distribuiscono in modo gaussiano attorno al
valore vero.

Certamente *nei fatti* la gaussiana che otterrò dopo le mie N misure
*non* sarà centrata sul valore vero. Come posso però valutare la
probabilità che il valore vero giaccia all'interno della mia
deviazione standard? Il problema statistico è bene impostato ed
ammette una soluzione? Io ho il Taylor, procede passo a passo su varie
questioni, ma alla fine non mi sembra che approfondisca più di tanto.

Grazie in anticipo!

Elio Fabri

unread,
Aug 10, 2010, 3:18:16 PM8/10/10
to
carlo spinelli ha scritto:

> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
> non so come ho collegato con il problema del cammino casuale in una
> dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
> fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
> il 50% delle probabilità di "spingere" la misura da una parte
> piuttosto che dall'altra. Modellizzando così appare chiaro che gli
> esiti delle misure si distribuiscono in modo gaussiano attorno al
> valore vero.
Come faccia ad apparirti "chiaro" proprio non lo so, ma e' vero.

Esiste un fondamentale teorema di calcolo delle probabilita', detto
"teorema centrale del limite" (anche se quasi sempre viene tradotto
male con "teorema del limite centrale") che asserisce appunto questo.
Date n variabili casuali indipendenti, X1 ... Xn, con media nulla e
con la stessa distribuzione di probabilita', la loro somma
normalizzata

S = (X1 + ... + Xn)/sqrt(n)

quando n --> oo ha distribuzione gaussiana, sempre con media nulla e
con la stessa varianza delle X.

> Certamente *nei fatti* la gaussiana che otterrò dopo le mie N misure
> *non* sarà centrata sul valore vero. Come posso però valutare la
> probabilità che il valore vero giaccia all'interno della mia
> deviazione standard? Il problema statistico è bene impostato ed
> ammette una soluzione? Io ho il Taylor, procede passo a passo su varie
> questioni, ma alla fine non mi sembra che approfondisca più di tanto.

Non ricordo se il Taylor tratta e in che modo questi argomenti.
Quello che stai chiedendo e' quanto segue:

Se X1 ... Xn sono i risultati di n misure indipendenti, ciascuno dei
quali assumiamo sia una variabile casuale a distribuzione gaussiana
(distr. tutte uguali tra loro) con media m e sqm sigma, come e'
distribuita la loro media aritmetica?

Risposta: ha distr. gaussiana con media m e sqm = sigma/sqrt(n).

--
Elio Fabri

Pangloss

unread,
Aug 11, 2010, 6:49:03 AM8/11/10
to
[it.scienza.fisica 07 Aug 2010] carlo spinelli ha scritto:

> Certamente *nei fatti* la gaussiana che otterrò dopo le mie N misure
> *non* sarà centrata sul valore vero. Come posso però valutare la
> probabilità che il valore vero giaccia all'interno della mia
> deviazione standard? Il problema statistico è bene impostato ed
> ammette una soluzione? Io ho il Taylor, procede passo a passo su varie
> questioni, ma alla fine non mi sembra che approfondisca più di tanto.

Per calcolare la probabilita' di un qualsiasi evento riguardante una
variabile casuale X bisogna conoscere la distribuzione di probabilita'.
Per le misurazioni di una grandezza fisica X vi sono effettivamente
ragioni teoriche (http://en.wikipedia.org/wiki/Central_limit_theorem)
per ammettere che abitualmente tale distribuzione sia gaussiana, ma
ovviamente il valore medio vero e lo scarto quadratico medio sqm della
distribuzione non sono noti.

Se lo sqm fosse noto sarebbe facile calcolare (per integrazione numerica
o usando tabelle di Erf) la probabilita' che il risultato di una misura
differisca dal valore vero di X per meno di sqm o di un suo multiplo.
Ad esempio, la probabilita' che una singola misura sia affetta da un
errore superiore a 2*sqm risulta circa del 5%
Per la media aritmetica di N misure lo sqm si riduce del fattore sqrt(N).

Disponendo di N misure di una grandezza X si puo' determinare il valore
medio empirico (media aritmetica) e la deviazione standard empirica del
set di risultati. La formula della varianza empirica ha curiosamente N-1
a denominatore, anziche' N come sembrerebbe di primo acchito: si dimostra
che questa e' la correzione ottimale per tenere conto della differenza
tra il valore vero (incognito) ed il valore medio empirico (noto) di X.

Essendo la deviazione standard empirica cosi' calcolata la migliore
approssimazione disponibile dello sqm vero incognito, la migliore stima
possibile della probabilita' che chiedi va fatta usando tale dato come
valore dello sqm della distribuzione gaussiana.

--
Elio Proietti
Valgioie (TO)

Peter11

unread,
Aug 11, 2010, 12:04:32 PM8/11/10
to

"Elio Fabri" <elio....@tiscali.it> ha scritto nel messaggio
news:8cdn63...@mid.individual.net...


> carlo spinelli ha scritto:
>> Ultimamente ho cercato di riflettere sul fatto che per descrivere
>> l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
>> non so come ho collegato con il problema del cammino casuale in una
>> dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
>> fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
>> il 50% delle probabilità di "spingere" la misura da una parte
>> piuttosto che dall'altra. Modellizzando così appare chiaro che gli
>> esiti delle misure si distribuiscono in modo gaussiano attorno al
>> valore vero.
> Come faccia ad apparirti "chiaro" proprio non lo so, ma e' vero.
>
> Esiste un fondamentale teorema di calcolo delle probabilita', detto
> "teorema centrale del limite" (anche se quasi sempre viene tradotto
> male con "teorema del limite centrale") che asserisce appunto questo.
> Date n variabili casuali indipendenti, X1 ... Xn, con media nulla e
> con la stessa distribuzione di probabilita', la loro somma
> normalizzata
>

In verità il teorema, almeno nella formulazione di Lindeberg e Levy richiede
che i momenti primo e secondo siano finiti. Mi pare che la richiesta che le
n v.c. abbiano media nulla sia un po' troppo forte, non trovi?

piero nessuno

unread,
Aug 12, 2010, 8:41:35 AM8/12/10
to
On 7 Ago, 19:01, carlo spinelli <cspin...@gmail.com> wrote:
> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana.

ti incollo un esempio:
<< Molte volte si pensa che determinismo e casualità o determinismo
siano concetti del tutto antitetici e che se un fenomeno è, per
esempio, deterministico non può essere, magari da un altro punto di
vista, casuale. Ebbene, questo modo di pensare può essere corretto o
meno a seconda di che cosa si vuole dire. Bisogna, come sempre,
distinguere.

Supponiamo di voler calcolare dove cadrà un proiettile sparato da un
cannone. Grazie alle leggi della meccanica classica e conoscendo la
velocità v con cui il proiettile esce dalla canna, l'angolo α con cui
è sparato e la densità dell'aria ρ, siamo in grado di predire
esattamente dove sarà il luogo di impatto (fig. 1).

Tuttavia, se fossimo degli artiglieri, sapremmo che sparando più volte
proiettili della “stessa” forma e delle “stesse” dimensioni, questi
non cadrebbero nello stesso luogo, ma ci sarebbe un'area di impatto
che avrà un massimo, se non vi sono difetti gravi nella costruzione
del cannone o dei proiettili, più o meno nel luogo calcolato
teoricamente. Questo è dovuto al fatto che le varie velocità iniziali
dei vari proiettili non saranno mai esattamente le stesse, come non
saranno mai esattamente gli stessi gli angoli di sparo. Inoltre
varierà, forse solo di poco, anche la densità dell'aria. Ossia
varieranno le condizioni iniziali e non sarà possibile conoscere con
assoluta precisione l'entità di tale variazione (fig. 2).

Dicendola diversamente, nel caso teorico, una volta determinate con
precisione le condizioni iniziali del sistema, vi è un'unica
evoluzione temporale e questa ha probabilità di realizzarsi pari a 1,
cioè si realizzerà con certezza. Nel caso reale, a causa di piccole
perturbazioni delle condizioni iniziali, perturbazioni che non
potremmo conoscere con precisione ma che dovremmo considerare sempre
entro un certo intervallo, vi saranno tante (infinite) evoluzioni
possibili del sistema, ognuna con una sua probabilità di realizzarsi.
Nel caso teorico l'evoluzione del sistema è deterministica, nel caso
reale è probabilistica.

Naturalmente non si può fare fisica dei proiettili senza il quadro
teorico, ma naturalmente non si può nemmeno essere degli esperti di
balistica senza tener conto della situazione reale. Tralasciamo
comunque quest'aspetto e riflettiamo sul fatto che, nel caso reale, è
consentito affermare che è casuale dove cadrà il proiettile. E'
consentito a patto che con “casuale” si intenda che dove cadrà dipende
dal nostro non conoscere con assoluta esattezza le condizioni iniziali
del sistema. Ma vi è un secondo aspetto da tenere presente: siamo
passati da un approccio deterministico (quello teorico) a uno
probabilistico (quello reale) e qui la probabilità ha proprio a che
fare con il caso, almeno con il caso nell'accezione appena vista.>>
(Giovanni Boniolo, pubblicato internet su ulisse)

popinga

unread,
Aug 12, 2010, 6:28:04 PM8/12/10
to
On 10 Ago, 21:18, Elio Fabri wrote:
> carlo spinelli ha scritto:>

> > dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
> > fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
> > il 50% delle probabilità di "spingere" la misura da una parte
> > piuttosto che dall'altra. Modellizzando così appare chiaro che gli
> > esiti delle misure si distribuiscono in modo gaussiano attorno al
> > valore vero.
>
> Come faccia ad apparirti "chiaro" proprio non lo so, ma e' vero.


Al di la' delle dimostrazioni rigorose, forse la cosa puo' apparire
"chiara" se si pensa alla macchina di Galton (e probabilmente Carlo ha
avuto modo di giocarci). Rifacendomi alla "visione" di Carlo,
assumendo un valore vero nullo e un certo numero NP di "disturbi"
tutti uguali a 1 in magnitudine e con segno random (50% di probabilità
di "spingere" da una parte o dall'altra), ho fatto una veloce
simulazione:
http://img840.imageshack.us/img840/7781/galton.gif
In ogni grafico è rappresentata la distribuzione statistica delle
misure sperimentali (50mila misure simulate), assumendo siano affette
da un numero NP di "disturbi" tutti uguali a uno. In pratica è la
macchina di Galton, in cui NP corrisponde al il numero di chiodi
incontrati dalla pallina, e il risultato della misura corrisponde al
N. di casella in cui la pallina va a finire.
Vero e' che il meccanismo produce una binomiale, e che le misure
sperimentali sono più complicate di così (NP dovrebbe essere
aleatorio, cosi' come l'intensità di ogni perturbazione)....
Pero', per NP=200, il fit gaussiano risulta perfetto:-)


Alberto

unread,
Aug 12, 2010, 12:15:27 PM8/12/10
to
On 12 Ago, 14:41, piero nessuno <pierfo...@gmail.com> wrote:
> Ma vi è un secondo aspetto da tenere presente: siamo
> passati da un approccio deterministico (quello teorico) a uno
> probabilistico (quello reale)

bah!
Siamo passati da un modello più semplice a uno più complesso.
Sono entrambi modelli per cui teoria non realtà, anche se è vero che
il secondo descrive meglio la realtà.


>Molte volte si pensa che determinismo e casualità o determinismo
>siano concetti del tutto antitetici e che se un fenomeno è, per
>esempio, deterministico non può essere, magari da un altro punto di
>vista, casuale.

E infatti è cosi.
Non è cambiato il fenomeno, è cambiato il modello che lo descrive.

piero nessuno

unread,
Aug 12, 2010, 1:32:41 PM8/12/10
to
On 7 Ago, 19:01, carlo spinelli <cspin...@gmail.com> wrote:
> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
> non so come ho collegato con il problema del cammino casuale in una
> dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
> fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
> il 50% delle probabilità di "spingere" la misura da una parte
> piuttosto che dall'altra. Modellizzando così appare chiaro che gli
> esiti delle misure si distribuiscono in modo gaussiano attorno al
> valore vero.

qui c'è un animazione che rappresenterebbe bene l'esempio in
questione:
http://www.stattucino.com/berrie/dsl/Galton.html

qui una spiegazione teorica:
www.astro-web.org/Quinconce_di_Galton.pdf

qui un esempio applicato all'entropia:
http://www.chim.unifi.it/~signo/did/etc/entropia/entropia-split0/

carlo spinelli

unread,
Aug 14, 2010, 9:08:27 AM8/14/10
to
On 10 Ago, 21:18, Elio Fabri <elio.fa...@tiscali.it> wrote:

> Come faccia ad apparirti "chiaro" proprio non lo so, ma e' vero.

:-) Il fatto è che che una premessa era troppo implicita e ciò ha
generato un equivoco.
Io avevo già affrontato e risolto il problema del cammino casuale
tempo fa, in particolare avevo risolto questo problema ("avevo
risolto" si fa per dire, avevo studiato la soluzione su un libro :-)):
se ho un ubriaco costretto a camminare su una traiettoria rettilinea,
ma che a ogni passo ha il 50% delle probabilità di farlo in avanti e
il 50% di farlo indietro, che probabilità ha di trovarsi a tot
distanza dopo tot tempo? La soluzione è tutt'altro che facile ma alla
fine si trova che la funzione densità di probabilità è una gaussiana.
E' alla luce di questo fatto (e della constatazione che gli errori
casuali sono generati da un processo non molto dissimile dal cammino
dell'ubriaco) che mi sembra "chiaro" che anche gli errori casuali
generano distribuzioni gaussiane di densità di probabilità.

> Quello che stai chiedendo e' quanto segue:
>
> Se X1 ... Xn sono i risultati di n misure indipendenti, ciascuno dei
> quali assumiamo sia una variabile casuale a distribuzione gaussiana
> (distr. tutte uguali tra loro) con media m e sqm sigma,

...si...

> come e' distribuita la loro media aritmetica?

devo riflettere sul perché la mia domanda è equivalente a questa
perché confesso che così sui due piedi non l'ho capito...

Elio Fabri

unread,
Aug 14, 2010, 3:46:22 PM8/14/10
to
Peter11 ha scritto:
> In veritą il teorema, almeno nella formulazione di Lindeberg e Levy

> richiede che i momenti primo e secondo siano finiti. Mi pare che la
> richiesta che le n v.c. abbiano media nulla sia un po' troppo forte,
> non trovi?
Va bene, e a rigore l'esistenza dei momenti secondi non e' neppure
necessaria: si puo' dare una condizione piu' debole.
Ma a me interessava dare una risposta comprensibile a uno che e' alle
prime armi, e in relazione a un problema fisico dove assumere media
nulla e' del tutto ragionevole.

--
Elio Fabri

piero nessuno

unread,
Aug 15, 2010, 12:20:13 PM8/15/10
to
On 7 Ago, 19:01, carlo spinelli <cspin...@gmail.com> wrote:
> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana.

la forma a campana della gaussiana dovrebbe essere giustificata dal
calcolo combinatorio
ad esempio presa una riga del triangolo di tartaglia avremo il numero
di combinazioni di traiettorie come nella tavola di galton e che
descrive in modo intuitivo la distribuzione di gauss
quindi la campana è rappresentativa dei percorsi più frequenti per
giungere in una posizione

per quanto riguarda la teoria sugli errori di misurazione ho trovato
un testo abbastanza chiaro:
<<L'errore casuale o statistico è qualsiasi errore di misurazione che
può incidere con la stessa probabilità in aumento o in diminuzione sul
valore misurato. Gli errori casuali sono dovuti a inevitabili
fluttuazioni statistiche dei risultati delle misure. È possibile però,
attraverso ripetizioni identiche dell'esperimento, riuscire a
misurarli e quindi a tenerne conto nel risultato finale:
una serie ripetuta di misurazioni comporta la progressiva riduzione
dell'errore casuale, poiché i singoli scostamenti si annullano
reciprocamente.

Questo genere di errore è prodotto da fenomeni aleatori derivati da
errori di lettura degli strumenti o fluttuazioni indotte da fenomeni
esterni, come disturbi, variazioni di temperatura ecc. Più uno
strumento è preciso e meno questi fenomeni aleatori influenzano la
misurazione (e dunque più relativamente piccoli sono mediamente gli
errori casuali associati).

Gauss ha elaborato una teoria sugli errori casuali, ed è riuscito ad
esprimere la distribuzione della probabilità di un errore casuale.
La legge che ne deriva prende il nome di legge normale di Gauss.
Va detto che non è affatto certo che qualsiasi evento aleatorio di
tipo probabilistico segua la legge di Gauss, ma se il numero di misure
è molto alto, è molto probabile che accada, a causa del Teorema del
Limite Centrale.>>(skuola.tiscali.it)

<<Incertezza di misura è il grado di indeterminazione con il quale si
ottiene nella misurazione un valore di una proprietà fisica. Il
risultato di misurazione pertanto non è un unico valore bensì
l'insieme dei valori probabili che assume il misurando.

Il termine incertezza di misura viene spesso utilizzato come sinonimo
di errore di misurazione>>(wiki)

cometa_luminosa

unread,
Aug 15, 2010, 3:45:52 PM8/15/10
to
On 7 Ago, 19:01, carlo spinelli <cspin...@gmail.com> wrote:
> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
> non so come ho collegato con il problema del cammino casuale in una
> dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
> fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
> il 50% delle probabilità di "spingere" la misura da una parte
> piuttosto che dall'altra. Modellizzando così appare chiaro che gli
> esiti delle misure si distribuiscono in modo gaussiano attorno al
> valore vero.

Non so se cio' che segue ti puo' interessare.
E' tratto dal libro "Calcolo delle Probabilita' " di Sheldon M. Ross.

<<CARATTERIZZAZIONE DELLA DISTRIBUZIONE NORMALE

Siano X e Y le variabili aleatorie determinate dalla distanza
orizzontale e verticale dal centro, quando un proiettile viene sparato
contro un bersaglio e supponiamo che:

1. X e Y siano due variaboli aleatorie indipendenti e continue con
densita' che siano funzioni differenziabili.

2. La densita' congiunta f(x,y) = f_x(x)*f_y(y) di X e Y dipenda da
(x,y) solo attraverso x^2 + y^2.

Per chiarire le idee, la ipotesi 2 stabilisce che la probabilita' che
il proiettile colpisca un qualunque punto del piano (x,y) dipende solo
dalla distanza di questo punto dal centro del bersaglio e non
dall'angolo di orientazione rispetto a esso. L'ipotesi 2 puo' essere
espressa dicendo che la densita' congiunta e' una funzione invariante
per rotazioni.

Puo' essere interessante notare come le ipotesi 1 e 2 implicano che X
e Y si distribuiscono come due variabili aleatorie normali. Per
provare questo, notiamo da principio che le ipotesi danno la
relazione:

f(x,y) = f_x(x)*f_y(y) = g(x^2 + y^2) (2.9)

per una qualche funzione g. Differenziando l'equazione (2.9) rispetto
a x otteniamo:

f'_x(x)*f_y(y) = 2xg'(x^2 + y^2) (2.10)

Dividendo la (2.10) per la (2.9) abbiamo:

f'_x(x)/f_x(x) = 2xg'(x^2 + y^2)/g(x^2 + y^2)

ovvero:

f'_x(x)/2x*f_x(x) = g'(x^2 + y^2)/g(x^2 + y^2) (2.11)

Siccome il valore del termine a sinistra dell'equazione (2.11) dipende
solo da x, mentre il termine a destra da x^2 + y^2, avremo che il
termine a sinistra dovra' essere costante per ogni valore di x. Per
vedere questo, consideriamo ogni x1, x2 e siano y1, y2 tali che:

(x1)^2 + (y1)^2 = (x2)^2 + (y2)^2.

Allora, da (2.11) otteniamo che:

f'_x(x1)/2x1*f_x(x1) = g'[(x1)^2 + (y1)^2] / g[(x1)^2 + (y1)^2]
= g'[(x2)^2 + (y2)^2] / g[(x2)^2 + (y2)^2] = f'_x(x2)/2x2*f_x(x2)

Quindi:

f'_x(x)/x*f_x(x) = c

ovvero:

(d/dx) log[f_x(x)] = cx

il che implica, dopo aver integrato entrambi i termini, che:

log[f_x(x)] = a + cx^2/2

ovvero:

f_x(x) = ke^(cx^2/2).

Poiche' Int[-oo;+oo] f_x(x) dx = 1, segue che c deve essere una
costante negativa e possiamo scrivere c = -1/s^2 [nel libro c'e' la
lettera sigma al posto di s]. Avremo:

f_x(x) = ke^(-x^2/2s^2)

Cioe', X e' una variabile aleatoria normale di parametri mu = 0 e
s^2.

Un simile argomento applicato a f_y(y) mostra che:

f_y(y) = [1/s'*Rad(2pi)] * e^(-y^2/2s'^2)

Inoltre, segue dall'ipotesi 2 che s^2 = s'^2, e quindi X e Y sono
variabili aleatorie normali, indipendenti, identicamente distribuite
(i.i.d.) di parametri mu = 0 e s^2.>>

Soviet_Mario

unread,
Aug 15, 2010, 7:36:25 PM8/15/10
to
Il 15/08/2010 18:20, piero nessuno ha scritto:
> On 7 Ago, 19:01, carlo spinelli<cspin...@gmail.com> wrote:
>> Ultimamente ho cercato di riflettere sul fatto che per descrivere
>> l'esito delle misure sperimentali ci si serve di una gaussiana.
>
> la forma a campana della gaussiana dovrebbe essere giustificata dal
> calcolo combinatorio

Oddio ... il binomiale e la gaussiana hanno grafici a
campana, ma dire che l'uno giustifica la forma dell'altra
non so che voglia dire.
La gaussiana, se non ricordo male, è una curva del genere di
e^(-X^2) ... mi viene il dubbio che l'esponente sia il
reciproco, ma non ho voglia di prendere il libro e
controllare. Cmq di certo non ha la struttura binomiale (che
poi non è una vera curva, ma un grafico a punti discreti, e
può al limite essere interpolato, come esattamente non saprei)

> ad esempio presa una riga del triangolo di tartaglia avremo il numero
> di combinazioni di traiettorie come nella tavola di galton e che
> descrive in modo intuitivo la distribuzione di gauss

non direi, descrive il binomiale

> quindi la campana è rappresentativa dei percorsi più frequenti per
> giungere in una posizione
>

CUT
ciao
Soviet

piero nessuno

unread,
Aug 16, 2010, 9:01:38 AM8/16/10
to
On 16 Ago, 01:36, Soviet_Mario <Soviet.Ma...@CCCP.MIR> wrote:
> non direi, descrive il binomiale

La distribuzione binomiale è una distribuzione di probabilità. Con n
molto grande ci si avvicina a una funzione continua: la distribuzione
Gaussiana è una funziona continua che approssima la distribuzione
binomiale degli eventi.

comunque ho detto "intuitivo" per intendere che i valori sono
indicativi dell'andamento a campana

Col teorema centrale del limite, come esposto da Elio Fabri, si vede
come una serie di valori casuali, con certe proprietà, vanno a formare
una campana gaussiana
Col triangolo di tartaglia o la tavola di Galton si vede come le
combinazioni dei percorsi che arrivano in un punto determinano la
probabilità di quell'evento
Sono due modi diversi di giungere alla forma a campana della funzione

rileggendo la domanda di partenza, sembra che ripetuti eventi di
sottrazione o addizione di una quantità fissa determinino il valore
della misura con il suo errore, il che corrisponde alla tavola di
galton e alla distribuzione a campana

http://www.mathcs.org/java/programs/CLT/clt.html
http://www.berrie.dds.nl/clt.html

Elio Fabri

unread,
Aug 16, 2010, 3:40:44 PM8/16/10
to
Soviet_Mario ha scritto:

> Oddio ... il binomiale e la gaussiana hanno grafici a campana, ma dire
> che l'uno giustifica la forma dell'altra non so che voglia dire.
Hai ragione soltanto in parte.
Infatti si dimostra che per n-->oo la distribuzione binomiale tende (in
un senso ben preciso) alla gaussiana.


--
Elio Fabri

Mezzomatto

unread,
Aug 16, 2010, 11:23:03 AM8/16/10
to

"Soviet_Mario" <Soviet...@CCCP.MIR> ha scritto nel messaggio
news:4c6879fb$0$18653$4faf...@reader3.news.tin.it...

> Oddio ... il binomiale e la gaussiana hanno grafici a campana, ma dire che
> l'uno giustifica la forma dell'altra non so che voglia dire.

La binomiale si applica alle variabili discrete, e non è una curva ma un
diagramma a canne (istogramma), la gaussiana alle v.c. continue (che possono
assumere qualsiasi valore nel campo di esistenza).
Esistono tecniche per approssimare una binomiale a una gaussiana e
viceversa.

> La gaussiana, se non ricordo male, è una curva del genere di e^(-X^2)

L'esponente di 'e' è : -1/2*(X-Xmedio)^2 diviso sigma^2

Non ricordo come Gauss giunse a formularla, mi pare partendo dal teorema di
Bayes.

Bessel considerò che un errore risulta dal concorso di molte piccole cause
indipendenti. Ogni causa determina un errore 'elementare' variabile in
quantità e segno. L'errore complessivo è la somma algebrica di tutti questi
errori 'elementari'. E' concepibile quindi che i valori grandi dell'errore
complessivo (determinati da poche combinazioni degli errori elementari)
siano molto meno probabili di quelli piccoli (determinati da molte possibili
combinazioni di errori elementari). Arrivò alla stessa funzione di Gauss.

G. De M.


Soviet_Mario

unread,
Aug 16, 2010, 6:41:11 PM8/16/10
to

Apperò, non solo non la sapevo, ma mi si scombussolano anche
delle cose che davo per certe, e che tento di spiegare.

Mi risultava, per sentito dire, non ne ho mai visto
dimostrazioni e nemmeno so se un enunciato del genere si
possa mai dimostrare in casi generici, che la gaussiana
fosse una curva non integrabile (in realtà ho letto non
integrabile per vie elementari ... ma ammetto che non ho la
minima idea di cosa siano le vie NON elementari, il termine
mi incute timore, lol)

Invece il binomiale, che è una funzione discreta, fatta solo
di somme (per quanto ricorsiva) si integra numericamente
SENZA approssimazione, ergo si integra punto e stop, poco
importa se non in modo simbolico perché appunto funzione
ricorsiva (come il fattoriale del resto).

Allora non capisco, attraverso il binomiale si può trovare
un modo banale di integrare la gaussiana in modo esatto ?
O meglio, beh non proprio esatto, stando a quanto dici sul
limite.

Cmq probabilmente mi sfugge qualcosa di profondo.
Ciao
Soviet


>

Zampino

unread,
Aug 17, 2010, 5:32:04 AM8/17/10
to

> Mi risultava, per sentito dire, non ne ho mai visto dimostrazioni e
> nemmeno so se un enunciato del genere si possa mai dimostrare in casi

La dimostrazione è una delle più semplici che io ricordi.

> generici, che la gaussiana fosse una curva non integrabile (in realtà ho
> letto non integrabile per vie elementari ... ma ammetto che non ho la
> minima idea di cosa siano le vie NON elementari, il termine mi incute
> timore, lol)

Non integrabile analiticamente. L'integrale esteso da -inf a +inf vale 1.

> Invece il binomiale, che è una funzione discreta, fatta solo di somme
> (per quanto ricorsiva) si integra numericamente SENZA approssimazione,

Falso.

> ergo si integra punto e stop, poco importa se non in modo simbolico
> perché appunto funzione ricorsiva (come il fattoriale del resto).

> Allora non capisco, attraverso il binomiale si può trovare un modo
> banale di integrare la gaussiana in modo esatto ?

No. E' il contrario. Attraverso la gaussiana si può "integrare" la
binomiale in modo approssimato.

> Cmq probabilmente mi sfugge qualcosa di profondo.

Penso di sì.

Giorgio Bibbiani

unread,
Aug 17, 2010, 5:40:20 AM8/17/10
to
Soviet_Mario wrote:
> Mi risultava, per sentito dire, non ne ho mai visto
> dimostrazioni e nemmeno so se un enunciato del genere si
> possa mai dimostrare in casi generici, che la gaussiana
> fosse una curva non integrabile (in realtà ho letto non
> integrabile per vie elementari ... ma ammetto che non ho la
> minima idea di cosa siano le vie NON elementari, il termine
> mi incute timore, lol)

La gaussiana e' integrabile su ogni intervallo reale, ma la sua
funzione integrale, che si chiama "funzione degli errori", non e'
considerata una "funzione elementare" (e' solo questione di come
siano definite le funzioni cosiddette elementari, per il significato dei
termini virgolettati v. ad es. le voci corrispondenti su wikipedia).

> Invece il binomiale, che è una funzione discreta, fatta solo
> di somme (per quanto ricorsiva) si integra numericamente
> SENZA approssimazione, ergo si integra punto e stop, poco
> importa se non in modo simbolico perché appunto funzione
> ricorsiva (come il fattoriale del resto).
> Allora non capisco, attraverso il binomiale si può trovare
> un modo banale di integrare la gaussiana in modo esatto ?

Come dicevo sopra l'integrale della gaussiana esiste su ogni
intervallo reale e si chiama funzione degli errori, se poi ti interessa
ottenere una *approssimazione numerica* di un dato valore della
funzione degli errori allora il metodo piu' semplice non e' di considerare
l'integrale di una binomiale per un valore di n >> 1 ma di integrare
numericamente la gaussiana, il che si ottiene facilmente integrando
per serie cioe' sviluppando in serie di potenze l'esponenziale che
e' l'argomento dell'integrale portando poi fuori dall'integrale il simbolo
di sommatoria e integrando a vista i vari termini della sommatoria.

Ciao
--
Giorgio Bibbiani

carlo spinelli

unread,
Aug 17, 2010, 6:07:50 AM8/17/10
to
On 17 Ago, 00:41, Soviet_Mario <Soviet.Ma...@CCCP.MIR> wrote:

> Mi risultava, per sentito dire, non ne ho mai visto
> dimostrazioni e nemmeno so se un enunciato del genere si
> possa mai dimostrare in casi generici, che la gaussiana
> fosse una curva non integrabile

Sicuramente non si può scrivere la primitiva della gaussiana in
termini di esponenziali, logaritmi, seni, coseni, polinomi finiti,
ecc. Voglio dire... se ad un esame di analisi matematica trovi un
esercizio del tempo "calcolare l'integrale indefinito di e^(-x^2)"
potresti guardare sbigottito il foglio per un po' e poi chiedere
spiegazioni :-)

Però se si parla di metodi numerici (e un fondo anche quando si usano
logaritmi, esponenziali, funzioni trigonometriche, ecc. si stanno
usando metodi numerici, solo che certe serie le si "battezza")
ovviamente le cose cambiano, e praticamente qualsiasi funzione diventa
integrabile con le opportune approssimazioni (tranne quelle cose
patologiche che piacciono tanto ai matematici).

Premesso questo devo dire che non so nulla del legame che sussuste tra
la binomiale e la gaussiana, ho solo fatto qualche osservazione su
quel particolare pezzo del tuo messaggio.

Tommaso Russo, Trieste

unread,
Aug 17, 2010, 8:32:27 AM8/17/10
to
Soviet_Mario ha scritto:

> Il 16/08/2010 21:40, Elio Fabri ha scritto:
>> Infatti si dimostra che per n-->oo la distribuzione binomiale tende (in
>> un senso ben preciso) alla gaussiana.
>
> Apperò, non solo non la sapevo, ma mi si scombussolano anche delle cose
> che davo per certe

http://www.roma1.infn.it/~dagos/PRO/node181.html

ciao

--
TRu-TS
Buon vento e cieli sereni

Soviet_Mario

unread,
Aug 17, 2010, 9:08:48 PM8/17/10
to
Il 17/08/2010 12:07, carlo spinelli ha scritto:
> On 17 Ago, 00:41, Soviet_Mario<Soviet.Ma...@CCCP.MIR> wrote:

Rispondo tutti qui, prendi tre paghi uno :)

>
>> Mi risultava, per sentito dire, non ne ho mai visto
>> dimostrazioni e nemmeno so se un enunciato del genere si
>> possa mai dimostrare in casi generici, che la gaussiana
>> fosse una curva non integrabile
>
> Sicuramente non si può scrivere la primitiva della gaussiana in
> termini di esponenziali, logaritmi, seni, coseni, polinomi finiti,

finalmente uno che riesce a capire cosa volevo dire con "non
integrabile". Non certo che non esistesse l'area (dopotutto
è una funzione continua e per giunta sempre > 0, per cui
quest'area deve certo esistere), ma che non si potesse
trovare la primitiva come dici tu.

Quando avrò il coraggio, proverò a vedere wiki come
suggerisce Bibbiani circa le funzioni elementari. Mah ...
non ci capirò una mazza, sicuramente :-)

> ecc. Voglio dire... se ad un esame di analisi matematica trovi un
> esercizio del tempo "calcolare l'integrale indefinito di e^(-x^2)"
> potresti guardare sbigottito il foglio per un po' e poi chiedere
> spiegazioni :-)

eh, mfatti.

Del post di Zampino non ho capito una cosa, non argomentata


Io dicevo :


<<Invece il binomiale, che è una funzione discreta, fatta
solo di somme (per quanto ricorsiva) si integra
numericamente SENZA approssimazione>>

Lui mi replica solo :
<<Falso>>

allora io gli dico, intendi dire che per numeri grandi viene
presto a mancare, come dire, tempo/risorse computazionali ?
In effetti non ci avevo pensato, ma se uno mi chiede di
integrare discretamente il binomiale
da 0 su 43513571571934712946213064234
fino a 43513571571934712946213064234 su
43513571571934712946213064234, in effetti non solo non so
calcolarlo in modo esatto (anche se è possibile in teoria),
ma non lo so proprio calcolare punto (dovrei scrivere un
programma in pyton con l'algebra a stringa a precisione
arbitraria, poi magari scoprirei che non mi basta la ram o
il disco fisso per contenere i parziali, ammesso che mi
bastasse il tempo ... dico per dire, magari il numero
sparato lì non è tale, ma certo aggiungendo qualche cifra sfora.

Se Zampino intendeva altro, allora non ho capito l'obiezione.

>
> Però se si parla di metodi numerici (e un fondo anche quando si usano
> logaritmi, esponenziali, funzioni trigonometriche, ecc. si stanno
> usando metodi numerici, solo che certe serie le si "battezza")
> ovviamente le cose cambiano, e praticamente qualsiasi funzione diventa
> integrabile con le opportune approssimazioni (tranne quelle cose
> patologiche che piacciono tanto ai matematici).
>
> Premesso questo devo dire che non so nulla del legame che sussuste tra
> la binomiale e la gaussiana, ho solo fatto qualche osservazione su
> quel particolare pezzo del tuo messaggio.

Questo punto l'hanno già chiarito altri, grazie
ciao
Soviet

BlueRay

unread,
Aug 18, 2010, 8:18:30 AM8/18/10
to
On 17 Ago, 00:41, Soviet_Mario <Soviet.Ma...@CCCP.MIR> wrote:
> Il 16/08/2010 21:40, Elio Fabri ha scritto:
>
> > Soviet_Mario ha scritto:
> >> Oddio ... il binomiale e la gaussiana hanno grafici a campana, ma dire
> >> che l'uno giustifica la forma dell'altra non so che voglia dire.
> > Hai ragione soltanto in parte.
> > Infatti si dimostra che per n-->oo la distribuzione binomiale tende (in
> > un senso ben preciso) alla gaussiana.
>
> Apperò, non solo non la sapevo,

Il senso ben preciso a cui (penso) si riferisse e' che n tende
al'infinito mentre p (parametro della binomiale che fornisce la
probabilita' del verificarsi di uno dei due possibili risultati di
misura) rimane costante. Nota che allora anche *la media e la
varianza* tendono ad infinito, dal momento che media = n*p e varianza
= n*p*(1-p).

Se invece n tende all'infinito, ma il prodotto n*p rimane costante
(ovvero p tende a zero con la stessa velocita') allora la
distribuzione Binomiale tende alla distribuzione di Poisson.

Zampino

unread,
Aug 19, 2010, 11:51:20 AM8/19/10
to
> <<Invece il binomiale, che è una funzione discreta, fatta solo di somme
> (per quanto ricorsiva) si integra numericamente SENZA approssimazione>>
> Lui mi replica solo :
> <<Falso>>
>
> allora io gli dico, intendi dire che per numeri grandi viene presto a
> mancare, come dire, tempo/risorse computazionali ? In effetti non ci
> avevo pensato, ma se uno mi chiede di integrare discretamente il binomiale
> da 0 su 43513571571934712946213064234
> fino a 43513571571934712946213064234 su
> 43513571571934712946213064234, in effetti non solo non so calcolarlo in
> modo esatto (anche se è possibile in teoria), ma non lo so proprio
> calcolare punto (dovrei scrivere un programma in pyton con l'algebra a
> stringa a precisione arbitraria, poi magari scoprirei che non mi basta
> la ram o il disco fisso per contenere i parziali, ammesso che mi
> bastasse il tempo ... dico per dire, magari il numero sparato lì non è
> tale, ma certo aggiungendo qualche cifra sfora.
>
> Se Zampino intendeva altro, allora non ho capito l'obiezione.

Si può calcolare *numericamente* e *senza approssimazione* la
probabilità di fare una testa su due lanci dove la probabilità di una
testa vale pi.greco/4?

Soviet_Mario

unread,
Aug 19, 2010, 9:10:12 PM8/19/10
to
Il 19/08/2010 17:51, Zampino ha scritto:
CUT

>>
>> Se Zampino intendeva altro, allora non ho capito l'obiezione.
>
> Si può calcolare *numericamente* e *senza approssimazione* la
> probabilità di fare una testa su due lanci dove la probabilità di una
> testa vale pi.greco/4?

e questo che c'azzecca con il calcolo del COEFFICIENTE
BINOMIALE in modo esatto ? Il coefficiente moltiplicativo
sarà esatto, poi la probabilità dell'evento, contenendo
l'irrazionale come termine moltiplicativo, sarà pure essa
irrazionale, ma non c'entra una mazza col binomiale in sé
stesso e la sua computabilità esatta (per numeri ragionevoli
però) ... onestamente, mi sembra più pertinente la mia
"auto-obiezione" sui binomiali contenenti numeri enormi, che
ricascano praticamente nel caso del pigreco o qualsiasi
altro irrazionale, anche se tale binomiale *RESTA* cmq un
numero esatto e finito, ancorché enorme, mentre
l'irrazionale non è conoscibile in sé.

Se tu conosci un coefficiente binomiale irrazionale,
citamelo, io non lo conosco. Introdurre una probabilità
arbitraria di un evento non è pertinente.
ciao
Soviet

lefthand

unread,
Aug 20, 2010, 6:05:14 AM8/20/10
to
Il Thu, 19 Aug 2010 17:51:20 +0200, Zampino ha scritto:

> Si può calcolare *numericamente* e *senza approssimazione* la
> probabilità di fare una testa su due lanci

Almeno una o esattamente una?

> dove la probabilità di una testa vale pi.greco/4?

E questo come lo sai?


--
Il popolo ha scelto Barabba.

Peter11

unread,
Aug 20, 2010, 4:26:32 PM8/20/10
to

"Elio Fabri" <elio....@tiscali.it> ha scritto nel messaggio

news:8coafm...@mid.individual.net...
> Peter11 ha scritto:
>> In verità il teorema, almeno nella formulazione di Lindeberg e Levy

Bè, se non hanno media nulla si possono sempre normalizzare. Concordo sul
fatto che se si parla di errore, assumere media nulla è ragionevole.
Io ricordo dimostrazioni che non richiedono la distribuzione identica delle
v.c., che fanno o meno uso della f. caratteristica, ma a memoria ricordo che
viene richiesta sempre l'esistenza di varianza (secondo momento) finita
(Liapunov e Lindeberg richiedono var(xn)<oo). Di sicuro non si richiede che
esista la funzione generatrice dei momenti, ma questa è un'altra faccenda.
Mi puoi indicare, per favore, quale teorema non richiede la varianza finita,
o quale è la condizione più debole cui accenni? Grazie.

Zampino

unread,
Aug 21, 2010, 3:31:14 AM8/21/10
to
lefthand ha scritto:

> Il Thu, 19 Aug 2010 17:51:20 +0200, Zampino ha scritto:
>
>> Si può calcolare *numericamente* e *senza approssimazione* la
>> probabilità di fare una testa su due lanci
>
> Almeno una o esattamente una?

Sì, volevo scrivere almeno una. Non che cambi molto.
Non ne faccio una ragione di stato. Semplicemente, adoperare
"numericamente" e "senza approssimazione" nella stessa frase mi sembra
un controsenso.

>> dove la probabilità di una testa vale pi.greco/4?
>
> E questo come lo sai?

Non lo so. Ho inventato l'esempio. Perché nella famiglia delle variabili
binomiali n e p sono parametri, non costanti. Non è che p debba per
forza essere sempre uguale a 1/2.
Soviet_Mario scrive "il binomiale, che è una funzione discreta, [] si
integra numericamente SENZA approssimazione" e poi "e questo che
c'azzecca con il calcolo del COEFFICIENTE BINOMIALE in modo esatto".
Se parliamo di probabilità, mi pare che oltre al calcolo dei
coefficienti binomiali occorra tenere conto del fattore moltiplicativo
p^n(1-p)^(n-p).

Peter11

unread,
Aug 21, 2010, 6:53:08 AM8/21/10
to

"piero nessuno" <pier...@gmail.com> ha scritto nel messaggio
news:44f37d34-68cb-4be7...@k10g2000yqa.googlegroups.com...


> On 16 Ago, 01:36, Soviet_Mario <Soviet.Ma...@CCCP.MIR> wrote:
>> non direi, descrive il binomiale
>

> Col triangolo di tartaglia o la tavola di Galton si vede come le
> combinazioni dei percorsi che arrivano in un punto determinano la
> probabilità di quell'evento
> Sono due modi diversi di giungere alla forma a campana della funzione
>

Sì, ma la tavola di Galton si costruisce a partire da un esperimento, che si
fa con chiodi, tavole di legno e palline. Il fine credo fosse quello di dare
una dimostrazione empirica del teorema limite centrale. Il triangolo di
Tartaglia, invece, è un utile strumento nel calcolo combinatorio. Peraltro,
sommando i valori delle diagonali si ottengono i numeri di Fibonacci, e
magari al suo interno si cela anche il numero del prossimo biglietto
vincente della lotteria di capodanno :-)

Elio Fabri

unread,
Aug 21, 2010, 3:24:37 PM8/21/10
to
BlueRay ha scritto:

> Il senso ben preciso a cui (penso) si riferisse e' che n tende
> al'infinito mentre p (parametro della binomiale che fornisce la
> probabilita' del verificarsi di uno dei due possibili risultati di
> misura) rimane costante. Nota che allora anche *la media e la
> varianza* tendono ad infinito, dal momento che media = n*p e varianza
> = n*p*(1-p).
Infatti bisogna stare un po' attenti.
Un modo per vedere la cosa e' d'introdurre al posto della variabile
casuale somma

Sn = X1 + ... + Xn

una "somma ridotta"

Sn' = (Sn - np)/sqrt(np(1-p)).

Sn' ha media 0 e varianza 1 per ogni n, ed e' questa che ha una
distribuzione che tende (in senso integrale) alla distribuzione
normale quando n --> oo.

Peter11 ha scritto:


> Mi puoi indicare, per favore, quale teorema non richiede la varianza

> finita, o quale č la condizione piů debole cui accenni? Grazie.
Dato che sono tutt'altro che un esperto in materia, posso solo rifarmi
all'unica autorita' che conosco, ossia il vecchio libro di Feller (An
Introduction to Probability Theory...).
Il discorso e' di gran lunga troppo complicato per poterlo ripetere
qui.
Ti rimando alla fonte: vol. 2, pag. 544, teorema 1a e commento
esplicito proprio sulla questione della varianza finita.

--
Elio Fabri

Peter11

unread,
Aug 21, 2010, 9:17:26 AM8/21/10
to

"BlueRay" <blupa...@alice.it> ha scritto nel messaggio
news:ecd63e7e-104e-430b...@v8g2000yqe.googlegroups.com...


> On 17 Ago, 00:41, Soviet_Mario <Soviet.Ma...@CCCP.MIR> wrote:
>> Il 16/08/2010 21:40, Elio Fabri ha scritto:
>>
>> > Soviet_Mario ha scritto:
>> >> Oddio ... il binomiale e la gaussiana hanno grafici a campana, ma dire
>> >> che l'uno giustifica la forma dell'altra non so che voglia dire.
>> > Hai ragione soltanto in parte.
>> > Infatti si dimostra che per n-->oo la distribuzione binomiale tende (in
>> > un senso ben preciso) alla gaussiana.
>>
>> Apperò, non solo non la sapevo,
>
> Il senso ben preciso a cui (penso) si riferisse e' che n tende
> al'infinito mentre p (parametro della binomiale che fornisce la
> probabilita' del verificarsi di uno dei due possibili risultati di
> misura) rimane costante. Nota che allora anche *la media e la
> varianza* tendono ad infinito, dal momento che media = n*p e varianza
> = n*p*(1-p).
>

Non si capisce bene come entra in gioco il limite. Il concetto di *limite
in probabilità* coincide con quello usuale, a parte il fatto che si trova un
valore di n a partire dal quale vale la diseguaglianza non con certezza, ma
con una certa probabilità.
Partiamo dalla scrittura seguente
lim P[|Xn(a)-X(a)|<=e]=1
N->oo
ovvero:
lim P[!Xn(a)-X(a)|>=e]=0
N->oo

Essa non assicura tuttavia che tutti i valori entro parentesi quadra si
manterranno inferiori a *e* al di sopra di un certo N, per ogni elemento a
dello spazio degli eventi, ma che l'*insieme* dei valori che superano e ha
una probabilità trascurabile, al limite nulla.
Al fine di assicurare che per la più parte delle successioni si abbia
|Xn(a)-X(a)|<=e
occorre introdurre il limite quasi certo o in probabilità 1, ovvero:
P [ lim |Xn(a)-X(a)|<=e]=1
N->oo
In questo caso, vi è certezza dell'esistenza di un insieme di elementi a che
per N->oo tende a coincidere con lo spazio campionario e per i quali la
successione di numeri reali Xn(a) tende a coincidere con il limite nel senso
ordinario dell'analisi.
Come vedi, la faccenda non è poi così semplice...


lefthand

unread,
Aug 21, 2010, 11:23:33 AM8/21/10
to
Il Sat, 21 Aug 2010 09:31:14 +0200, Zampino ha scritto:

> lefthand ha scritto:
>> Il Thu, 19 Aug 2010 17:51:20 +0200, Zampino ha scritto:
>>
>>> Si può calcolare *numericamente* e *senza approssimazione* la
>>> probabilità di fare una testa su due lanci
>>
>> Almeno una o esattamente una?
>
> Sì, volevo scrivere almeno una. Non che cambi molto. Non ne faccio una
> ragione di stato. Semplicemente, adoperare "numericamente" e "senza
> approssimazione" nella stessa frase mi sembra un controsenso.

Si, capisco il tuo ragionamento.

>>> dove la probabilità di una testa vale pi.greco/4?
>>
>> E questo come lo sai?
>
> Non lo so. Ho inventato l'esempio.

Ah! Perché quel pi greco è veramente strano.

> Perché nella famiglia delle variabili
> binomiali n e p sono parametri, non costanti. Non è che p debba per
> forza essere sempre uguale a 1/2.

Si, ma 1/2 è un assunto a priori. Una probabilità pi greco/4 o esce da un
passaggio al limite, o da un problema geometrico (e quindi misure, e
quindi approssimazioni...)

> Soviet_Mario scrive "il binomiale, che è una funzione discreta, [] si
> integra numericamente SENZA approssimazione" e poi "e questo che
> c'azzecca con il calcolo del COEFFICIENTE BINOMIALE in modo esatto". Se
> parliamo di probabilità, mi pare che oltre al calcolo dei coefficienti
> binomiali occorra tenere conto del fattore moltiplicativo
> p^n(1-p)^(n-p).

Certo.

Peter11

unread,
Aug 21, 2010, 4:07:21 PM8/21/10
to

"Elio Fabri" <elio....@tiscali.it> ha scritto nel messaggio

news:8danjc...@mid.individual.net...


>> Mi puoi indicare, per favore, quale teorema non richiede la varianza

>> finita, o quale è la condizione più debole cui accenni? Grazie.


> Dato che sono tutt'altro che un esperto in materia, posso solo rifarmi
> all'unica autorita' che conosco, ossia il vecchio libro di Feller (An
> Introduction to Probability Theory...).
> Il discorso e' di gran lunga troppo complicato per poterlo ripetere
> qui.
> Ti rimando alla fonte: vol. 2, pag. 544, teorema 1a e commento
> esplicito proprio sulla questione della varianza finita.
>
> --

Grazie, andrò a cercarlo. Scusa se rompo ancora, ma per il caso di varianza
infinita si richiede per caso che le vc siano identicamente distribuite e si
introduce la definizione di *distribuzione stabile*? Perché ora mi pare di
ricordare che per le distribuzioni stabili si possa generalizzare il teorema
centrale del limite anche nel caso di secondo momento non finito.

Soviet_Mario

unread,
Aug 21, 2010, 8:47:14 AM8/21/10
to

ah beh, quindi tu identifichi il coefficente binomiale (uno
dei termini) con la probabilità complessiva dell'evento. In
quest'ottica capisco che calcolo "numerico" e "senza
approssimazione" facciano a pugni.
Io no, per coefficiente binomiale esatto e numerico
intendevo soltanto ENNE SU KAPPA e stop (che come rapporto
tra fattoriali è un numero RAZIONALE, ergo è in principio
conoscibile in modo esatto anche con calcoli numerici e non
analiticamente esprimibili). Ovviamente (e purtroppo) non
cade l'auto-obiezione sulla computabilità numerica di
calcoli iterativi con numeri grandi.

Cmq, spiegato l'arcano ... ah, ancora una cosa, anche con
rimando alla spiegazione di Elio Fabri, che non sono più
sicuro di avere capito.
Quando il prof. diceva che per grandi numeri la curva
binomiale approssima la Gaussiana, intendeva la mera
rappresentazione del solo coeff. binomiale, o l'intera
probabilità inclusiva SIA del coeff. binomiale SIA dei
termini esponenziali con la probabilità dell'evento e del
complementare ?
Chiederei una conferma dei due (ho una mia ipotesi, ma non
la dico, perché facilmente è errata :-)
ciao
Soviet

Elio Fabri

unread,
Aug 23, 2010, 3:32:14 PM8/23/10
to
Soviet_Mario ha scritto:

> Quando il prof. diceva che per grandi numeri la curva binomiale
> approssima la Gaussiana, intendeva la mera rappresentazione del solo
> coeff. binomiale, o l'intera probabilità inclusiva SIA del coeff.
> binomiale SIA dei termini esponenziali con la probabilità dell'evento
> e del complementare ?
Io non ho mai parlato di coefficienti binomiali.
In realta' non ho mai parlato neppure di distribuzione binomiale, che
e' solo un caso particolare.
Ma il teorema centrale del limite si riferisce alle *distribuzioni di
probabilita'*.

Peter11 ha scritto:


> Non si capisce bene come entra in gioco il limite. Il concetto di
> *limite in probabilità* coincide con quello usuale, a parte il fatto
> che si trova un valore di n a partire dal quale vale la diseguaglianza
> non con certezza, ma con una certa probabilità.

Sebbene sia giusto ricordare che "limite in probabilita'" e' una cosa
meno semplice del limite ordinario, direi pero' che nel caso di cui
si parla questo non c'entra.

Il teorema centrale del limite dice che una certa successione di
distribuzioni di probabilita' (che sono funzioni) tende a un certo
limite, e questo nel senso ordinario dei limiti di funzioni.

Se mai la precisazione da fare e' un'altra: in che senso un
distribuzione discreta (ad es. la binomiale) puo' avere come limite
una funzione continua come la gaussiana?
La risposta e' che il limite va fatto per le probabilita' *integrali*
in intervalli fissati, non per i valori delle funzioni.

Peter11 ha scritto:


> Grazie, andrò a cercarlo. Scusa se rompo ancora, ma per il caso di
> varianza infinita si richiede per caso che le vc siano identicamente
> distribuite e si introduce la definizione di *distribuzione stabile*?
> Perché ora mi pare di ricordare che per le distribuzioni stabili si
> possa generalizzare il teorema centrale del limite anche nel caso di
> secondo momento non finito.

Lo vedi che ne sai piu' di me? IO senza il mio caro Feller sarei nel
buio piu' completo...

Comunque credo che tu abbia ragione. Infatti l'enunciato del teorema
contiene la seguente asserzione:
"(3) Only stable distributions have a domain of attraction."

Preciso che il teorema sta nel Cap. 17 (Infinitely divisible
distributions) sect. 5. Questo per l'eventualita' che tu andassi a
cercare in un'edizione diversa.

--
Elio Fabri

Army1987

unread,
Aug 23, 2010, 6:41:44 AM8/23/10
to
On Sat, 14 Aug 2010 21:46:22 +0200, Elio Fabri wrote:

> Ma a me interessava dare una risposta comprensibile a uno che e' alle
> prime armi, e in relazione a un problema fisico dove assumere media
> nulla e' del tutto ragionevole.

Beh, se ci sono errori sistematici la media degli errori di misura non è
nulla...

--
Vuolsi così colà dove si puote
ciò che si vuole, e più non dimandare.
[ T H I S S P A C E I S F O R R E N T ]
<http://xkcd.com/397/>

Zampino

unread,
Aug 23, 2010, 4:23:17 PM8/23/10
to
> Cmq, spiegato l'arcano ... ah, ancora una cosa, anche con rimando alla
> spiegazione di Elio Fabri, che non sono più sicuro di avere capito.
> Quando il prof. diceva che per grandi numeri la curva binomiale
> approssima la Gaussiana, intendeva la mera rappresentazione del solo
> coeff. binomiale, o l'intera probabilità inclusiva SIA del coeff.
> binomiale SIA dei termini esponenziali con la probabilità dell'evento e
> del complementare ?

La seconda che hai detto.

Peter11

unread,
Aug 24, 2010, 1:47:12 PM8/24/10
to

"Elio Fabri" <elio....@tiscali.it> ha scritto nel messaggio

news:8dg0q9...@mid.individual.net...


> Il teorema centrale del limite dice che una certa successione di
> distribuzioni di probabilita' (che sono funzioni) tende a un certo
> limite, e questo nel senso ordinario dei limiti di funzioni.
>
> Se mai la precisazione da fare e' un'altra: in che senso un
> distribuzione discreta (ad es. la binomiale) puo' avere come limite
> una funzione continua come la gaussiana?
> La risposta e' che il limite va fatto per le probabilita' *integrali*
> in intervalli fissati, non per i valori delle funzioni.

In realtà volevo solo far osservare che il concetto di limite in statistica
è, come dire, un po' delicato da trattare, ma non l'ho specificato.
Riguardo alla binomiale/gaussiana, la memoria mi rimanda al teorema di De
Moivre - La Place, che è un caso particolare di teorema centrale limite.
Chiaro che devo passare dal discreto al continuo. Mi pare si introduca ad un
certo punto una funzione g(x) = log P(Xn*=x), che non è definita ovunque, ma
la si può estendere, nel continuo, ai valori intermedi.
Se non ricordo male, posso scrivere che:
gn(x) = gn(0) + int 0 to x (g'n(z)dz.

>
> Peter11 ha scritto:
>> Grazie, andrò a cercarlo. Scusa se rompo ancora, ma per il caso di
>> varianza infinita si richiede per caso che le vc siano identicamente
>> distribuite e si introduce la definizione di *distribuzione stabile*?
>> Perché ora mi pare di ricordare che per le distribuzioni stabili si
>> possa generalizzare il teorema centrale del limite anche nel caso di
>> secondo momento non finito.
> Lo vedi che ne sai piu' di me? IO senza il mio caro Feller sarei nel
> buio piu' completo...
>
> Comunque credo che tu abbia ragione. Infatti l'enunciato del teorema
> contiene la seguente asserzione:
> "(3) Only stable distributions have a domain of attraction."
>
> Preciso che il teorema sta nel Cap. 17 (Infinitely divisible
> distributions) sect. 5. Questo per l'eventualita' che tu andassi a
> cercare in un'edizione diversa.
>

Grazie. Non è che ne so più di te, il fatto è che ho studiato quasi
esclusivamente statistica in tutte le salse, compresa la snobbata statistica
descrittiva (sulla popolazione), la multivariata, la non parametrica e via
di questo passo :-) Adesso non è che mi ricordi molto...

0 new messages