im Rahmen einer Toleranzberechnung ergibt sich folgende
Problemstellung:
In ein Blech wird ein Loch mit einem kleinen Durchmesser gestanzt, um
zu einem späteren Zeitpunkt mit einem größeren Durchmesser
nachgestanzt zu werden. Dabei ist zu gewährleisten, dass es zu keiner
Überschneidung kommt (es soll beim Nachstanzen auf jeden Fall
umlaufend Material abgetragen werden). Die Statistische Sicherheit
(Standardabweichung des sich ergebenden Spaltmaßes) soll hierfür
ermittelt werden. Die beiden Löcher sind jeweils bestimmt duch X- und
Y-Koordinate des Mittelpunktes sowie den jeweiligen Durchmesser (D).
Wenn für das kleine Loch der Index "k" und für das große Loch der
Index "g" verwendet wird ergibt sich mathematisch folgende Beziehung
für das Spaltmaß "x":
x = Dg/2-Dk/2-Wurzel((Xg-Xk)^2+(Yg-Yk)^2)
Für die Einzelmaße sollen folgende Annahmen gelten:
- Qualitätsniveau 3 Sigma (Standardabweichung = T/3 mit T=Toleranz)
- Die Einzelmaße sind unabhängig voneinander
- Die Mittelwerte der Einzelmaße liegen jeweils in der Toleranzmitte
Ich habe nun versucht das Problem mit Hilfe des Gaußschen
Fehlerfortpflanzungsgesetzes zu lösen. Dabei bin ich auf das Problem
gestoßen, dass sich die Anteile der X- und Y- Koordinaten der
Kreismittelpunkte gegenseitig aufheben, da ja beim Einsetzen der
Nennmaße die beiden Kreise absolut konzentrisch sind.
Ich glaube, dass in diesem Fall das Gaußsche
Fehlerfortpflanzungsgesetz nicht anwendbar ist. Meine Vermutung ist
folgende: Da für die Variation des Spaltmaßes nicht die X- und Y-
Koordinaten absolut, sondern Ihre Differenzen ausschlaggebend sind
(also das jeweilige Delta, z.B. Xg-Xk) wird der Grundsatz nicht
erfüllt, dass die Toleranz sehr viel kleiner sein muss als das
Nennmaß, um Linearität zu gewährleisten.
Nun meine Frage: Liege ich mit meiner Vermutung richtig, oder ist das
Problem doch mit der Gaußschen Fehlerfortpflanzung lösbar? Wenn nicht,
gibt es eine andere analytische Lösung?
Schöne Grüße,
Bastian
was schon deshalb falsch sein muss, weil d positiv ist:-(
--
Roland Franzius
Das Problem besteht darin das Sigma für das Spaltmaß zu bestimmen,
welches sich zwischen dem großen und dem kleinen Kreis ergibt. Ich
habe es wie gesagt mit dem Gaußschen Fehlerfortpflanzungsgesetz
versucht.
Also:
1. Funktion für das Spaltmaß in Abhängigkeit der Einzelmaße aufstellen
(x als Spaltmaß war wol nicht so schlau, daher nun "s" für Spaltmaß):
s = Dg/2-Dk/2-SQRT((Xg-Xk)^2+(Yg-Yk)^2)
mit Xg-Xk = dx und Yg-Yk = dy
s = Dg/2-Dk/2-SQRT(dx^2+dy^2)
2. Partielle Ableitungen ermitteln
delta(s)/delta(Dg) = 1/2
delta(s)/delta(Dk) = -(1/2)
delta(s)/delta(dx) = -(dx/SQRT(dx^2+dy^2))
delta(s)/delta(dy) = -(dy/SQRT(dx^2+dy^2))
Und genau hier liegt mein Problem: Sowohl dx als auch dy sind als
Nennwert = 0. Denn wenn alle Maße im Nennmaß sind gibt es ja keine
Exzentrizität. Wenn ich nun also die Partiellen Ableiungen in das
Gaußsche Fehlerfortpflanzungsgesetz mit den konkreten Werten einsetze,
fallen genau die Terme, welche die Exzentrizität ausmachen raus. Das
kann aber nicht richtig sein, denn die Exzentrizität hat natürlich
einen Einfluss auf das Spaltmaß. Ich habe das Problem mittlerweile
gelöst, indem ich mir mit Hilfe von Excel jeweils 1000 Zufallszahlen
für die Einzelmaße generiert habe (normalverteilt mit den
entsprechenden Mittelwerten und Standardabweichungen). Trotzdem würde
ich gerne wissen, ob es in meinem oben gezeigten Lösungsweg einen
Fehler gibt und das Problem doch analytisch lösbar ist.
Liebe Grüße,
Bastian
Das übliche Papperlapapp von Leuten, die Statistik mit der Mistgabel zu
sich nehmen.
Offenbar hat die Dichte einer Gaussverteilung beim Erwartungswert ein
Maximum, während die Dichte des Zufallsradius bei 0 ein Minimum hat.
F[r]=Pr[ x^2 +y^2 < r^2 ] = int_0^r dr r 1/sigma^2 e^-(r^2/(2 sigma^2))
= 1-exp(- r^2/(2 sigma^2))
hat die Dichte
f[r] = 1/sigma r exp(-r^2/(2 sigma))
ihr Maximum liegt, wie nicht anders zu erwarten, bei r=sigma.
Da staunt das Physikerlein immer wieder.
--
Roland Franzius
Roland hat ganz korrekt die Verteilungsdichte für den Abstand vom
Nullpunkt hergeleitet.
Da Dir das zu mathematisch ist, machen wir's man anschaulich:
Die Wahrscheinlichkeit, daß der Punkt in einem kleinen Radius r um den
Nullpunkt liegt P(r), ist nach oben beschränkt durch
P(r) < = \pi *r^2 *K (Wobei K das Maximum der zweidimensionalen
Normalverteilungsdichte ist.)
Differenzieren wir das bei Null, kriegen wir für die Ableitung p(0):
p(0) <= \lim_{r->0} 2*\pi *K*r =0
Die W-dichte des Abstands ist also Null bei Null.
Nun ist es plausibel, daß, da mit wachsendem Abstand vom Nullpunkt die
zwei-dim. Normalverteilungsdichte abnimmt, die Kreise, über die
integriert wird aber größer werden, die W-dichte p(r) des Abstands
zuerst zunimmt und dann, wenn das exponentielle Abnehmen der Dichte
überwiegt,
abnimmt.
Wenn Dir das zu unpräzise ist, mußt Du eben Rolands Ableitung der
Dichte nachvollziehen.
Ciao
Karl
Das wußten wir aus der Aufgabenstellung. Die ösung der Aufgabe besteht
laut OP, darin, das Fehlerfortpflanzungsgesetz für die Funktion
r=sqrt(x^2+y^2) von zwei normalverteilten Variablen zu verstehen, nicht
darin, sich die Geometrie und Maße der gegebenen zweidimensionalen
Verteilung vorstellen zu können.
--
Roland Franzius
Wenn die Varianz von X nicht klein gegen den Mittelwert E(X)ist, macht
die Taylornäherung
Y=g(X)
= g(E(X) + (X-E(X)))
= g(E(X)) + g'(X-E(X)) + 1/2 g''(X-E(X))(X-E(X))^2 + ..
natürlich keinerlei Sinn.
Stattdessen muss man die Verteilung, Mittelwert und Varianz von Y
explizit bestimmen. Sei Pr das Wahrscheinlichkeitsmaß auf Intervallen,
F die Verteilungsfunktion für X, dann hat man
F(y)=Pr[Y < y] = Pr[g(X) < y ] = Pr[ X \in g^(-1)(-oo,y)]
wobei g^-1 eine Mengenfunktion ist, also im allgemeinen Fall eine aus
Teilintervallen mit monotonem g-Verlauf zusammenzustückelnde
Mengenabbildung.
Ist g zB monoton steigend, kann man die Dichte direkt bilden
Pr[Y<y] = Pr[X < g^(-1)(y)]
dPr[Y < y] =
dy d/dy F(g^(-1)(y)) = F'(g^-1(y) )*1/g'(g^-1(y)) dy = h(y) dy
Mittelwert und Varianz sind dann mit h zu bilden.
Den Fall mit der Länge eines normalverteilten Vektors im R^n behandelt
man direkt mit dem Gaußintegral
Sind die Komponenten X_k 0,1-normalverteilt, so ist die Verteilung des
Betrage gegeben durch die Standardmethode
Pr[|X| < r] =
int_(|X| <r) d^nx exp(- sum x_n^2/2 )/
int_(|X| <oo) d^nx exp(- sum x_n^2/2 )
= int_0^r du u^(n-1) e^(-u^2/2) / int_0^oo du u^(n-1) e^(-u^2/2)
wobei die Kugelflächenintegrale gekürzt sind.
Die Dichte ist
Pr[|X| \in (r,r+dr)] =
r^(n-1) e^(-r^2/2)/int_0^oo u^(n-1) e^(-u^2/2)
Im Fall n=2 also
Pr[|X|\in (r,r+dr)] = dr r e^(-r^2/2).
Der Erwartungswert ist sqrt(pi/2)=1,25, die Varianz 2, also die
Standardabweichung 1,4 und diese Werte skalieren beide mit der Varianz
der ursprünglichen Normalverteilung.
Es hat also wenig Sinn, in eine, solchen Fall mit Summen unabhängiger,
gaussverteilter Zufallsgrößen und Differentialrechung zur
Fehlerfortpflanzung formal zu herumzurechnen.
Wenn natürlich die Zufallsgröße |X| in einer Summe selbst klein gegen
die Fehler anderer Summanden ist, ist es eh egal, was man als deren
Verteilung postuliert, dann gibt man zum Fehler der fehlerbestimmenden
Summanden eben noch ein paar Sicherheitsprozente hinzu.
--
Roland Franzius
Wenn die Varianz von X nicht klein gegen den Mittelwert E(X)ist, macht
die Taylornäherung
Y=g(X)
= g( E(X) + (X-E(X)) )
= g(E(X)) + g'(E(X))*(X-E(X)) + 1/2 g''(E(X))*(X-E(X))^2 + ..
natürlich keinerlei Sinn.
Stattdessen muss man die Verteilung, Mittelwert und Varianz von Y
explizit bestimmen. Sei Pr das Wahrscheinlichkeitsmaß auf Intervallen,
F die Verteilungsfunktion für X, dann hat man
F(y)=Pr[Y < y] = Pr[g(X) < y ] = Pr[ X \in g^(-1)(-oo,y)]
wobei g^(-1) eine Mengenfunktion ist, also im allgemeinen Fall eine aus
Teilintervallen mit monotonem g-Verlauf zusammenzustückelnde
Mengenabbildung.
Ist g zB monoton steigend, kann man die Dichte direkt bilden
Pr[Y<y] = Pr[X < g^(-1)(y)]
dPr[Y < y] =
dy d/dy F(g^(-1)(y)) = F'(g^(-1)(y) )*1/g'(g^(-1)(y)) dy = h(y) dy
Mittelwert und Varianz sind dann mit h zu bilden.
Den Fall mit der Länge eines normalverteilten Vektors im R^n behandelt
man direkt mit dem Gaußintegral
Sind die Komponenten X_k 0,1-normalverteilt, so ist die Verteilung des
Betrage gegeben durch die Standardmethode unnormierte Verteilung/Gewicht
der unnormierten Verteilung
Pr[|X| < r] =
int_(|X| <r) d^nx exp(- sum x_n2/2 )/
int_(|X| <oo) d^nx exp(- sum x_n2/2 )
= int_0^r du u^(n-1) e^(-u2/2) / int_0^oo du u^(n-1) e^(-u2/2)
wobei die Kugelflächenintegrale gekürzt sind.
Die Dichte ist
Pr[|X| \in (r,r+dr)] =
r^(n-1) e^(-r2/2)/int_0^oo u^(n-1) e^(-u2/2)
Im Fall n=2 also
Pr[|X|\in (r,r+dr)] = dr r e^(-r2/2).
Daß der Abstand eben nicht normalverteilt ist, wie Du behauptest hast.
Du hast also Quatsch gelabbert!
Verstehst Du das wenigstens?
Ciao
Karl
Sorry, Du hast mich vollkommen abgehängt :-)
Bis jetzt nehme ich mal folgende Erkenntnisse mit:
1. Meine Vermutung, dass in diesem Fall die Fehlerfortpflanzung nicht
anwendbar ist, war richtig.
2. Die Exzentrizität SQRT(dx^2+dy^2) ist NICHT normalverteilt, was
auch einleuchtend ist.
3. Damit ist das Spaltmaß ebenfalls nicht normalverteilt. Die
Verteilung des Spaltmaßes ist um so unsymetrischer, je größer der
Einfluss der Exzentrizität ist und um so symmetrischer, je größer der
Einfluss der Durchmesserabweichungen wird.
4. Der Erwartungswert des Spaltmaßes stimmt damit auch nicht mit dem
arithmetisch berechneten Wert überein. Er ist um den Erwartungswert
der Exzentrizität verschoben hin zu kleineren Werten (Stimmt das?).
> Der Erwartungswert ist sqrt(pi/2)=1,25, die Varianz 2, also die
> Standardabweichung 1,4 und diese Werte skalieren beide mit der Varianz
> der ursprünglichen Normalverteilung.
Kannst Du mich bitte nochmal ein Stück früher abholen und mit
erklären, wie Du darauf kommst?
Ist es nicht ungewöhnlich, dass die Standardabweichung von r größer
sein soll als die von x und y?
Ich hätte ehrlich gesagt erwartet, dass die Standardabweichung kleiner
wird, da sich auch hier die Abweichungen von x und y teilweise
kompensieren (wenn auch nicht so ausgeprägt wie bei einer linearen
Maßkette)??
Gruß, Bastian