Re: Wahrscheinlichkeit

83 views
Skip to first unread message

Martin Vaeth

unread,
Aug 5, 2021, 2:17:23 PMAug 5
to
Stefan Ram <r...@zedat.fu-berlin.de> schrieb:
> Angenommen die Wahrscheinlichkeit für ein Lebewesen in den
> nächsten 365,2425 Tagen zu sterben beträgt 0,0112583454592142.
>
> Wenn man zur Vereinfachung annimmt, daß die Wahrscheinlichkeit
> sich in diesem Zeitraum nicht ändert, wie groß ist dann die
> Wahrscheinlichkeit x dafür am nächsten Tag zu sterben?

Die Frage ergibt keinen Sinn: Was soll die Aussage bedeuten,
dass sich "die Wahrscheinlichkeit in diesem Zeitraum nicht ändert"?
Die natürlichste Erklärung wäre (siehe unten), eine Gleichverteilung
der Sterbe-Wahrscheinlichkeit in dem Intervall anzunehmen (das würde
ich als natürlichste Interpretation von "nicht ändern") empfinden -
wie gesagt, siehe unten.
In dem Fall wäre die Wahrscheinlichkeit 0,011.../365,2...

Du scheinst in Deiner Rechnung jedoch einen stochastischen Prozess
mit dem Ereignis "stirbt an diesem Tag" zugrundezulegen (und dabei
irgendwie annehmen, dass der Prozess einen beliebig oft sterben
lassen kann) und willst, dass die Wahrscheinlichkeit dieses
*Prozeses* zeitunabhängig ist. Da Du anscheinend zugleich eine
stochastische Unabhängigkeit zugrundelegen willst, scheinst Du
bei so etwas *ähnlichem* wie einem Bernoulli-Prozess zu landen:

> Ich nehme an
>
> (1-x)^365,2425=1-0,0112583454592142

Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
auch gar nicht.)

Aber wie gesagt erscheint mir das Modellieren mit einem
mathematischen Prozess in diesem Fall ohnehin sehr hanebüchen,
weil man eben nun mal genau einmal sterben kann.

> Komisch, daß man die Wahrscheinlichkeit zu sterben erst auf
> das Gegenteil, die Wahrscheinlichkeit zu leben, umrechnen muß.
[..]
> Und mit diesem "Oder" kann man anscheinend weniger direkt
> rechnen als mit dem "Und" aus dem vorigen Absatz.

Wenn wir mal auf 365 Tage runden und einen Bernoulli-Prozess
zugrunde legen, ist das "Und" deswegen so leicht zu handhaben,
weil für stochastisch unabhängige Ereignisse A und B eben die
Formel
P(A \cap B) = P(A)P(B)
gilt.

Mit "oder" kann man jedoch auch sehr gut rechnen, wenn man
einen Wahrscheinlichkeitsraum hat (das passt dann jedoch
nicht mehr mit Deiner stillschweigenden Annahme eines
stochastischen Prozesses zusammen):

Für disjunkte Ereignisse A und B ist ja
P(A \cup B) = P(A) + P(B).

Und tatsächlich: Wenn wir die von mir vorgeschlagene
Gleichverteilung auf dem Intervall zugrundelegen, ist die
Wahrscheinlichkeit, an einem der ersten beiden Tage zu
sterben, gleich der Summe der Wahrscheinlichkeiten am ersten
bzw. zweiten Tag zu sterben. Und letztere beide sind gleich
groß: Dies ist der Grund, weshalb es mir natürlich erscheint,
die Aussage "Die wahrscheinlichkeit ändert sich nicht"
als Gleichverteilung auf dem Intervall zu modellieren.

Ralf Goertz

unread,
Aug 6, 2021, 3:30:51 AMAug 6
to
Am 5 Aug 2021 17:01:45 GMT
schrieb r...@zedat.fu-berlin.de (Stefan Ram):

> Angenommen die Wahrscheinlichkeit für ein Lebewesen in den
> nächsten 365,2425 Tagen zu sterben beträgt 0,0112583454592142.
>
> Wenn man zur Vereinfachung annimmt, daß die Wahrscheinlichkeit
> sich in diesem Zeitraum nicht ändert, wie groß ist dann die
> Wahrscheinlichkeit x dafür am nächsten Tag zu sterben?
>
> Ich nehme an
>
> (1-x)^365,2425=1-0,0112583454592142
> -x=(1-0,0112583454592142)^(1/365,2425)-1
>
> also x=3.099865120403944e-05.
>
> Ist das richtig?
>
> Komisch, daß man die Wahrscheinlichkeit zu sterben erst auf
> das Gegenteil, die Wahrscheinlichkeit zu leben, umrechnen muß.
> Dies deutet auf eine Asymmetrie zwischen den beiden hin.
>
> Mit der Wahrscheinlichkeit zu leben kann man "direkt" rechnen
> (multiplizieren), weil ein Zeitraum aus zwei Tagen überlebt
> wird, wenn beide Tage einzeln überlebt werden.
>
> Beim Sterben kommt aber hinzu, daß es bereits reicht, an einem
> der Tage zu sterben, also am ersten Tag ODER am zweiten.
> Und mit diesem "Oder" kann man anscheinend weniger direkt rechnen
> als mit dem "Und" aus dem vorigen Absatz.

Der richtige Ansatz für diese Fragestellung ist die Ereigniszeitanalyse
oder Survival Analysis <https://en.wikipedia.org/wiki/Survival_analysis>
insbesondere die Survival Function und Hazard Function. Letztere muss
nicht konstant sein. Wenn sie es ist, bekommen wir eine
expontentialfunktion für die Survival Funktion. Bei Vergleichen zwischen
Gruppen wird dann meist das Hazard Ratio berechnet, das in gewissem Sinn
parameterfrei ist, aber voraussetzt, dass das Verhältnis der Hazards
zwischen den Gruppen konstant ist. Neuere Ansätze benutzen die
Accelerated Failure Time Modelle
<https://en.wikipedia.org/wiki/Accelerated_failure_time_model>, mit
deren Hilfe man die Survival Function modelliert und somit auch
Vorhersagen machen kann.

wernertrp

unread,
Aug 6, 2021, 4:15:49 AMAug 6
to
ohne mathe zu können wurde ich sagen 1/365 stel.

Jens Kallup

unread,
Aug 6, 2021, 6:39:35 AMAug 6
to
Hallo Stefan,

überlegen wir mal:
wir haben "eine" Person, und 365 Tage, in der die Person sterben könnte.
Dann ergäbe sich:

____ 1 (erster Tag )
/
o----- 2 (zweiter Tag)
.
.
.
\_____ 365 (letzter Tag)


Frage: kann die Laplace-Regel verwendet werden?

1)
Beispiel: - Die Wahrscheinlichkeit am Tag 365 zu sterben, ist genauso
groß, wie am Tag 1 zu sterben.
Ergebnis: - JA.

2)
Beispiel: - Am Tag 3 tritt Höhere Gewalt auf - also ein Ereignis, mit
dem niemand gerechnet hat (Herzinfakt auf Grund eines
anderen Ereignisses).
Ergebnis: - Nein.


zu 1 Laplace-Regel:
Formel:
(Anzahl der günstigen Ereignisse)
P(E) = ---------------------------------
(Anzahl der möglichen Ereignisse)

Beispiel 1)
1. Wie groß ist die Wahrscheinlichkeit 3 Tage zu überleben?
2. Wie groß ist die Wahrscheinlichkeit 3 oder 5 Tage zu überleben?

Lösung 1)

1. P({3 }) = 1 / 365 = 0,00273972602739726027397260273973
2. P({3,5}) = 3 / 5 = 0,6


zu 2)
a) Binominalkoeffizient:

(365) = gesamt Tage 365! 365!
( ) = --------------- = --------- =
( 3) = sterbe Tag 3! * (365 - 3)! 3! * 362!

365! =
"2510412867555873229292944374881202770516552026987"
"6079766872595193901106138220937419666018009000254"
"1693761723143609823286607080711233699798534453679"
"1065387238359970435553274093767809149142944086431"
"6046925074510134847025546014098005907965541041195"
"4961053118861733734351455171932827608477558822916"
"9021353912347918627470151939680850494072260703300"
"1246328398800550487427999876690416973437861078185"
"3446679668715110496538881301368361990105291800561"
"2584454948864861768291582634756414899098413806780"
"9999604687488146734837340699359838791124995957584"
"5388736166615330932535512568450560463887381297029"
"5138115186141368892298651000544094394301469924411"
"2555755279140760492764253740250410391056421979003"
"2896000000000000000000000000000000000000000000000"
"00000000000000000000000000000000000000000000"


3! = 6
362! =
"5205282197163304170493152291629505344212765289894"
"0162715807636103832046198344904202617677069713711"
"2977851793585430392120554996500456164421992398799"
"0144739524402476799981409403729954456384097609388"
"5456438693125336363564924104741265185552390824608"
"1359597477785256948015569262478550110075808008755"
"2591356158055142506870779572608484280502106244316"
"3408464509339872430243065105692184472724994138666"
"1173363101645366871689707762906172262990831917275"
"8715868914947364317483227927648140359222375397083"
"1989937599735562766078547229772798374570626462753"
"8067445561112467716043841107938471789496060803102"
"0739565926272500625772423924237021580124877041620"
"1805158890799446491168138089080720838017155072000"
"0000000000000000000000000000000000000000000000000"
"000000000000000000000000000000000000"

Viel Spass beim rechnen

Jens

Martin Vaeth

unread,
Aug 6, 2021, 2:37:46 PMAug 6
to
Stefan Ram <r...@zedat.fu-berlin.de> wrote:
> Martin Vaeth <mar...@mvath.de> writes:
>> Wenn wir die von mir vorgeschlagene
>>Gleichverteilung auf dem Intervall zugrundelegen, ist die
>>Wahrscheinlichkeit, an einem der ersten beiden Tage zu
>>sterben, gleich der Summe der Wahrscheinlichkeiten am ersten
>>bzw. zweiten Tag zu sterben.
>
> Wenn die Wahrscheinlichkeit, am ersten Tag zu sterben
> 0,6 beträgt, und die - falls der erste Tag überlebt worden
> sein sollte - Wahrscheinlichkeit am zweiten Tag zu sterben
> 0,6, dann wäre die Wahrscheinlichkeit an einem der beiden
> Tag zu sterben 1,2?

Bei eine Wk-Verteilung (ob Gleichverteilung oder andere)
ist es nicht möglich, dass beide "wenn" erfüllt sind.

Stephan Gerlach

unread,
Aug 6, 2021, 3:40:43 PMAug 6
to
Stefan Ram schrieb:
> Angenommen die Wahrscheinlichkeit für ein Lebewesen in den
> nächsten 365,2425 Tagen zu sterben beträgt 0,0112583454592142.
>
> Wenn man zur Vereinfachung annimmt, daß die Wahrscheinlichkeit
> sich in diesem Zeitraum nicht ändert, wie groß ist dann die
> Wahrscheinlichkeit x dafür am nächsten Tag zu sterben?

Man sollte
"daß die Wahrscheinlichkeit sich in diesem Zeitraum nicht ändert"
genauer formulieren:

Du meinst offenar, daß man an jedem Tag zwei mögliche Ereignisse hat:
"sterben" (TREFFER) oder "nicht_sterben" (NICHT_TREFFER),
und du nimmst an, daß für jeden einzelnen Tag die Wahrscheinlichkeit

x = P(TREFFER)

gleich bleibt (unter der Annahme, daß man am Tag zuvor nicht gestorben ist).
Wobei die übliche Bezeichnung p statt x ist, aber das nur nebenbei.

> Ich nehme an
>
> (1-x)^365,2425=1-0,0112583454592142

[Formatierungs-Test für Newsreader]
(1-x)^{365,2425}=1-0,0112583454592142
(1-x)^365.2425=1-0,0112583454592142
[\Formatierungs-Test für Newsreader]

> -x=(1-0,0112583454592142)^(1/365,2425)-1
>
> also x=3.099865120403944e-05.
>
> Ist das richtig?

Der Ansatz sieht unter der gemachten Annahme richtig aus und damit auch
das Ergebnis

> Komisch, daß man die Wahrscheinlichkeit zu sterben erst auf
> das Gegenteil, die Wahrscheinlichkeit zu leben, umrechnen muß.
> Dies deutet auf eine Asymmetrie zwischen den beiden hin.
>
> Mit der Wahrscheinlichkeit zu leben kann man "direkt" rechnen
> (multiplizieren), weil ein Zeitraum aus zwei Tagen überlebt
> wird, wenn beide Tage einzeln überlebt werden.

Zu deinem Beispiel passen die Stichworte "Bernoulli-Kette" und
"geometrische Verteilung".
Du hast eine Bernoulli-Kette mit beliebiger Anzahl Versuche.
Jeden Tag gibt es die beiden möglichen Ereignisse

"sterben" (TREFFER) oder "nicht_sterben" (NICHT_TREFFER).

Für ersteres gibt es eine sogenannte Trefferwahrscheinlichkeit p, die
sich nur auf einen Tag bezieht.

Dann betrachtest du die Zufallsgröße

T = Zeitpunkt/Position des ersten TREFFERs.

Diese ist geometrisch verteilt mit dem Parameter p, d.h. es gilt

P(T=k) = (1-p)^{k-1}*p.

Für die (rechte) Verteilungsfunktion von T gilt dann

P(T≤k) = 1-(1-p)^k.

Deine gegebene Wahrscheinlichkeit 0,0112583454592142 entspricht dann
formal einfach P(T≤365,2425) und zu lösen ist dann die Gleichung

P(T≤365,2425) = 1-(1-x)^{365,2425}.

Achtung: Bei der geometrischen Verteilung ist diese Formel genaugenommen
nicht exakt zulässig, da das k in 1-(1-p)^k positiv ganzzahlig sein muß.

Man müßte hier normalerweise P(T≤365,2425)=P(T≤365 benutzen, was zu
einer Abrundung auf 365 führt.

Wenn man mit nicht-ganzzahligen Werten arbeiten will, bietet sich
stattdessen die Verwendung der Exponentialverteilung an; sozusagen als
stetiges Analogon der geometrischen Verteilung.

Übung:
Du kannst mal versuchen, deine Aufgabe mit Exponentialverteilung zu
lösen :-) .

--
> Eigentlich sollte Brain 1.0 laufen.
gut, dann werde ich mir das morgen mal besorgen...
(...Dialog aus m.p.d.g.w.a.)

Stephan Gerlach

unread,
Aug 6, 2021, 3:50:08 PMAug 6
to
Stefan Ram schrieb:
> Martin Vaeth <mar...@mvath.de> writes:
>> Wenn wir die von mir vorgeschlagene
>> Gleichverteilung auf dem Intervall zugrundelegen, ist die
>> Wahrscheinlichkeit, an einem der ersten beiden Tage zu
>> sterben, gleich der Summe der Wahrscheinlichkeiten am ersten
>> bzw. zweiten Tag zu sterben.
>
> Wenn die Wahrscheinlichkeit, am ersten Tag zu sterben
> 0,6 beträgt, und die - falls der erste Tag überlebt worden
> sein sollte - Wahrscheinlichkeit am zweiten Tag zu sterben
> 0,6, dann wäre die Wahrscheinlichkeit an einem der beiden
> Tag zu sterben 1,2?

Nein. Es gilt *immer* (egal welche Verteilung)

P(am ersten Tag sterben ODER am zweiten Tag sterben)
= P(am ersten Tag sterben)+(am zweiten Tag sterben)

Wenn wir Gleichverteilung zugrundelegen, dann sind beide Summanden
gleich, d.h. in diesem Fall gilt

P(am ersten Tag sterben ODER am zweiten Tag sterben)
= 2 * P(am ersten Tag sterben)

Allerdings ist das nicht kompatibel mit dem von dir angenommenen Wert
0,6. D.h. Gleichverteilung und P(am ersten Tag sterben)=0,6 sind *nicht*
zugleich möglich.

Stephan Gerlach

unread,
Aug 6, 2021, 4:02:59 PMAug 6
to
Martin Vaeth schrieb:
> Stefan Ram <r...@zedat.fu-berlin.de> schrieb:
>> Angenommen die Wahrscheinlichkeit für ein Lebewesen in den
>> nächsten 365,2425 Tagen zu sterben beträgt 0,0112583454592142.

[...]
> Du scheinst in Deiner Rechnung jedoch einen stochastischen Prozess
> mit dem Ereignis "stirbt an diesem Tag" zugrundezulegen (und dabei
> irgendwie annehmen, dass der Prozess einen beliebig oft sterben
> lassen kann)...

Rein mathematisch(!) tatsächlich; praktischerweise ist es bei der Frage
nach dem "ersten Treffer" egal, was danach kommt; also ob noch weitere
"Treffer" (hier: sterben) erfolgen können oder nicht.

Also ob ich z.B. die Frage stelle
- nach dem ersten Treffer bei (beliebiger Anzahl) Schüsse auf ein Tor oder
- nach dem ersten defekten von einer Maschine hergestellten Gegenstand
- nach dem (ersten) Sterben/Totalschaden eines Lebewesens/Gegenstands
ist mathematisch egal.

> ... und willst, dass die Wahrscheinlichkeit dieses
> *Prozeses* zeitunabhängig ist. Da Du anscheinend zugleich eine
> stochastische Unabhängigkeit zugrundelegen willst, scheinst Du
> bei so etwas *ähnlichem* wie einem Bernoulli-Prozess zu landen:
>
>> Ich nehme an
>>
>> (1-x)^365,2425=1-0,0112583454592142
>
> Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
> auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
> Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
> so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
> eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
> auch gar nicht.)

Müßte in Richtung Poisson-Prozeß gehen; wobei ich mir da nicht ganz
sicher bin, ob der exakt paßt.
Aus der geometrischen Verteilung (diskreter Fall) wird dabei die
Exponentialverteilung (kontinuierlicher Fall).

Die Formel sollte im Fall der Exponentialverteilung geringfügig anders
aussehen, als wenn man (wie es hier offenbar getan wurde) geometrische
Verteilung zugrunde legt.

> Aber wie gesagt erscheint mir das Modellieren mit einem
> mathematischen Prozess in diesem Fall ohnehin sehr hanebüchen,
> weil man eben nun mal genau einmal sterben kann.

Wenn es um die Frage geht "wann tritt der erste(!) Treffer ein", kann
man formal mit geometrischer/Exponentialverteilung arbeiten; unabhängig
davon, ob nach dem ersten Treffer tatsächlich weitere folgen können oder
nicht.

Martin Vaeth

unread,
Aug 7, 2021, 3:24:10 AMAug 7
to
Stefan Ram <r...@zedat.fu-berlin.de> wrote:
> Stephan Gerlach <mam9...@t-online.de> writes:
>>Allerdings ist das nicht kompatibel mit dem von dir angenommenen Wert
>>0,6. D.h. Gleichverteilung und P(am ersten Tag sterben)=0,6 sind *nicht*
>>zugleich möglich.
>
> Zur Vereinfachung ersetze ich einmal Wahrscheinlichkeiten in
> Anlehnung an das Gesetz der großen Zahl durch Häufigkeiten
> und nehme an, daß es direkt vor dem ersten Tag 100 Lebewesen
> gibt, und direkt danach nur noch 40, direkt nach dem zweiten
> Tag dann nur noch 16.
>
> Da über die Ursache nichts genaues bekannt ist, aber nach
> jedem Tag nur noch 40 Prozent der Lebewesen vorhanden sind,
> nimmt man eine Wahrscheinlichkeit von 60 Prozent an, an einem
> Tag (einen der beiden Tage) zu sterben.
>
> Wenn man nach der Anzahl von 16 Wesen geht, die nach zwei Tagen
> noch leben, ergäbe dies eine Wahrscheinlichkeit von 84 Prozent
> nach dem gesamten Zeitraum von zwei Tagen zu sterben.
>
> Tatsächlich ergibt 1-(1-0,6)^2 dann auch 0,84.
>
> War das Beschriebene jetzt keine Gleichverteilung mit
> P(am ersten Tag sterben)=0,6?

Nein. Das was Du beschrieben hast, ist ein Bernoulli-Prozess.
Man kann ihn wiederum als Wahrscheinlichkeitsverteilung der
Zufallsvariable "leben bis zum Zeitpunkt t" auffassen,
allerdings nur für diskretes t (eben pro Tag) mit der
Verteilungsfunktion t -> 1-e^{-at} (mit geeigneter Konstante a>0).

Wie schon erwähnt, kannst Du für kontinuierliches t rein formal
die selbe Formel benutzen und hast dann eine sog.
Exponentialverteilung. Welcher kontinuierliche stochastische
Prozess hinter dieser Exponentialverteilung steckt, also ob sich
diese Verteilungsfunktion ähnlich wie die Bernoulli-Verteilunng
alleine mit stochastischer Unabhängigkeit und Gleichverteilung
begründen lässt, ist mir nicht ganz so offensichtlich, aber
vermutlich richtig. (Kennt hier wirklich niemand den Namen dieses
Prozesses?)

Bei reiner Gleichverteilung auf dem Interval erhältst Du für die
Überlebenswahrscheinlichkeit auf dem Interval hingegen die affine
Verteilung t -> 1-ct (mit geeigneter Konstante c>0, die natürlich
so gewählt ist, dass man am Ende des Intervals gerade bei der
gewünschten Wahrscheinlichkeit angelangt ist).

Wie gesagt: Was "bei konstanter Wahrscheinlichkeit" bedeuten soll -
das ist eben unklar. Es hängt davon ab, was Du modellieren willst.
Die Gleichverteilung tritt z.B. ein, wenn in besagtem Intervall
regelmäßig die selbe *Anzahl* an Tieren geschossen wird. Die
Exponentialverteilung tritt hingegen ein, wenn im besagten
Intervall regelmäßig der selbe *Prozentualanteil* der noch
lebenden Tiere geschossen wird. ("Regelmäßig" ist hier
"kontinuierlich" zu verstehen, und in den Modellen muss auch die
Zahl der lebenden Tieren nicht ganzzahlig sein - die Modelle
sind also schon extrem idealisiert.)

Martin Vaeth

unread,
Aug 7, 2021, 3:34:03 AMAug 7
to
Stephan Gerlach <mam9...@t-online.de> schrieb:
>>
>> Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
>> auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
>> Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
>> so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
>> eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
>> auch gar nicht.)
>
> Müßte in Richtung Poisson-Prozeß gehen; wobei ich mir da nicht ganz
> sicher bin, ob der exakt paßt.

Ich denke, das passt nicht ganz: Das Problem, das ich damit habe, ist,
dass im Poisson-Prozess die Exponentialfunktion schon in die
Definition "eingebaut" ist. Ich hätte irgendeinen Prozess erwartet,
bei dem - ähnlich wie beim Wiener-Prozess, aber viel einfacher -
irgendwie eine stochastische Unabhängigkeit zugrundegelegt wird,
die "Differenz" aber eine Gleichverteilung besitzt (während es im
Wiener Prozess eine Normalverteilung ist), und dessen
Verteilungsfunktion dann *als Folgerung* die Exponentialverteilung
sein muss.

Im Poisson-Prozess hingegen ist schon das Eintreffen des ersten
Ereignisses exponentialverteilt, und es geht darum wie viele
Ereignisse eintreffen - der ist also schon ein Level "höher".

Stephan Gerlach

unread,
Aug 10, 2021, 11:24:57 AMAug 10
to
Martin Vaeth schrieb:
> Stephan Gerlach <mam9...@t-online.de> schrieb:
>>> Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
>>> auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
>>> Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
>>> so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
>>> eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
>>> auch gar nicht.)
>> Müßte in Richtung Poisson-Prozeß gehen; wobei ich mir da nicht ganz
>> sicher bin, ob der exakt paßt.
>
> Ich denke, das passt nicht ganz: Das Problem, das ich damit habe, ist,
> dass im Poisson-Prozess die Exponentialfunktion schon in die
> Definition "eingebaut" ist.

Der Poisson-Prozeß läßt sich (zumindest heuristisch) auch ohne
Exponentialfunktion definieren (wenngleich das formal nicht ganz exakt
sein dürfte), und zwar als Grenzfall eines Bernoulli-Prozesses.

Man geht von einem endlichen Intervall [0, t_0] aus, in dem "Treffer"
auftreten können. Die (Gesamt-)Anzahl der zu erwartenden(!) Treffer wird
als konstant c angenommen.

Dann zerlegt man das Intervall in n "sehr kleine" Teilintervalle
[0,t_0/n]; [t_0/n,2*t_0/n]; ... ; [(n-1)*t_0/n,t_0]
und nimmt an, daß man einen n-fachen Bernoulli-Prozeß mit p=c/n hat.
D.h. in jedem der Intervalle kann nur 0 oder 1 Treffer eintreten.
Die Zufallsgröße
X_n = Anzahl der Treffer in [0,t_0]
ist dann binomialverteilt mit Parametern n und c/n.

Für n-->oo "konvergiert" dieser Prozeß dann gegen einen Prozeß, für den
die Anzahl der Treffer X poissonverteilt ist; d.h. die Poissonverteilung
(mit Exponentialfunktion drin) ergibt sich hier als Grenzwert der
Binomialverteilung (diese noch ohne Exponentialfunktion).

Ich hatte die Idee, das auf die ursprüngliche Fragestellung anzuwenden,
da Stefan R. offenbar auch nicht natürliche Zahlen als Zeit zulassen wollte.

> Ich hätte irgendeinen Prozess erwartet,
> bei dem - ähnlich wie beim Wiener-Prozess, aber viel einfacher -
> irgendwie eine stochastische Unabhängigkeit zugrundegelegt wird,
> die "Differenz" aber eine Gleichverteilung besitzt (während es im
> Wiener Prozess eine Normalverteilung ist), und dessen
> Verteilungsfunktion dann *als Folgerung* die Exponentialverteilung
> sein muss.

Hmm... also man hat, was die Anzahl der Treffer betrifft, erstmal nur
eine Art stochastische Unabhängigkeit drin in der Form (anschaulich)
"wenn jetzt (Zeitpunkt t) ein Treffer passiert, dann ist das Auftreten
eines Treffers im nächsten infinitisemal kleinen Intervall unabhängig
von diesem jetzigen Treffer".

Weiter gilt die folgende "Unabhängigkeit" (eigentlich: Gedächtnislosigkeit):
P(T>t+t_1 | T>t_1) = P(T>t) = const(t)

In Worten: Die Wahrscheinlichkeit, daß man die nächsten t Zeiteinheiten
überlebt, ist unabhängig davon, wie lange man schon überlebt hat.

Ich wüßte jetzt spontan aber nicht, ob/wo da eine Gleichverteilung
"versteckt" ist.

> Im Poisson-Prozess hingegen ist schon das Eintreffen des ersten
> Ereignisses exponentialverteilt, und es geht darum wie viele
> Ereignisse eintreffen - der ist also schon ein Level "höher".

Es gibt beim Poisson-Prozeß 2 interessierende Zufallsvariablen:
X = Anzahl Treffer (hast du Ereignisse genannt)
T = Zeitpunkt des ersten Treffers

X ist poisson-verteilt (kann man einfach so per Definition voraussetzen
oder herleiten). Daß T exponentialverteilt ist, ist eine Folgerung der
Verteilung für X.

Martin Vaeth

unread,
Aug 10, 2021, 2:19:44 PMAug 10
to
Stephan Gerlach <mam9...@t-online.de> schrieb:
> Martin Vaeth schrieb:
>> Stephan Gerlach <mam9...@t-online.de> schrieb:
>>>> Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
>>>> auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
>>>> Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
>>>> so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
>>>> eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
>>>> auch gar nicht.)
>>> Müßte in Richtung Poisson-Prozeß gehen; wobei ich mir da nicht ganz
>>> sicher bin, ob der exakt paßt.
>>
>> Ich denke, das passt nicht ganz: Das Problem, das ich damit habe, ist,
>> dass im Poisson-Prozess die Exponentialfunktion schon in die
>> Definition "eingebaut" ist.
>
> Der Poisson-Prozeß läßt sich (zumindest heuristisch) auch ohne
> Exponentialfunktion definieren (wenngleich das formal nicht ganz exakt
> sein dürfte), und zwar als Grenzfall eines Bernoulli-Prozesses.

Ja, diese Herleitung kenne ich, aber die ist nicht wirklich natürlich,
ebensowenig wie die Definition eines Poisson-Prozesses in
https://de.wikipedia.org/wiki/Poisson-Prozess
mit Hilfe einer Poissonverteilung.
Der Prozess den ich suche, dürfte eine ziemlich ähnliche Definition
wie auf dieser Wikipedia-Seite haben, nur dass statt der Poissonverteilung
für die Differenz dort irgendeine Art von Gleichverteilung stehen sollte.

> Für n-->oo "konvergiert" dieser Prozeß dann gegen einen Prozeß, für den
> die Anzahl der Treffer X poissonverteilt ist

Ja, und mit etwas anderer Parametrisierung für den Grenzübergang erhält
man die Normalverteilung. Diese Willkür in der Parametrisierung zeigt mir,
dass diese ganzen heuristischen Herleitungen ziemlich mangelhaft sind.

> Hmm... also man hat, was die Anzahl der Treffer betrifft erstmal nur
> eine Art stochastische Unabhängigkeit drin

Ja eben: Für die Anzahl der Treffer. Es interessiert aber nur die Zeit
bis zum ersten Treffer, und das ist nicht die Poissonverteilung sondern
die Exponentialverteilung. Dass der Poissonprozess, der auf die
Exponenitalverteilung aufbaut (in Form der Zeit bis zum ersten Treffer),
die entsprechende Eigenschaft des von mir gesuchten Prozesses erbt, ist
nicht verwunderlich. Aber ich suche den zugrundeliegenden einfacheren
Prozess.

Ich denke, es müsste folgende natürliche Herleitung des Poissonprozesses
geben:

1. Der von mir gesuchte Prozess, der dann irgendwie auf die
Exponentialverteilung führt.
2. Erst als zweiten Schritt betrachtet man den Prozess mit der
Exponentialverteilung bis zum nächsten Treffer und einer gewissen
stochastischen Unabhängigkeit -> Dies ist der Poisson-Prozess, der
dann auch die Poissonverteilung führt.

Für das ursprünglich diskutierte Problem wäre aber 1 völlig ausreichend.

> X ist poisson-verteilt (kann man einfach so per Definition voraussetzen
> oder herleiten). Daß T exponentialverteilt ist, ist eine Folgerung der
> Verteilung für X.

Eben. Das ist das Unnatürliche an dieser Einführung: Die Poissonverteilung
wird praktisch unbegründet definiert (durch einen ziemlich willkürlichen
Grenzübergang), und dann wird daraus die Exponentialverteilung hergezaubert.
Den logischeren Aufbau in den Schritten 1 und 2 oben habe ich noch in
keinem Buch gesehen, aber mein Gefühl sagt mir, dass das gehen sollte und
eben die "natürliche" Herleitung des Poisson-Prozesses wäre:
*Erst* die Exponentialverteilung heuristisch zu begründen und *dann* erst
den Poissonprozess als *Folgerung* der Exponentialverteilung herzuleiten.
Für unser Problem brauchen wir den zweiten Schritt gar nicht.

Stephan Herrmann

unread,
Aug 13, 2021, 4:30:39 AMAug 13
to
r...@zedat.fu-berlin.de (Stefan Ram) writes:

> Martin Vaeth <mar...@mvath.de> writes:
>> Wenn wir die von mir vorgeschlagene
>>Gleichverteilung auf dem Intervall zugrundelegen, ist die
>>Wahrscheinlichkeit, an einem der ersten beiden Tage zu
>>sterben, gleich der Summe der Wahrscheinlichkeiten am ersten
>>bzw. zweiten Tag zu sterben.
>
> Wenn die Wahrscheinlichkeit, am ersten Tag zu sterben
> 0,6 beträgt, und die - falls der erste Tag überlebt worden
> sein sollte - Wahrscheinlichkeit am zweiten Tag zu sterben
> 0,6, dann wäre die Wahrscheinlichkeit an einem der beiden
> Tag zu sterben 1,2?
>
Nein. Die Wahrscheinlichkeit ist

0,6 + 0,4*0,6

also Summe aus Wahrscheinlichkeit heute zu sterben (0,6) oder
heute zu überleben und morgen zu sterben (=0,4*0,6)
>

--
Stephan Herrmann

Stephan Gerlach

unread,
Aug 15, 2021, 7:50:39 PMAug 15
to
Martin Vaeth schrieb:
> Stephan Gerlach <mam9...@t-online.de> schrieb:
>> Martin Vaeth schrieb:
>>> Stephan Gerlach <mam9...@t-online.de> schrieb:
>>>>> Aber dadurch, dass der Exponent nicht ganzzahlig ist, kann das
>>>>> auch kein Bernoulli-Prozess sein. Vielleicht kann irgendein
>>>>> Experte hier sagen, welcher Prozess das tatsächlich sein könnte,
>>>>> so dass die Formel stimmt. (Bzw. wie das kontinuierliche Analogon
>>>>> eines Bernoulli-Prozesses lautet - vielleicht stimmt die Formel
>>>>> auch gar nicht.)
>>>> Müßte in Richtung Poisson-Prozeß gehen; wobei ich mir da nicht ganz
>>>> sicher bin, ob der exakt paßt.
>>> Ich denke, das passt nicht ganz: Das Problem, das ich damit habe, ist,
>>> dass im Poisson-Prozess die Exponentialfunktion schon in die
>>> Definition "eingebaut" ist.
>> Der Poisson-Prozeß läßt sich (zumindest heuristisch) auch ohne
>> Exponentialfunktion definieren (wenngleich das formal nicht ganz exakt
>> sein dürfte), und zwar als Grenzfall eines Bernoulli-Prozesses.
>
> Ja, diese Herleitung kenne ich, aber die ist nicht wirklich natürlich, ...

Ich finde die Herleitung schon recht "charmant", Bsp.:

Ein Ladenbesitzer hat seinen Laden 1 Stunde am Tag geöffnet.
Er weiß nur:
- in der 1 h kommen durchschnittlich (z.B.) 5 Kunden
- theoretisch können beliebig viele Kunden kommen
- die Kunden beeinflussen sich nicht gegenseitig (Unabhängigkeit).
Daraus kann man dann tatsächlich (ja, ich weiß, ein wenig heuristisch)
herleiten, daß
X = Anzahl der Kunden innerhalb der 1 Stunde
poissonverteilt ist.

Aber ob man das natürlich findet, ist Geschmackssache :-) .

> ... ebensowenig wie die Definition eines Poisson-Prozesses in
> https://de.wikipedia.org/wiki/Poisson-Prozess
> mit Hilfe einer Poissonverteilung.

Dort wird für einen Poisson-Prozeß bereits die Poissonverteilung
vorausgesetzt, insofern ist das in der Tat nicht natürlich.
Im Übrigen geht man auf dieser Wikipedia-Seite davon aus, daß *mehrmals*
die "Anzahl der Treffer" gezählt wird, die dort "Zuwachs" genannt wird.

Ich hatte wohl (mißverständlicherweise?) die Idee, das nur einmalige
Generieren der Zufallsvariable
X = Anzahl Treffer (entspricht nur einem Zuwachs)
als Poisson-Prozeß zu bezeichnen.

Bei mir bestand also der Prozeß (anschaulich) in
"die gesamte Zeit t_0 abwarten und X (nur einmal) zählen".
Vermutlich ist dafür die Terminologie "Poisson-Prozeß" nicht ganz
gerechtfertigt; am Ende ist es wohl sogar egal, weil man das Intervall
[0, t_0]
in (gleich große) Teil-Intervalle teilen kann und dort die Anzahl der
Treffer wieder poisson-verteilt (mit anderem Parameter) ist.

> Der Prozess den ich suche, dürfte eine ziemlich ähnliche Definition
> wie auf dieser Wikipedia-Seite haben, nur dass statt der Poissonverteilung
> für die Differenz dort irgendeine Art von Gleichverteilung stehen sollte.

Hmm... dann wäre zu überlegen, in welcher Form / weshalb so ein Prozeß
auf die geschilderte Frage mit der Lebensdauer gut paßt :-) .

Wenn das, was dort als "Zuwachs" bezeichnet wird, eine Anzahl sein soll,
dann käme IMHO "irgendwie" eine diskrete Gleichverteilung infrage.

>> Für n-->oo "konvergiert" dieser Prozeß dann gegen einen Prozeß, für den
>> die Anzahl der Treffer X poissonverteilt ist
>
> Ja, und mit etwas anderer Parametrisierung für den Grenzübergang erhält
> man die Normalverteilung. Diese Willkür in der Parametrisierung zeigt mir,
> dass diese ganzen heuristischen Herleitungen ziemlich mangelhaft sind.

Bei dem Ladenbesitzer-Beispiel ist IMHO diejenige geschilderte
Parametrisierung "natürlich", die zur Poissonverteilung (nicht zur
Normalverteilung) führt.
Also p_n = c/n, falls du das mit Parametrisierung gemeint hattest.

>> Hmm... also man hat, was die Anzahl der Treffer betrifft erstmal nur
>> eine Art stochastische Unabhängigkeit drin
>
> Ja eben: Für die Anzahl der Treffer. Es interessiert aber nur die Zeit
> bis zum ersten Treffer, und das ist nicht die Poissonverteilung sondern
> die Exponentialverteilung. Dass der Poissonprozess, der auf die
> Exponenitalverteilung aufbaut (in Form der Zeit bis zum ersten Treffer),
> die entsprechende Eigenschaft des von mir gesuchten Prozesses erbt, ist
> nicht verwunderlich. Aber ich suche den zugrundeliegenden einfacheren
> Prozess.

Es ist die Frage, ob das überhaupt so "einfach" wie gewünscht geht.

> Ich denke, es müsste folgende natürliche Herleitung des Poissonprozesses
> geben:
>
> 1. Der von mir gesuchte Prozess, der dann irgendwie auf die
> Exponentialverteilung führt.
> 2. Erst als zweiten Schritt betrachtet man den Prozess mit der
> Exponentialverteilung bis zum nächsten Treffer und einer gewissen
> stochastischen Unabhängigkeit -> Dies ist der Poisson-Prozess, der
> dann auch die Poissonverteilung führt.
>
> Für das ursprünglich diskutierte Problem wäre aber 1 völlig ausreichend.

Also was IIRC auf jeden Fall machbar ist - völlig ohne Poissonprozeß
und/oder Poissonverteilung vorauszusetzen, ist es, einen Prozeß
anzunehmen, bei dem irgendwie nacheinander "Treffer" auftreten (u.U.
wird nur das Eintreten des *ersten* Treffers abgewartet) und die
Zufallsvariable

T ... Zeit bis zum ersten Treffer

per Voraussetzung die Eigenschaft der Gedächtnislosigkeit hat:

P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.

In Worten: Die Wahrscheinlichkeit, daß der (erste) Treffer innerhalb der
nächsten t Zeiteinheiten eintritt, ist unabhängig davon, wie lange (t_1
Zeiteinheiten) man schon auf den (ersten) Treffer gewartet hat.

Allein aus dieser Eigenschaft kann man (wenn T stetig ist) direkt
beweisen, daß T exponentialverteilt ist.

Eine Gleichverteilung ist hier aber leider auch nicht vorzufinden :-) .

>> X ist poisson-verteilt (kann man einfach so per Definition voraussetzen
>> oder herleiten). Daß T exponentialverteilt ist, ist eine Folgerung der
>> Verteilung für X.
>
> Eben. Das ist das Unnatürliche an dieser Einführung: Die Poissonverteilung
> wird praktisch unbegründet definiert (durch einen ziemlich willkürlichen
> Grenzübergang), ...

Für das oben geschilderte Beispiel finde ich den Grenzübergang
(anschaulich) schon irgendwie "passend", wenngleich das keine logisch
exakte Herleitung ist. So ist z.B. die Annahme, daß für festes n im
"sehr kleinen" Intervall
[k*t_0/n, (k+1)*t_0/n]
nur 1 Treffer eintreten kann, streng genommen nicht ganz gerechtfertigt.

> ... und dann wird daraus die Exponentialverteilung hergezaubert.
> Den logischeren Aufbau in den Schritten 1 und 2 oben habe ich noch in
> keinem Buch gesehen, aber mein Gefühl sagt mir, dass das gehen sollte und
> eben die "natürliche" Herleitung des Poisson-Prozesses wäre:
> *Erst* die Exponentialverteilung heuristisch zu begründen und *dann* erst
> den Poissonprozess als *Folgerung* der Exponentialverteilung herzuleiten.
> Für unser Problem brauchen wir den zweiten Schritt gar nicht.

Wie gesagt das einzige, was mir spontan dazu einfällt, ist über die (wie
ich finde "schöne") oben beschriebene Eigenschaft der
Gedächtnislosigkeit zu gehen.

Martin Vaeth

unread,
Aug 17, 2021, 4:43:06 AMAug 17
to
Stephan Gerlach <mam9...@t-online.de> schrieb_
> Martin Vaeth schrieb:
>>
>> Ja, diese Herleitung kenne ich, aber die ist nicht wirklich natürlich, ...
>
> Ich finde die Herleitung schon recht "charmant", Bsp.:
>
> Ein Ladenbesitzer hat seinen Laden 1 Stunde am Tag geöffnet.
> Er weiß nur:
> - in der 1 h kommen durchschnittlich (z.B.) 5 Kunden
> - theoretisch können beliebig viele Kunden kommen
> - die Kunden beeinflussen sich nicht gegenseitig (Unabhängigkeit).
> Daraus kann man dann tatsächlich (ja, ich weiß, ein wenig heuristisch)
> herleiten, daß
> X = Anzahl der Kunden innerhalb der 1 Stunde
> poissonverteilt ist.

Der willkürliche Grenzübergang in der Heuristik ist das Problem.
Wie gesagt, bei anderem Grenzübergang erhält man eben die
Normalverteilung.

> Bei dem Ladenbesitzer-Beispiel ist IMHO diejenige geschilderte
> Parametrisierung "natürlich", die zur Poissonverteilung (nicht zur
> Normalverteilung) führt.
> Also p_n = c/n, falls du das mit Parametrisierung gemeint hattest.

In diese "Natürlichkeit" ist eben gerade implizit so eine
Gleichverteilung eingebaut. Jetzt ist es aber bei solchen Heuristiken
wie bei der Definition des Riemann-Integrals, dass die äquidistante
Verteilung ziemlich willkürlich ist, und dass man besser mathematisch
zeigen sollte, dass die Definition und der Grenzprozess von diesen
ganzen willkürlichen Annahmen unabhängig sind.

Um nochmals klarzustellen, was ich mir ursprünglich so ungefähr
vorstellte. (Sehr ins Unreine geschrieben, weil ich selbst kein
genaues Bild habe.)

Als Definition: Ein Prozess E auf der positiven Halbachse heiße
(stochastischer) "Exponentialprozess", wenn gilt: Für s<t sind E(t)
und E(s) stochastisch unabhängig, und E(t)/E(s) (oder E(t)-E(s)?)
ist die Gleichverteilung auf [s,t].

Vermutlich fehlt noch irgendeine Normierungsbedingung, und vielleicht muss
man die Gleichverteilung irgendwie wichten (z.B, dass das Intervall
[s,t] nur mit einer Wahrscheinlichkeit von t-s getroffen wird, wobei über
die Verteilung außerhalb des Intervalls keine Anname gemacht wird).

Und dann erwartete ich als *beweisbaren* Satz, dass irgendeine mit E
eng zusammenhängende Größe exponentialverteilt sein muss.

Mathematisch sollte im Beweis vermutlich irgendwie eine Differenzen-
oder Differentialgleichung für die Exponentialfunktion auftauchen.

> Hmm... dann wäre zu überlegen, in welcher Form / weshalb so ein Prozeß
> auf die geschilderte Frage mit der Lebensdauer gut paßt :-) .

Ja, irgendeine Heuristik braucht man natürlich trotzdem.
Ich hatte ja schon das Modell skizziert, bei der "regelmäßig" ein
Prozentteil des Restbestands (mit Gleichverteilung) erlegt wird.

>> Für das ursprünglich diskutierte Problem wäre aber 1 völlig ausreichend
>
> Also was IIRC auf jeden Fall machbar ist - völlig ohne Poissonprozeß
> und/oder Poissonverteilung vorauszusetzen, ist es, einen Prozeß
> anzunehmen, bei dem irgendwie nacheinander "Treffer" auftreten (u.U.
> wird nur das Eintreten des *ersten* Treffers abgewartet) und die
> Zufallsvariable
>
> T ... Zeit bis zum ersten Treffer
>
> per Voraussetzung die Eigenschaft der Gedächtnislosigkeit hat:
>
> P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.

Interessant: Also statt einer stochastischen Unabhängigkeit, was mein
Plan war, wird eine Annahme über eine bedingte Wahrscheinlichkeit gemacht,
die eine andere Art der "Unabhängigkeit" sichert. Das klingt gut. Ich habe
das Gefühl, dass da irgendwo implizit eine Gleichverteilung für irgendeine
zugehörige Dichtefunktion verbaut ist, die ich allerdings im Moment genauso
wenig erkennen kann, wie ich meinen Ansatz konkretisieren kann.

> Allein aus dieser Eigenschaft kann man (wenn T stetig ist) direkt
> beweisen, daß T exponentialverteilt ist.

Ich hätte vermutet, dass statt der Stetigkeit irgendeine Messbarkeit von T
(und möglicherweise Annahme der Endlichkeit irgendeines Integrals)
ausreichend sind. Hast Du da eine Referenz?

Martin Vaeth

unread,
Aug 17, 2021, 6:23:42 AMAug 17
to
Martin Vaeth <mar...@mvath.de> schrieb:
>> P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.

Das geht ja viel leichter, als ich vermutet hatte:
Die bedingte Wahrscheinlichkeit links ist ja per Definition
(und weil T>t+t_1 natürlich T>t_1 impliziert):

P(T>t+t_1)/P(T>t_1) = P(T>t),

also lautet die Bedingung

P(T>t)P(T>t_1) = P(T>t+t_1)

und schon hat man für F(t)=P(T>t) die Beziehung: F(t)F(s)=F(t+s)
Für f=log F hat man also die Abelsche Funktionalgleichung
f(t)+f(s)=f(t+s) und falls f messbar ist, folgt die Linearität
von f, also f(t)=ct, mithin F(t)=e^{ct}.

Wie ich vermutet habe, reicht also die Messbarkeit aus...

Martin Vaeth

unread,
Aug 17, 2021, 9:01:50 AMAug 17
to
Martin Vaeth <mar...@mvath.de> schrieb_
> Martin Vaeth <mar...@mvath.de> schrieb:
>> Stephan Gerlach <mam9...@t-online.de> schrieb
>>> P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.
>
> Das geht ja viel leichter, als ich vermutet hatte:
> Die bedingte Wahrscheinlichkeit links ist ja per Definition
> (und weil T>t+t_1 natürlich T>t_1 impliziert):
>
> P(T>t+t_1)/P(T>t_1) = P(T>t),

Mit E(t)=P(T>t) kann man das auch lesen als E(t)/E(s)=g(t-s) für s<t.
Das ist zwar nicht ganz die Aussage, dass man einen Prozess E hat,
bei dem E(t)/E(s) eine Gleichverteilung auf dem Intervall [s,t] ist,
aber immerhin die Aussage, dass der Quotient E(t)/E(s) nur von
der Differenz t-s abhängt - was im Prinzip noch weniger ist.
(Es *folgt* dann natürlich, dass g=kE mit der Konstanten k=E(0)).

Das scheint also tatsächlich irgendwie die "Herleitung" der
Exponentialverteilung zu sein, die mir vorgeschwebt ist...

Vielen Dank, Stephan!

Martin Vaeth

unread,
Aug 17, 2021, 10:09:11 AMAug 17
to
Martin Vaeth <mar...@mvath.de> wrote:
> Das scheint also tatsächlich irgendwie die "Herleitung" der
> Exponentialverteilung zu sein, die mir vorgeschwebt ist...
>
> Vielen Dank, Stephan!

Nur um nochmal klar zu stellen, wie jetzt die heuristische Voraussetzung
und mathematische Herleitung exakt aussieht:

Wir haben ein Intervall I = [0,S] oder I = [0,S) mit endlichem
oder unendlichem S und darauf eine Überlebenswahrscheinlichkeit
L:I->(0,1]. Also L(t) sei die Wahrscheinlichkeit, bis zum
Zeitpunkt t noch zu leben.

Wir machen nun nur zwei Voraussetzungen, die man heuristisch
rechtfertigen muss:

1. "Die prozentuale Überlebensrate hängt nur von Länge des Intervals ab":
Für s,t aus I mit s<t hängt L(t)/L(s) nur von der Different t-s ab.
2. "Zu Beginn leben alle":
L(0) = 1

Voraussetzung 2 ist die natürliche Normierung des Problems.
Voraussetzung 1 ist die von mir früher gegebene Interpretation, dass
jeweils nur ein gewisser Prozentteil des Bestands geschossen wird.

Im Falle von an Virusinfektionen Erkrankten bedeutet die Voraussetzung 1,
dass der Prozentteil *der noch Überlebenden*, die ein Zeitinterval [s,t]
noch weiter überleben, nur von der Dauer dieses Intervalls t-s abhängt,
nicht aber vom speziellen Anfangspunkt s des Intervalls.
Dies sei also die gewählte Konkretisierung der ursprünglichen im
Problem genannten Voraussetzung,
"dass sich die Wahrscheinlichkeit nicht mit der Zeit ändert".
(Für eine Virusinfektion ist diese Voraussetzung vermutlich nicht allzu
realistisch, da man vermutlich z.B. bevorzugt in einer bestimmten Woche
nach der Infektion stirbt, sich also die Wahrscheinlichkeit sehr wohl
mit der Zeit ändert.)

Zusätzlich machen wir noch eine technische Voraussetzung:

3. L ist Lebesgue-messbar.

Der Rest ist reine Analysis, und man muss sich nicht mehr auf irgendeine
Wahrscheinlichkeitstheorie berufen. Man erhält l einfach wie folgt:

Wegen 1 gibt es eine Funktion g:I->[0,\infty) mit L(t)/L(s) = g(t-s)
für alle s<t (s,t aus I).
Für s=0 erhält man zusammen 2, dass L = g.
Man hat also L(t) = L(s)L(t-s) für alle s<t (s,t aus I).
Nimmt man den Logarithmus auf beiden Seiten dieser Gleichung, und
ersetzt man t durch s+t, so erhält man für f(t) = log(L(t)), dass

f(s+t) = f(s) + f(t) für alle s,t aus I mit s+t aus I.

Dies ist die Cauchysche Funktionalgleichung (sie wurde von Cauchy und
nicht Abel untersucht, wie ich vorher fälschlicherweise schrieb).
Wegen 3 ist f Lebesgue-messbar, und es ist bekannt, dass die einzigen
Lebesgue-messbaren Lösungen der Cauchyschen Funktionalgleichung linear
sind. Es gibt also ein c mit f(t)=-ct für alle t aus I.

Es folgt daher: Es gibt eine Konstante c mit

L(t) = e^{-ct} für alle t aus I.

Die Konstante c ist natürlch nicht negativ (da L(t) für t>0 in
(0,1] liegt.)

Martin Vaeth

unread,
Aug 19, 2021, 5:06:23 AMAug 19
to
Martin Vaeth <mar...@mvath.de> schrieb:
> Zusätzlich machen wir noch eine technische Voraussetzung:
>
> 3. L ist Lebesgue-messbar.

Wen diese technische Voraussetzung stört, kann alternativ die
stärkere Voraussetzung machen, dass L nicht wachsend ist:
Für s<t ist die Wahrscheinlichkeit, bis zum Zeitpunkt t zu leben
nicht größer, als die Wahrscheinlichkeit bis zum Zeitpunkt s zu leben.
(Nonotone Funktionen sind Lebesgue-messbar.)

Oder noch eine Variante: Statt der Messbarkeit kann man auch voraussetzen,
dass L nahe bei 0 von der 0 weg beschränkt ist, also dass es
\epsilon,\delta>0 gibt mit L(t)>\delta für alle t aus [0,\varepsilon].
(Dies folgt natürlich ebenfalls aus der Monotonie und der Tatsache,
dass L(t) in (0,1] liegt.)
Dann ist nämlich die im Beweis betrachtete Funktion f bei 0 beschränkt,
und man erhält auch aus dieser Voraussetzung und der Tatsache, dass f
die Cauchy-Funktionalgleichung erfüllt, dass f linear ist.

Stephan Gerlach

unread,
Aug 22, 2021, 6:10:39 PMAug 22
to
Martin Vaeth schrieb:
> Stephan Gerlach <mam9...@t-online.de> schrieb_
>> Martin Vaeth schrieb:
>>> Ja, diese Herleitung kenne ich, aber die ist nicht wirklich natürlich, ...
>> Ich finde die Herleitung schon recht "charmant", Bsp.:
>>
>> Ein Ladenbesitzer hat seinen Laden 1 Stunde am Tag geöffnet.
>> Er weiß nur:
>> - in der 1 h kommen durchschnittlich (z.B.) 5 Kunden
>> - theoretisch können beliebig viele Kunden kommen
>> - die Kunden beeinflussen sich nicht gegenseitig (Unabhängigkeit).
>> Daraus kann man dann tatsächlich (ja, ich weiß, ein wenig heuristisch)
>> herleiten, daß
>> X = Anzahl der Kunden innerhalb der 1 Stunde
>> poissonverteilt ist.
>
> Der willkürliche Grenzübergang in der Heuristik ist das Problem.
> Wie gesagt, bei anderem Grenzübergang erhält man eben die
> Normalverteilung.

JFTR: Letztere hat/hätte (rein formal) den (technischen) Nachteil, daß
sie stetig ist und daher nicht ganz so gut geeignet wie die
Poisson-Verteilung, eine Anzahl von Treffern zu beschreiben :-) .

[...]
>> Also was IIRC auf jeden Fall machbar ist - völlig ohne Poissonprozeß
>> und/oder Poissonverteilung vorauszusetzen, ist es, einen Prozeß
>> anzunehmen, bei dem irgendwie nacheinander "Treffer" auftreten (u.U.
>> wird nur das Eintreten des *ersten* Treffers abgewartet) und die
>> Zufallsvariable
>>
>> T ... Zeit bis zum ersten Treffer
>>
>> per Voraussetzung die Eigenschaft der Gedächtnislosigkeit hat:
>>
>> P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.
>
> Interessant: Also statt einer stochastischen Unabhängigkeit, was mein
> Plan war, wird eine Annahme über eine bedingte Wahrscheinlichkeit gemacht,
> die eine andere Art der "Unabhängigkeit" sichert. Das klingt gut. Ich habe
> das Gefühl, dass da irgendwo implizit eine Gleichverteilung für irgendeine
> zugehörige Dichtefunktion verbaut ist, die ich allerdings im Moment genauso
> wenig erkennen kann, wie ich meinen Ansatz konkretisieren kann.
>
>> Allein aus dieser Eigenschaft kann man (wenn T stetig ist) direkt
>> beweisen, daß T exponentialverteilt ist.
>
> Ich hätte vermutet, dass statt der Stetigkeit irgendeine Messbarkeit von T
> (und möglicherweise Annahme der Endlichkeit irgendeines Integrals)
> ausreichend sind.

Die Meßbarkeit ist tatsächlich ausreichend; da ich beim Schreiben aber
spontan nicht ganz sicher war, hatte ich sicherheitshalber eine auf
jeden Fall hinreichende Bedingung geschrieben.

> Hast Du da eine Referenz?

Ich sehe gerade, daß du schneller warst als ich (war ein paar Tage
offline) mit dieser Antwort hier und das schon selber rausgefunden hast;
ich werde mir das bei Gelegenheit durchlesen.

Der Vollständigkeit halber:

Ich habe diesen Satz aus einer alten Vorlesungsmitschrift aus IIRC
Maß-/Integrationstheorie oder Wahrscheinlichkeitstheorie.

Voraussetzung ist nur, daß X eine (R^1,B_1)-Zufallsvariable ist, wobei
B_1 die borelsche Sigma-Algebra ist.
Das ist nichts weiter als die besagte Meßbarkeit von X.

Ich fand den Satz "damals" sehr bemerkenswert, weil aus relativ
einfachen Voraussetzungen ohne irgendeinen Grenzwert-Übergang
tatsächlich die Exponentialverteilung hergeleitet werden kannn.


Witzigerweise wird es komplizierter, wenn man auf ähnliche Weise die
geometrische Verteilung (das diskrete (einfachere?) Analogon der
Exponentialverteilung) herleiten will; dann sind zusätzliche
Voraussetzungen/Annahmen nötig.

Stephan Gerlach

unread,
Sep 3, 2021, 1:49:45 PMSep 3
to
Martin Vaeth schrieb:
> Martin Vaeth <mar...@mvath.de> schrieb:
>>> P(T>t+t_1 | T>t_1) = P(T>t) = const(t) für alle t_1>0, t>0.
>
> Das geht ja viel leichter, als ich vermutet hatte:
> Die bedingte Wahrscheinlichkeit links ist ja per Definition
> (und weil T>t+t_1 natürlich T>t_1 impliziert):
>
> P(T>t+t_1)/P(T>t_1) = P(T>t),
>
> also lautet die Bedingung
>
> P(T>t)P(T>t_1) = P(T>t+t_1)
>
> und schon hat man für F(t)=P(T>t) die Beziehung: F(t)F(s)=F(t+s)

In meinen Aufzeichnungen bzw. dem Beweis des Satzes wird diese
Funktionalgleichung direkt bewiesen, ohne den unten stehenden "Umweg"
über den Logaritmus.

> Für f=log F hat man also die Abelsche Funktionalgleichung
> f(t)+f(s)=f(t+s) und falls f messbar ist, folgt die Linearität
> von f, also f(t)=ct, mithin F(t)=e^{ct}.

Genügt Meßbarkeit? Bei "mir" wird Monotonie von f vorausgesetzt, die
auch durch Bildung des Logarithmus erhalten bleibt.

> Wie ich vermutet habe, reicht also die Messbarkeit aus...

Was ausreicht, ist allerdings die Meßbarkeit der Zufallsvariable T (bzw.
das ist ja in der Definition des Begriffs "Zufallsvariable" schon drin).

Die Monotonie von f reicht übrigens ebenfalls aus, da ja F
(und damit auch f=log F) per Definition sowieso monoton fallend ist:
Es war ja F(t)=P(T>t), und das ist monoton fallend.

Martin Vaeth

unread,
Sep 3, 2021, 2:40:19 PMSep 3
to
Stephan Gerlach <mam9...@t-online.de> schrieb:
>> und schon hat man für F(t)=P(T>t) die Beziehung: F(t)F(s)=F(t+s)
>
> In meinen Aufzeichnungen bzw. dem Beweis des Satzes wird diese
> Funktionalgleichung direkt bewiesen, ohne den unten stehenden "Umweg"
> über den Logaritmus.

Das geht vermutlich auch, und vermutlich analog wie mit der
"+"-Operation.

Aber der "+"-Fall ist halt der bekanntere und klarere, deswegen
fand ich es natürlich, es darauf zurückzuführen.

> Genügt Meßbarkeit? Bei "mir" wird Monotonie von f vorausgesetzt, die
> auch durch Bildung des Logarithmus erhalten bleibt.

Monotonie impliziert natürlich Messbarkeit, sogar Borel-Messbarkeit.
Es genügt wesentlich weniger als Messbarkeit. Jede der folgenden
Bedingungen ist hinreichend (da man eine Art "Translationsinvarianz"
hat, genügt es, die Eigenschaften jeweils auf einem kleinen Intervall
zu überprüfen):

1. Lebesgue-Messbarkeit, d.h. Urbilder von Intervallen liegen in der
sigma-Algebra, die von den offenen (äquivalent: Borel) und den
Lebesgue-Nullmengen erzeugt wird.
2. Baire-Messbarkeit, d.h. Urbilder von Intervallen liegen in der
sigma-Algebra, die von den offenen (äquivalent: Borel) und den
nirgends dichten (äqvuivalent: mageren) Mengen erzeugt wird.
3. Das Bild eines kleinen Intervalls ist nicht dicht in R
(bei der Variante mit Multiplikation muss man das natürlich
durch "nicht dicht in (0,\infty)" ersetzen).
4. Wegen 2 lassen sich (beweisbar) Gegenbeispiele nicht in ZF+DC
konstruieren, sondern man benötigt eine allgemeinere Variante des
Auswahlaxioms. Die Existenz einer Hamel-Basis von R über dem
Körper Q ist hinreichend für ein Gegenbeispiel. (Soviel ich weiß,
war dies Hamel's Motivation zur Definition der Basis eines
Vektorraums, wie wir sie heute kennen.)

Keiner dieser allgemeinen Fälle ist vollkommen trivial zu zu zeigen.

Was leicht ist, ist zu zeigen, dass Stetigkeit bei 0 ausreicht, und
diese erhält man sofort aus der Beschränktheit bei 0 (im "+"-Fall;
im "*"-Fall braucht man zusätzlich die Beschränktheit "von der 0 weg",
weil ja quasi (-\infty,\infty) durch (0,\infty) ersetzt wird.
Beides erhält man, wenn man Monotonie voraussetzt.)

> Die Monotonie von f reicht übrigens ebenfalls aus, da ja F
> (und damit auch f=log F) per Definition sowieso monoton fallend ist:
> Es war ja F(t)=P(T>t), und das ist monoton fallend.

Ja, das hatte ich in irgendeinem ergänzenden Posting auch bemerkt;
es war mir nur nicht gleich am Anfang aufgefallen, dass man die
Monotonie in diesem Fall sowieso hat.

Ulrich Diez

unread,
Sep 3, 2021, 10:12:23 PMSep 3
to

Stefan Ram schrieb:

> Angenommen die Wahrscheinlichkeit für ein Lebewesen in den
> nächsten 365,2425 Tagen zu sterben beträgt 0,0112583454592142.
>
> Wenn man zur Vereinfachung annimmt, daß die Wahrscheinlichkeit
> sich in diesem Zeitraum nicht ändert, wie groß ist dann die
> Wahrscheinlichkeit x dafür am nächsten Tag zu sterben?

Was ist mit "am nächsten Tag" gemeint?
Nächster Tag in bezug auf welchen Tag?
Wenn das Lebewesen bereits vor dem "nächsten" Tag stirbt und somit
am nächsten Tag bereits bereits tot ist, dann ist die
Wahrscheinlichkeit, dass es am nächsten Tag stirbt, gleich Null.
Damit handelt es sich um eine bedingte Wahrscheinlichkeit.

Inwiefern kann bei einer bedingten Wahrscheinlichkeit
angenommen werden, dass sie sich nicht ändert?

Ulrich

Martin Vaeth

unread,
Sep 4, 2021, 1:42:45 AMSep 4
to
Ulrich Diez <ud.usenetco...@web.de> schrieb:
Die Formulierung mit der bedingten Wahrscheinlichkeit hat ja
Stefan Gerle herausgearbeitet: Man kann die Annahme so interpretieren,
dass die bedingte Wahrscheinlichkeit, den Zeitpunkt t+d zu überleben
(t,d nichtnegativ), unter der Bedingung, den Zeitpunkt t zu überleben,
unabhängig sein soll vom Zeitpunkt t:
P(T>t+d | T>t) = g(d)
Natürlich hängt sie (d.h. g) i.a. von der Intervallänge d ab.
Das ist äquivalent zu P(T>s)/P(T>t) = g(t-s) für t<s, und damit
(zusammen mit der natürlichen Normierung P(T>0) = 1) äquivalent
dazu, dass P(T>t) = e^{-ct} für eine nichtnegative Konstante c ist.

Martin Vaeth

unread,
Sep 4, 2021, 2:24:47 AMSep 4
to
Stefan Ram <r...@zedat.fu-berlin.de> schrieb:
>
> Ich nehme an, daß es eine Wahrscheinlichkeitsdichte
> f(t) dt gibt, deren Integration über ein Intervall I =
> [ t0, t1 ], die Wahrscheinlichkeit angibt, innerhalb
> diese Intervalls zu sterben (0 <= t0 <= t1 <= 365,2425d).

Die Annahme der Existenz einer Dichte ist unnötig. Die kommt in beiden
(s. unten) Fällen als Folgerung heraus.

> Und ich wollte sagen, daß ich annehme, daß f(t)
> konstant gleich k ist

Das wäre per Definition die Gleichverteilung mit Parameter k.

> Nehmen wir einmal zum Vergleich folgendes Problem: Du hast
> zum Zeitpunkt t=0, am ersten Januar um 0.00 Uhr ein radioaktives
> Atom mit einer Halbwertszeit von t=365,2425 d.

Das hingegen ist per Definition die Exponentialverteilung mit
Parameter 365,2425 ln 2, denn der Begriff "Halbwertszeit" ergibt nur bei der
Exponentialverteilung den Sinn, den er suggeriert. (Und außerdem ist durch
Messungen annähernd verifiziert, und vermutlich aus verschiedenen physikalischen
Modellen herleitbar, dass der Atomzerfall exponentialverteilt ist.)
Du musst Dich schon für eine der beiden Verteilungen als Annahme entscheiden.

Stephan Gerlach

unread,
Sep 22, 2021, 6:25:44 AMSep 22
to
Martin Vaeth schrieb:
> Stephan Gerlach <mam9...@t-online.de> schrieb:
>>> und schon hat man für F(t)=P(T>t) die Beziehung: F(t)F(s)=F(t+s)
>> In meinen Aufzeichnungen bzw. dem Beweis des Satzes wird diese
>> Funktionalgleichung direkt bewiesen, ohne den unten stehenden "Umweg"
>> über den Logaritmus.
>
> Das geht vermutlich auch, und vermutlich analog wie mit der
> "+"-Operation.
>
> Aber der "+"-Fall ist halt der bekanntere und klarere, deswegen
> fand ich es natürlich, es darauf zurückzuführen.
>
>> Genügt Meßbarkeit? Bei "mir" wird Monotonie von f vorausgesetzt, die
>> auch durch Bildung des Logarithmus erhalten bleibt.
>
> Monotonie impliziert natürlich Messbarkeit, sogar Borel-Messbarkeit.
> Es genügt wesentlich weniger als Messbarkeit.

Was den Beweis der Funktionalgleichung erschweren(?) dürfte.

> Jede der folgenden
> Bedingungen ist hinreichend (da man eine Art "Translationsinvarianz"
> hat, genügt es, die Eigenschaften jeweils auf einem kleinen Intervall
> zu überprüfen):
>
> 1. Lebesgue-Messbarkeit, d.h. Urbilder von Intervallen liegen in der
> sigma-Algebra, die von den offenen (äquivalent: Borel) und den
> Lebesgue-Nullmengen erzeugt wird.
> 2. Baire-Messbarkeit, d.h. Urbilder von Intervallen liegen in der
> sigma-Algebra, die von den offenen (äquivalent: Borel) und den
> nirgends dichten (äqvuivalent: mageren) Mengen erzeugt wird.
> 3. Das Bild eines kleinen Intervalls ist nicht dicht in R
> (bei der Variante mit Multiplikation muss man das natürlich
> durch "nicht dicht in (0,\infty)" ersetzen).
> 4. Wegen 2 lassen sich (beweisbar) Gegenbeispiele nicht in ZF+DC
> konstruieren, sondern man benötigt eine allgemeinere Variante des
> Auswahlaxioms. Die Existenz einer Hamel-Basis von R über dem
> Körper Q ist hinreichend für ein Gegenbeispiel. (Soviel ich weiß,
> war dies Hamel's Motivation zur Definition der Basis eines
> Vektorraums, wie wir sie heute kennen.)
>
> Keiner dieser allgemeinen Fälle ist vollkommen trivial zu zu zeigen.

Du meinst, die Darstellung von f (als lineare bzw. Exponentialfunktion)
aus der Funktionalgleichung aus einem dieser Fälle herzuleiten?
Daher wurde das vermutlich auch (hier "bei mir") nicht gemacht, sondern
die "einfachere" Voraussetzung Monotonie getroffen.

> Was leicht ist, ist zu zeigen, dass Stetigkeit bei 0 ausreicht,...

Stimmt tatsächlich:

Zunächst gilt erstmal wegen der Funktionalgleichung:
F(x) = F(x+0) = F(x)+F(0) für alle x ∈ R,
woraus
F(0) = 0
folgt.

Im folgenden wird vorausgesetzt: Sei F stetig bei 0.

Wähle nun ein beliebiges x ∈ R und irgendeine Folge (x_n)_{n ∈ N}
mit
lim_{n->oo} x_n = x.
Daraus folgt unmittelbar
lim_{n->oo} (x_n-x) = 0,
d.h. die Folge (x_n-x)_{n ∈ N} ist eine Nullfolge.

Dann gilt:
lim_{n->oo} F(x_n)
= lim_{n->oo} F(x_n-x+x)
= lim_{n->oo} (F(x_n-x) + F(x))
= [lim_{n->oo} F(x_n-x)] + [lim_{n->oo} F(x)]
= F(0) + F(x)
= 0 + F(x)
= F(x)

Hierbei wurden benutzt: Funktionalgleichung, Linearität des Grenzwertes,
(x_n-x)_{n ∈ N} ist Nullfolge und Stetigkeit von F bei 0, F(0)=0.
lim_{n->oo} F(x_n) = F(x) heißt aber, daß F bei x stetig ist.

D.h. aus Stetigkeit von F bei 0 folgt Stetigkeit von F auf R.
(Habe ich was übersehen, oder ist das tatsächlich so einfach?)

Damit ist der Rest aber "einfach", d.h. mit Überall-Stetigkeit kommt man
relativ leicht auf F(x) = c*x.
(Zuerst für ganze Zahlen, dann für rationale und Übergang zu R geht über
die Stetigkeit.)

> ... und
> diese erhält man sofort aus der Beschränktheit bei 0 (im "+"-Fall;
> im "*"-Fall braucht man zusätzlich die Beschränktheit "von der 0 weg",
> weil ja quasi (-\infty,\infty) durch (0,\infty) ersetzt wird.
> Beides erhält man, wenn man Monotonie voraussetzt.)
>
>> Die Monotonie von f reicht übrigens ebenfalls aus, da ja F
>> (und damit auch f=log F) per Definition sowieso monoton fallend ist:
>> Es war ja F(t)=P(T>t), und das ist monoton fallend.
>
> Ja, das hatte ich in irgendeinem ergänzenden Posting auch bemerkt;
> es war mir nur nicht gleich am Anfang aufgefallen, dass man die
> Monotonie in diesem Fall sowieso hat.

JFTR, die Beweis-Reihenfolge der Darstellung von F (lineare bzw.
Exponentialfunktion) aus der Funktionalgleichung mit
Monotonie-Voraussetzung geht hier ungefähr so:
- beweise die Funktionalgleichung für ganze Zahlen
- verallgemeinere Funktionalgleichung für rationale Zahlen
- verallgemeinere Funktionalgleichung (durch Grenzwertbildung) für
reelle Zahlen.

Martin Vaeth

unread,
Sep 22, 2021, 1:44:10 PMSep 22
to
Stephan Gerlach <mam9...@t-online.de> schrieb:
>>
>> Monotonie impliziert natürlich Messbarkeit, sogar Borel-Messbarkeit.
>> Es genügt wesentlich weniger als Messbarkeit.
>
> Was den Beweis der Funktionalgleichung erschweren(?) dürfte.

Jein: Die schwereren Fälle werden sukzessive auf die einfacheren
reduziert.

>> Jede der folgenden Bedingungen ist hinreichend:
>>
>> 1. Lebesgue-Messbarkei [...]
>> 2. Baire-Messbarkeit [...]
>> 3. Das Bild eines kleinen Intervalls ist nicht dicht in R [...]
>>
>> Keiner dieser allgemeinen Fälle ist vollkommen trivial zu zu zeigen.
>
> Du meinst, die Darstellung von f (als lineare bzw. Exponentialfunktion)
> aus der Funktionalgleichung aus einem dieser Fälle herzuleiten?

Ja. Ein möglicher Beweis geht so:

>> Was leicht ist, ist zu zeigen, dass Stetigkeit bei 0 ausreicht,...
>
> Stimmt tatsächlich: [...]
>
> D.h. aus Stetigkeit von F bei 0 folgt Stetigkeit von F auf R.
> (Habe ich was übersehen, oder ist das tatsächlich so einfach?)

Ja, es ist so einfach: I.W. benutzt man halt einfach nur die
"Translationsinvarianz" der Funktionalgleichung.

> Damit ist der Rest aber "einfach", d.h. mit Überall-Stetigkeit kommt man
> relativ leicht auf F(x) = c*x.
> (Zuerst für ganze Zahlen, dann für rationale und Übergang zu R geht über
> die Stetigkeit.)

Genau. Und als nächstes zeigt man dann, dass es genügt, dass die
Funktion bei 0 beschränkt ist (damit hat man i.W. die Bedingung 3
erledigt, wenn man mal wieder die Translationsinvarianz benutzt):

>> ... und diese erhält man sofort aus der Beschränktheit bei 0

... denn aus der Funktionalgleichung F(x+y)=F(x)+F(y) erhält man
zunächst F(x/2^n)=F(x)/2^n für x>0, und ist F bei 0 beschränkt,
etwa |F(x)| < C für x aus (0,d), so ist insbesondere
|F(x/2^n)| < C/2^n für alle x aus (0,d), also
|F(y)| < C/2^n für alle y aus (0,d/2^n).

Um jetzt 1 auf die Beschränktheit bei 0 zurückzuführen, kann man den
Satz von Steinhaus benutzen: Ist A eine Teilmenge positiven Maßes,
so enthält A-A eine Nullumgebung. Wende dies an für A=F^{-1}([-n,n])
für großes n.
Analog kann man bei 2 vorgehen, indem man ein Analogon des
Satzes von Steinhaus benutzt:
Ist A nicht mager, so enthält A-A eine Nullumgebung.
Das Ganze ist übrigens Aufgabe 6.9 in meinem Buch über
Integrationstheorie.

Martin Vaeth

unread,
Sep 22, 2021, 1:50:20 PMSep 22
to
Martin Vaeth <mar...@mvath.de> schrieb:
> Satz von Steinhaus [...] Ist A eine Teilmenge positiven Maßes,
> so enthält A-A eine Nullumgebung.
> Analogon des Satzes von Steinhaus [...]
> Ist A nicht mager, so enthält A-A eine Nullumgebung.

Im Analogon hatte ich vergessen, die wichtigste Voraussetzung
hinzuschreiben: A muss eine Baire-Menge sein.
Reply all
Reply to author
Forward
0 new messages