JVR <
jrenne...@googlemail.com> schrieb:
> Man hat also eine wesentlich kompliziertere Maschinerie.
Vor allem *hat* man Dinge, mit denen man "ganz normal" rechnen kann.
> Was sind die Vorteile?
Etliche Beweise werden wesentlich einfacher (siehe auch Ende des Postings).
Wie erwähnt läuft etwa der Beweis der Substitutionsregel auf einfaches
Kürzen im Körper der hyperreellen Zahlen hinaus:
>> df dg df
>> -- -- = --
>> dg dx dx
Im Hintergrund läuft dabei tatsächlich eine komplizierte Maschinerie ab,
die man aber nicht braucht, sobald man einfach die Fundamentalsätze
der NSA als gegeben ansieht. Für den Beweis dieser Fundamentalsätze braucht
man freilich Modelltheorie und eine Menge formale Logik.
Im einfachsten Modell entspricht im Fall einer Folge (x_n)_n das Einsetzen einer
unendlich großen hypernatürlichen Zahl für n der Wahl eines Ultrafilters
und Berechnen des zugehörigen Ultrafilter-Limits auf den natürlichen Zahlen:
Dies in der klassischen Analysis zu beschreiben, ist zwar möglich, aber
technisch und unübersichtlich; die Fundamentalsätze (insbesondere das sog.
Transfer-Prinzip) erlauben zu rechnen, wie gewohnt. (Dass die hyperrellen
Zahlen z.B. einen Körper bilden, folgt einfach daraus, dass die reellen Zahlen
die Körperaxiome erfüllen, und nach dem Transfer-Prinizip die hyperreellen
Zahlen deswegen automatisch die selben Axiome erfüllen.)
Der richtige Vorteil ist, dass man neben dem Transferprinzip auch weitere
Fundamentalsätze hat, die keine Entsprechung in der Standard-Analysis haben.
Grob gesprochen besagen diese Sätze, dass Dinge, die in der Standard-Welt
"fast" gelten (z.B. ein Mengensystem, bei dem je endlich viele Mengen
nichtleeren Durchschnitt haben), in der Nichtstandard-Welt unter gewissen
Umständen "ganz" geltgen (der Schnitt dieses Mengensystems ist nicht
leer, wenn seine Kardinalität nicht "zu" groß ist). Durch Benutzung dieses
Kompaktheitsprinzips kann man z.B. beweisen, dass jedes Funktional f auf
l_\infty (selbst ein unbeschränktes) in der Nichtstandard-Analysis in der
Gestalt
f(x) = \sum_{n=1}^h a_n x_n (mit x = (x_n)_n)
(bis auf einen infinitesimal kleinen Fehler) geschreiben werden kann,
wobei h eine (i.a. nicht endliche) hyernatürliche Zahl ist.
Für beschränkte Funktionale kann man zusätzlich erreichen, dass
\sum_{n=1}^h |a_n| gleich der Norm von f ist (bis auf einen infinitesimal
kleinen Fehler): Damit hat man eine "explizite" Formel selbst für die
"schwierigen" beschränkten Funktionale auf l_\infty, die kein klassisches
Analogon in l_1 haben, und diese Formel sieht aus einem abstrakten
Blickwinkel sogar genauso aus wie die Funktionale aus l_1.
> Was passiert mit dem Lebesgueschen Integral bzw dessen logischer Begründung?
Man *kann* die Analysis der Standard-Welt natürlich auch in der
Nichtstandard-Welt benutzen, aber dann verspielt man halt den Vorteil,
den die NSA bietet. Deshalb hätte man gerne eine reine
Nichtstandard-Analysis-Chararakterisierung des Lebesgueschen Integrals,
genauso wie ich es für das Riemann-Integral erwähnt habe.
Da erlebt man in der Nichtandard-Analysis zunächst ein paar Überraschungen,
weil sigma-Additivität viel mit der Menge der Standard-natürlichen
Zahlen zu tun hat, und diese Menge ist in der Robinsonschen Analysis
extern (also keine "Menge" der Nichtstandard-Welt). Insbesondere gibt es
keine sigma-Algebra rein interner Mengen, was zur Folge hat, dass
additive Maße auf Algebren interner Mengen automatisch sigma-additiv sind,
und dann mit dem Caratheodorischen Maßerweiterungssatz auf eine
sigma-Algebra fortgesetzt werden können; diese sigma-Algebra enthält dann
natürlich externe Mengen. Die so erhaltenen Maße nennt man Loeb-Maße,
und mit ihnen erhält man dann eine Nichtstandard-Charakterisierung von
messbaren Mengen. Die Details sind hier leider nichts so direkt wie beim
Riemann-Integral, weshalb ich das nicht als Beispiel benutzt hatte.
Tatsächlich werden die Loeb-Maße aber sehr erfolgreich für Probleme benutzt,
die in der Standard-Analysis schwer greifbar sind, etwa Wiener Prozesse:
Eben weil viele Dinge, die in der Standard-Welt "fast" richtig sind, in
der Nichtstandard-Welt "ganz" richtig sind (also ein zugehöriges "Objekt"
haben, mit dem man "rechnen" kann), werden viele Dinge durchsichtiger und
"greifbarer".
> Mit diesem Konstrukt will man dann Funktionalanalysis betreiben?
Man tut das durchaus erfolgreich. Die sog. Nichtstandard-Hülle
eines Banachraums etwa (ähnlich wie beim Loeb-Maß spielen auch hier
externe Mengen eine Rolle) ist ein sehr hilfreiches Instrument:
Es ist ein Banachraum, der, grob gesprochen, "infinitesimale" Elemente
erhält, die eben eine Menge Dinge erfüllen, die im ursprünglichen
Banachraum nur "fast" gültig sind.
Für einige tiefe Sätze der Funktionalanalysis (etwa zum Problem
invarianter Unterräume) sind zunächst nur Beweise mit NSA-Methoden
gefunden worden.
(Obwohl sich natürlich ”prinzipiell” jeder NSA-Beweis in einen
Standard-Beweis übersetzen lässt, aber dieser ist dann halt sehr
unübersichtlich und benötigt normalerweise das Auswahlaxiom in
essentieller Weise.)