Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Intuitionismus

81 views
Skip to first unread message

Martin Vaeth

unread,
Jan 16, 2022, 12:33:09 PM1/16/22
to
Im Jahresbericht der Deutschen Mathematiker-Vereinigung erschien
im Dezember ein m.E. sehr interessanter Grundlagenartikel von
Wim Veldman, Intuitionism: An Inspiration
https://d-nb.info/1234360764/34.

Nach der Lektüre kann man sich z.B. folgende Fragen selbst
beantworten:

1. Weshalb gilt der Zwischenwertsatz für Intuitionisten und
Konstruktivisten nicht, obwohl doch die binäre Suche etwas
Konstruktives ist, und obwohl die reellen Zahlen im
Intuitionismus oder Konstruktivismus doch gerade durch solche
konstruktiven Intervallschachtelungen definiert sind?

2. Der erstaunliche Satz, dass für den Intuitionisten jede Funktion
f:R->R stetig ist: Wie verträgt sich das mit der Signum-Funktion?

Die Fußnote 51 habe ich hingegen nicht verstanden, in der Bishops
Konstruktivismus im Vergleich zum Intuitionismus kritisiert wird
(habe allerdings auch nicht versucht, in der Referenz nachzulesen).
Ist diese jemandem klar geworden?

Fritz Feldhase

unread,
Jan 16, 2022, 2:43:17 PM1/16/22
to
Danke für den Tipp. Hier auch noch ein Hinweis (wobei ich das Vorwort schon etwas befremdlich fand...):

Rudolf Taschner, Vom Kontinuum zum Integral: Eine Einführung in die intuitionistische Mathematik

Martin Vaeth

unread,
Jan 16, 2022, 2:54:08 PM1/16/22
to
Stefan Ram <r...@zedat.fu-berlin.de> wrote:
> Martin Vaeth <mar...@mvath.de> writes:
>>1. Weshalb gilt der Zwischenwertsatz für Intuitionisten und
>> Konstruktivisten nicht, obwohl doch die binäre Suche etwas
>> Konstruktives ist, und obwohl die reellen Zahlen im
>> Intuitionismus oder Konstruktivismus doch gerade durch solche
>> konstruktiven Intervallschachtelungen definiert sind?
>
> Dazu fand ich die Erklärung, daß im klassischen Beweis
> des Satzes der vom Satz als existent behauptete Wert
> als das Supremum einer Menge von Urbildwerten wegen des
> Axioms der oberen Grenze existiere, aber nachweislich
> nicht konstruierbar sei.

Du sprichst hier offensichtlich von dem Satz, dass jede stetige
Funktion auf einem kompakten Interval ihr Maximum annimmt.

Ich neinte aber in der Tat den "harmlosen" *Zwischenwertsatz*,
also dass eine stetige reellwertige Funktion auf einem Intervall,
die einen positiven und einen negativen Wert annimmt, auch eine
Nullstelle hat: Diese Nullstelle kann aber in der klassischen
Mathematik "konstruktiv" (mit "binärer Suche", d.h. über
Intervallschachtelungen) gefunden werden...

>>2. Der erstaunliche Satz, dass für den Intuitionisten jede Funktion
>> f:R->R stetig ist: Wie verträgt sich das mit der Signum-Funktion?
>
> Möglicherweise lassen sie nur stetige Funktionen zu.

Indirekt ist es natürlich so (sonst wäre es ja kein Satz), aber von
der Definition her wird keinerlei solche Einschränkung gemacht:
Es soll nur jede reelle Zahl auf eine andere reelle Zahl abgebildet
werden (webei die Begriffe "reelle Zahl" und "abbilden" ziemlich klar
konstruktive Varianten der klassischen Definitionen sind).

Für den Beweis des erwähnten Satzes werden allerdings streitbare
intuitionistische Meta-Sätze herangezogen.

(Bishop benutzt daher die Stetigkeit tatsächlich als Definition,
weil er diese Meta-Sätze kritisiert; genau dieses Vorgehen wird
im Artikel als fragwürdig bezeichnet, und darauf bezieht sich die
Fußnote, die ich nicht verstanden habe.)

Ich muss sagen: Ganz überzeugt bin ich nicht, dass der
Intuitionismus und insbesondere diese Meta-Sätze wirklich in sich
konsistent sind; ich kann Bishops Kritik daher zunächst gut
nachvollziehen.

Auflösung der beiden Fragen weiter unten (Spoiler!)


































(Spoiler)
































(Spoiler)








Die erste Frage wird im Artikel durch ein Gegenbeispiel beantwortet,
bei dem die vermeintlich konstruktive binäre Suche tatsächlich
nicht konstruktiv ist.

Die Antwort auf die zweite Frage steht nicht direkt im Artikel:

Die Signum-Funktion ist tatsächlich im Intuitionismus nicht wohldefiniert,
weil man von gewissen reellen Zahlen im Intuitionismus nicht entscheiden
kann, ob sie kleiner, größer, oder gleich 0 sind. Grob gesprochen:
Man kann diese Zahlen zwar konstruktiv definieren, aber das Vorzeichen
nicht konstruktiv entscheiden... (Details dazu stehen wiederum im Artikel.)

Martin Vaeth

unread,
Jan 16, 2022, 3:50:01 PM1/16/22
to
Fritz Feldhase <franz.fri...@gmail.com> schrieb:
>
> Danke für den Tipp. Hier auch noch ein Hinweis
> (wobei ich das Vorwort schon etwas befremdlich fand...):
>
> Rudolf Taschner, Vom Kontinuum zum Integral:
> Eine Einführung in die intuitionistische Mathematik

So ähnlich ging es mir auch, aber bis zu gewissen Grundsätzen kann
ich den intuitionistischen Ansatz schon nachvollziehen. Wie andernorts
schon erwähnt, bin ich allerdings nicht überzeugt, ob gerade die
"metaphysischen" Sätze des Intuitionismus wirklich in sich konsistent
sind - ein Beweis dafür (etwa der Äquikonsistenz mit ZFC) würde mein
Vertrauen stärken. (Auch wenn Brouwer vermutlich schon alleine den
Gedanken an eine dazu notwendige Axiomatisierung abgelehnt hätte.)

Was mir allerdings einleuchtet, ist der Ansatz, "Wahrheit" durch
"Beweisbarkeit" zu ersetzen, damit man "sicher" sein kann, dass die
erhaltenen Sätze wirklich stimmen: Das kann man wie Bishop eben ohne
den ganzen metaphysischen Überbau tun, hat dann aber eben nur einen
Bruchteil der Sätze der klassischen Mathematik zur Verfügung. Aber
diese Sätze sind dann halt "sehr solide".
Wobei natürlich gerade doch der metaphysische Überbau des
Intuitionismus wegen der Mächtigkeit und manchmal frappierenden
Einfachheit seiner Schlüsse einen besonderen Reiz ausübt, der den
Intuitionismus zu etwas wesentlich Eleganterem macht als reinen
Konstruktivismus...

Axel Reichert

unread,
Jan 17, 2022, 3:12:58 AM1/17/22
to
Fritz Feldhase <franz.fri...@gmail.com> writes:

> Rudolf Taschner, Vom Kontinuum zum Integral: Eine Einführung in die
> intuitionistische Mathematik

Wie lesbar ist so etwas mit theorielastigem Ingenieurshintergrund und
separatem Mathematikvordiplom?

Tschoe!

Axel

JVR

unread,
Jan 17, 2022, 4:32:46 AM1/17/22
to
Der Aufwand ist beachtlich und reine Geschmackssache. Mit Mathematik im
üblichen Sinne hat das wenig gemein.

Ich weiß nicht, ob man den 'metaphysischen Überbau' ignorieren kann. Man könnte sich
z.B. mit der Frage befassen "Was bleibt übrig, wenn das ausgeschlossene
Dritte" als logisches Prinzip nicht verfügbar ist? D.h. im Klartext: "durch welche
geistige Gymnastik kann man in welchen Fällen ohne dieses Prinzip auskommen?"
Ich denke es muss dazu Überlegungen von Brouwer und seiner Sekte geben.

Ich habe vor vielen Jahrzehnten ein Semester lang Stephen Kleenes Vorlesungen zur Metamathematik
gehört und fand das damals für kurze Zeit hoch interessant. Mathematik ist das eigentlich
nicht, eher Logik.

NB Analog verhält es sich mit der expliziten Anwendung des Auswahlaxioms
auf überabzählbare Mengen, z.B. wenn man beweisen will, dass jeder Vektorraum
eine orthogonale Basis hat.


Martin Vaeth

unread,
Jan 17, 2022, 5:59:36 AM1/17/22
to
JVR <jrenne...@googlemail.com> schrieb:
>
> Ich weiß nicht, ob man den 'metaphysischen Überbau' ignorieren kann.

Konstruktivisten wie Bishop tun dies. Der Nachteil ist dann halt, dass
man einfach nur *weniger* beweisen kann, weil man eben "Wahrheit" in
logischen Schlussfolgerungen durch "Beweisbarkeit" ersetzen muss und
deswegen z.B. den Satz vom ausgeschlossenen Dritten i.a. nicht benutzen
kann (weil man bei vielen Sachverhalten weder die Aussage noch ihre
Negation beweisen kann). Das ist erstaunlich restriktiv, weil es durch
den Konstruktivismus schon ausgeschlossen ist, so Dinge wie die
Signum-Funktion als Hilsmittel zu benutzen (s. anderes Posting).

Der 'metaphysische Überbau' hingegen ermöglicht es, Aussagen zu beweisen,
die in der klassischen Mathematik *falsch* sind; etwa die erwähnte
Aussage, dass alle Funktionen von R nach R stetig sind.

> Mathematik ist das eigentlich nicht, eher Logik.

Dieser Aussage stimme ich nicht zu. Man betreibt solche Logik (ebenso
wie Nichtstandard-Analysis) nicht zum Selbstzweck, sondern als Mathematik.
Klar, die Grundlagen sind zunächst Logik, aber danach sollte es schon
ans Eingemachte gehen. Wenn das nicht sinnvoll möglich ist und schon
einfache Sätze nicht mehr gelten, gehört die gesamte Theorie in die
Tonne. In welche Kategorie der Intuitionismus/Konstruktivismus fällt,
bin ich mir noch nicht sicher: Für meinen Geschmack geht schon
zu viel verloren.

> NB Analog verhält es sich mit der expliziten Anwendung des Auswahlaxioms
> auf überabzählbare Mengen

Dem muss ich heftig widersprechen! In ZF+DC lässt sich die gesamte
praktische Mathematik beschreiben. Aussagen, für die man eine
stärkere Versionen des Auswahlaxioms *braucht* sind bei genauerer
Betrachtung meist eher skurriler Natur (Banach-Tarski, unstetige
lineare Abbildungen zwischen Banachräumen, additive singuläre
Maße auf N, nicht-prinzipale Ultrafilter, Nicht-Integral-Funktionale
auf L_\infty, Nicht-Summen-Funktionale auf l_\infty, Banach Limites,
Hamel-Basis von R über Q oder von unendlichdimensionalen Banachräumen,
usw).
Mit ganz wenigen Ausnahmen habe ich in keiner meinem Arbeiten mehr
als ZF+DC benutzt, und dort, wo ich es benutzt habe, scheinen mir
die Ergebnisse "zu allgemein", um praktisch (z.B. bei Anwendung in
der Physik) tatsächlich korrekt zu sein; allen voran Hahn-Banach,
Existenz maximaler Ideale, Dugundjis Fortsetzungssatz und Michaels
Selektionssatz im nichtseparablen Fall.

Der einzige Fall, in dem mir AC *wirklich* fehlt, ist in der
sinnvollen Formulierbarkeit eines Fortsetzungssatzes für
Differentialgleichungen (oder Volterra-Gleichungen oder -Inklusionen)
in Abwesenheit der Eindeutigkeit lokaler Lösungen: Zwar kommt man in
den meisten Fällen mit anderen Ansätzen ans Ziel, aber dass man i.a.
nicht die Existenz einer maximalen Lösung kennt, erscheint mir falsch:
Zumindest im R^n habe ich das Gefühl, dass man die Existenz einer
maximalen Lösung auch ohne das Hausdorffsche Maximalitätsprinzip
kennen sollte, aber ich kenne leider keine Arbeiten dazu und habe
selbst keinen Beweis gefunden.

JVR

unread,
Jan 17, 2022, 6:40:56 AM1/17/22
to
Ich kann hier nicht wirklich mitreden. Das sind nicht Themen, zu denen man
nach oberflächlicher Betrachtung etwas Sinnvolles beitragen kann, und
meine Kenntnisse darüber sind sehr oberflächlich.
Mein Eindruck war immer, dass das Ziel der nicht-standard Analysis ist,
das Fundament besser zu begründen, ohne den Überbau zu erschüttern.
Aber ich kenne mich da gar nicht aus.


Martin Vaeth

unread,
Jan 17, 2022, 7:30:29 AM1/17/22
to
JVR <jrenne...@googlemail.com> schrieb:
> Mein Eindruck war immer, dass das Ziel der nicht-standard Analysis ist,
> das Fundament besser zu begründen, ohne den Überbau zu erschüttern.

Mir ist nicht klar, ob Du hier mit "nicht-standard Analysis" allgemein
einen anderen Zugang zur Analysis/Mathematik/Logik meinst, oder
"die" Nicht-Standard-Analysis (NSA) (von Robinson und anderen bekannten
Namen wie Henson, Luxemburg, ggf. Nelson etc). Ich hatte in meinem
Posting Letzteres gemeint.

Ja, NSA ist von etwas anderer Natur als Intuitionismus, wenngleich es
eben zunächst auch reine Logik/Modelltheorie ist.
NST baut auf der klassischen ZFC Mengenlehre auf, und im
Gegensatz zu meinem letzten Posting ist für ihren Aufbau das
Auswahlaxiom fundamental (wenngleich es neuerdings auch eine
sehr eingeschränkte Variante gibt, bei der man es nicht benötigt.
Über deren Nutzen bin ich allerdings nicht sicher):

NSA ist "im Prinzip" nur eine Beweistechnik innerhalb von ZFC,
die es allerdings erlaubt, verschiedene topologische und analytische
Sachverhalte in einer Sprache zu formulieren, die der von Euler,
Leibniz u.a. sehr ähnlich sind. (Eben mit "Infinitesimalen".)

Sie ist besonders mächtig, wenn man Eigenschaften von diesen
"kuriosen" Objekten beweisen will, von denen ich in meinem
letzten Posting sprach (deren Existenz man typischerweise
nur mit dem Auswahlaxiom erhält):

Anders als in der klassischen Analysis hat man in NSA z.B.
"explizite" Formeln für die Funktionale auf \ell_\infty und kann
z.B. Banach-Limites mit diesen Formeln charakterisieren. Dies
erlaubt es dann z.B. Aussagen über Banach-Limites bequem zu
formulieren und zu beweisen, die in der klassischen Analysis
nicht leicht zu finden und zu beweisen sind. (Als Beispiel
nennen ich die klassische Charakterisierung fast konvergenter
Folgen durch Lorenz in einer ellenlangen Arbeit; das Ergebnis
wird von Luxemburg mit NSA-Methoden in wenigen Zeilen bewiesen).

Martin Vaeth

unread,
Jan 17, 2022, 7:38:20 AM1/17/22
to
Martin Vaeth <mar...@mvath.de> wrote:
> NST baut auf der klassischen ZFC Mengenlehre auf, und im

Typo: Statt NST hatte ich NSA (Nicht-Standard-Analysis) gemeint.

Axel Reichert

unread,
Jan 17, 2022, 5:22:03 PM1/17/22
to
JVR <jrenne...@googlemail.com> writes:

> Der Aufwand ist beachtlich und reine Geschmackssache. Mit Mathematik im
> üblichen Sinne hat das wenig gemein.

Schon klar, dass das "meta" ist. Aber so ein Grundlagenstreit ist ja
durchaus auch historisch ganz spannend.

> Ich habe vor vielen Jahrzehnten ein Semester lang Stephen Kleenes
> Vorlesungen zur Metamathematik gehört und fand das damals für kurze
> Zeit hoch interessant. Mathematik ist das eigentlich nicht, eher
> Logik.

Nach etwas Stoebern auf Wikipedia koennte der Zusammenhang zu Turing,
Church, Lambda-Kalkuel, funktionaler Programmierung usw. ganz
interessant sein.

Das Taschner-Buch kommt mal auf die Liste.

Danke fuer deine Einschaetzung!

Axel

Martin Vaeth

unread,
Jan 17, 2022, 6:20:31 PM1/17/22
to
Stefan Ram <r...@zedat.fu-berlin.de> schrieb:
>
> Infinitesimale (wie "dx") erhalten aber auch in der
> /klassischen/ Analysis (als ohne die Nichtstandardanalysis
> [Abraham Robinson et al.]) eine Bedeutung, nämlich als
> 1-Differentialformen (Elias Cartan [Élie Joseph Cartan]).

Ja, aber dann sind es eben keine Infinitesimalen, sondern nur
Differentialformen. Das schreibt sich zwar ähnlich, ist aber
etwas völlig anderes, eben keine (hyperreelle) Zahl und nicht
einmal Element eines Körpers: Vielmehr ist es in gewissem Sinne
nur eine Abkürzung für den klassischen Grenzübergang, sobald
man den Ausdruck in einer Formel einsetzt.

> Anschaulich und vereinfacht kann man sich dies alles so
> vorstellen, daß der Begriff des "unendlich Kleinen" durch
> den der linearen Approximation ersetzt wird.

Eben: Es ist eben ein Ersatz. Ein Krücke, die sich in der Notation
zwar an die historischen Vorbilder anlehnt, in der Semantik aber
etwas gänzlich anderes ist, als tatsächlich ein Infinitesimal,
was Leibniz, Cauchy, Euler und andere vermutlich im Sinn hatten.

Ein paar Illustrationen, wie in der Robinsonschen NSA mit
Infinitesimalen wirklich *gerechnet* wird:

Die Ableitung einer Funktion f an der Stelle x ist (bis auf
einen infinitesimal kleinen Fehler) gleich dem Quotienten

df
--
dx

(wirklich nur ein Quotient im Körper der hyperreellen Zahlen!),
wobei dx irgendein Infinitesimal ist und df = f(x+dx) - f(x).
(Und f ist genau dann differenzierbar, wenn dieser Quotient
endlich ist und unabhängig von der Wahl des Infinitesimals -
bis auf einen infinitesimalen Fehler, natürlich):

Man braucht keinen Grenzübergang; der Quotient *ist* die Ableitung,
und die Existenz der Ableitung im Sinne der epsilon-delta-Definition
ist äquivalent zur Unabhängigkeit von der Wahl des Infinitesimals.

Mit diesem Wissen kann der Beweis der Produktregel nahezu auf das
reine Hinschreiben der Definition reduziert, und der Beweis der
Kettenregel für die Ableitung von f\circ g (im Falle g'(x_0)\ne 0)
kann tatsächlich auf die Gleichheit

df dg df
-- -- = --
dg dx dx

von Infinitesimalen zurückgeführt werden. Diese Gleichheit wiederum
ist vollkommen triviales Rechnen im Körper der hyperrellen Zahlen
(zu dem die Infinitesimalen dg, dx, und df gehören):
Durch genau solche Rechnungen haben Leibniz & Co diese Regeln
gerechtfertigt!

Ähnlich kann das Riemann-Integral \int_0^1 f(x) dx einer
Riemann-integrierbaren Funktion durch eine Riemann-Summe
\sum_{n=0}^h f(n/h) / h
für eine unendlich feine äquidistante Partition (h irgendeine
unendliche hyperrelle Zahl) berechnet werden; zumindest bis
auf einen infinitesimal kleinen Fehler.

Die Riemann-Integrierbarkeit von f lässt sich analog durch
Betrachten beliebiger unendlich feiner Partitionen charakterisieren.

Auch hier: Man braucht keine komplizierten Grenzübergänge über
Netze, sondern die Riemann-Summe einer unendlichen Partition *ist*
bereits das Integral (bis auf einen infinitesimal kleinen Fehler),
und die Existenz des Riemann-Integrals (im Sinne der Definition mit
Grenzübergängen bei Netzen) ist äquivalent zur Unabhängigkeit von
der Wahl der Partition. Für Riemann-Stieltjes-Integrale gilt Analoges.

Noch eleganter geht es bei Folgen: Zur Berechnung des Grenzwerts
einer Folge x_n setzt man einfach eine unendlich große (hypernatürliche)
Zahl n ein (und hat den Grenzwert bis auf ein Infinitesimal).
Der Grenzwert existiert (im epsilon-N-Sinne) genau dann, wenn das
Ergebnis endlich und unabhängig von der Wahl des unendlich großen n ist;
falls das nicht der Fall ist, findet man so die Menge der Häufungspunkte
der Folge.

JVR

unread,
Jan 17, 2022, 7:54:53 PM1/17/22
to
Man hat also eine wesentlich kompliziertere Maschinerie. Was sind die Vorteile?
Was passiert mit dem Lebesgueschen Integral bzw dessen logischer Begründung?
Bzw mit den Funktionen in L_1, die nicht R-integrierbar sind?
Mit diesem Konstrukt will man dann Funktionalanalysis betreiben?

Fritz Feldhase

unread,
Jan 17, 2022, 8:34:04 PM1/17/22
to
On Tuesday, January 18, 2022 at 1:54:53 AM UTC+1, JVR wrote:
>
> Man hat also eine wesentlich kompliziertere Maschinerie. Was sind die Vorteile?

Frag Hilbert danach! :-)

"... nein: Brouwer ist nicht, wie Weyl meint, die Revolution, sondern
nur die Wiederholung eines Putschversuches mit alten Mitteln, der
seinerzeit, viel schneidiger unternommen, doch gänzlich mißlang und
jetzt zumal, wo die Staatsmacht durch Frege, Dedekind und Cantor so
wohlgerüstet und befestigt ist, von vornherein zur Erfolglosigkeit
verurteilt ist."

[D. Hilbert: "Die Neubegründung der Mathematik. Erste
Mitt." Abhandl. d. Math. Seminars d. Univ. Hamburg, Bd. 1 (1922), S.
157-177 (1922)]

Gerne auch (etwas informativer und durchaus nicht kritisch):

Eric Schechter, Constructivism is Difficult
https://math.vanderbilt.edu/schectex/papers/difficult.html

Fritz Feldhase

unread,
Jan 17, 2022, 8:41:55 PM1/17/22
to
On Tuesday, January 18, 2022 at 2:34:04 AM UTC+1, Fritz Feldhase wrote:
> On Tuesday, January 18, 2022 at 1:54:53 AM UTC+1, JVR wrote:
> >
> > Man hat also eine wesentlich kompliziertere Maschinerie. Was sind die Vorteile?
>
> Frag Hilbert danach! :-)

„Was Weyl und Brouwer tun, kommt im Grunde darauf hinaus, daß sie die einstigen Pfade von Kronecker wandeln: sie suchen die Mathematik dadurch zu begründen, daß sie alles ihnen unbequem erscheinende über Bord werfen und eine Verbotsdiktatur à la Kronecker errichten. Dies heißt aber unsere Wissenschaft zerstückeln und verstümmeln, und wir laufen Gefahr einen großen Teil unserer wertvollsten Schätze zu verlieren, wenn wir solchen Reformatoren folgen. […] nein, Brouwer ist nicht, wie Weyl meint die Revolution, sondern die Wiederholung eines Putschversuches mit alten Mitteln, der […] von vorneherein zur Erfolglosigkeit verurteilt ist.“

Martin Vaeth

unread,
Jan 18, 2022, 6:04:22 AM1/18/22
to
JVR <jrenne...@googlemail.com> schrieb:
> Man hat also eine wesentlich kompliziertere Maschinerie.

Vor allem *hat* man Dinge, mit denen man "ganz normal" rechnen kann.

> Was sind die Vorteile?

Etliche Beweise werden wesentlich einfacher (siehe auch Ende des Postings).
Wie erwähnt läuft etwa der Beweis der Substitutionsregel auf einfaches
Kürzen im Körper der hyperreellen Zahlen hinaus:

>> df dg df
>> -- -- = --
>> dg dx dx

Im Hintergrund läuft dabei tatsächlich eine komplizierte Maschinerie ab,
die man aber nicht braucht, sobald man einfach die Fundamentalsätze
der NSA als gegeben ansieht. Für den Beweis dieser Fundamentalsätze braucht
man freilich Modelltheorie und eine Menge formale Logik.

Im einfachsten Modell entspricht im Fall einer Folge (x_n)_n das Einsetzen einer
unendlich großen hypernatürlichen Zahl für n der Wahl eines Ultrafilters
und Berechnen des zugehörigen Ultrafilter-Limits auf den natürlichen Zahlen:
Dies in der klassischen Analysis zu beschreiben, ist zwar möglich, aber
technisch und unübersichtlich; die Fundamentalsätze (insbesondere das sog.
Transfer-Prinzip) erlauben zu rechnen, wie gewohnt. (Dass die hyperrellen
Zahlen z.B. einen Körper bilden, folgt einfach daraus, dass die reellen Zahlen
die Körperaxiome erfüllen, und nach dem Transfer-Prinizip die hyperreellen
Zahlen deswegen automatisch die selben Axiome erfüllen.)

Der richtige Vorteil ist, dass man neben dem Transferprinzip auch weitere
Fundamentalsätze hat, die keine Entsprechung in der Standard-Analysis haben.
Grob gesprochen besagen diese Sätze, dass Dinge, die in der Standard-Welt
"fast" gelten (z.B. ein Mengensystem, bei dem je endlich viele Mengen
nichtleeren Durchschnitt haben), in der Nichtstandard-Welt unter gewissen
Umständen "ganz" geltgen (der Schnitt dieses Mengensystems ist nicht
leer, wenn seine Kardinalität nicht "zu" groß ist). Durch Benutzung dieses
Kompaktheitsprinzips kann man z.B. beweisen, dass jedes Funktional f auf
l_\infty (selbst ein unbeschränktes) in der Nichtstandard-Analysis in der
Gestalt

f(x) = \sum_{n=1}^h a_n x_n (mit x = (x_n)_n)

(bis auf einen infinitesimal kleinen Fehler) geschreiben werden kann,
wobei h eine (i.a. nicht endliche) hyernatürliche Zahl ist.
Für beschränkte Funktionale kann man zusätzlich erreichen, dass
\sum_{n=1}^h |a_n| gleich der Norm von f ist (bis auf einen infinitesimal
kleinen Fehler): Damit hat man eine "explizite" Formel selbst für die
"schwierigen" beschränkten Funktionale auf l_\infty, die kein klassisches
Analogon in l_1 haben, und diese Formel sieht aus einem abstrakten
Blickwinkel sogar genauso aus wie die Funktionale aus l_1.

> Was passiert mit dem Lebesgueschen Integral bzw dessen logischer Begründung?

Man *kann* die Analysis der Standard-Welt natürlich auch in der
Nichtstandard-Welt benutzen, aber dann verspielt man halt den Vorteil,
den die NSA bietet. Deshalb hätte man gerne eine reine
Nichtstandard-Analysis-Chararakterisierung des Lebesgueschen Integrals,
genauso wie ich es für das Riemann-Integral erwähnt habe.

Da erlebt man in der Nichtandard-Analysis zunächst ein paar Überraschungen,
weil sigma-Additivität viel mit der Menge der Standard-natürlichen
Zahlen zu tun hat, und diese Menge ist in der Robinsonschen Analysis
extern (also keine "Menge" der Nichtstandard-Welt). Insbesondere gibt es
keine sigma-Algebra rein interner Mengen, was zur Folge hat, dass
additive Maße auf Algebren interner Mengen automatisch sigma-additiv sind,
und dann mit dem Caratheodorischen Maßerweiterungssatz auf eine
sigma-Algebra fortgesetzt werden können; diese sigma-Algebra enthält dann
natürlich externe Mengen. Die so erhaltenen Maße nennt man Loeb-Maße,
und mit ihnen erhält man dann eine Nichtstandard-Charakterisierung von
messbaren Mengen. Die Details sind hier leider nichts so direkt wie beim
Riemann-Integral, weshalb ich das nicht als Beispiel benutzt hatte.

Tatsächlich werden die Loeb-Maße aber sehr erfolgreich für Probleme benutzt,
die in der Standard-Analysis schwer greifbar sind, etwa Wiener Prozesse:
Eben weil viele Dinge, die in der Standard-Welt "fast" richtig sind, in
der Nichtstandard-Welt "ganz" richtig sind (also ein zugehöriges "Objekt"
haben, mit dem man "rechnen" kann), werden viele Dinge durchsichtiger und
"greifbarer".

> Mit diesem Konstrukt will man dann Funktionalanalysis betreiben?

Man tut das durchaus erfolgreich. Die sog. Nichtstandard-Hülle
eines Banachraums etwa (ähnlich wie beim Loeb-Maß spielen auch hier
externe Mengen eine Rolle) ist ein sehr hilfreiches Instrument:
Es ist ein Banachraum, der, grob gesprochen, "infinitesimale" Elemente
erhält, die eben eine Menge Dinge erfüllen, die im ursprünglichen
Banachraum nur "fast" gültig sind.

Für einige tiefe Sätze der Funktionalanalysis (etwa zum Problem
invarianter Unterräume) sind zunächst nur Beweise mit NSA-Methoden
gefunden worden.
(Obwohl sich natürlich ”prinzipiell” jeder NSA-Beweis in einen
Standard-Beweis übersetzen lässt, aber dieser ist dann halt sehr
unübersichtlich und benötigt normalerweise das Auswahlaxiom in
essentieller Weise.)

Martin Vaeth

unread,
Jan 18, 2022, 6:13:38 AM1/18/22
to
Martin Vaeth <mar...@mvath.de> wrote:
> Wie erwähnt läuft etwa der Beweis der Substitutionsregel auf einfaches
> Kürzen im Körper der hyperreellen Zahlen hinaus:
>
>>> df dg df
>>> -- -- = --
>>> dg dx dx

Typo: Ich meinte natürlich die *Kettenregel* (für Ableitungen), nicht die
*Substitutionsregel* (für Integrale).

Axel Reichert

unread,
Jan 18, 2022, 7:12:59 AM1/18/22
to
SCNR: Der Ingenieur hat sowieso schon immer ohne viel Aufhebens und
Nachfragen/-denken das "dg" gekuerzt. Sozusagen intuitiv. Flugzeuge
fliegen. (-;

Noch zu Buchempfehlungen: Kennt jemand "Zur Philosophie der Mathematik"
von Alexander George und Daniel J. Velleman?

https://www.amazon.de/Zur-Philosophie-Mathematik-Intuitionismus-Unvollst%C3%A4ndigkeitss%C3%A4tze/dp/3662562367/

Scheint mir etwas neutraler und weiter ausholend als der
Taschner. Kommentare?

Tschoe!

Axel

Martin Vaeth

unread,
Jan 18, 2022, 4:40:27 PM1/18/22
to
Axel Reichert <ma...@axel-reichert.de> schrieb:
> Martin Vaeth <mar...@mvath.de> writes:
>>>
>>>>> df dg df
>>>>> -- -- = --
>>>>> dg dx dx
>>
>> Typo: Ich meinte natürlich die *Kettenregel* (für Ableitungen), nicht die
>> *Substitutionsregel* (für Integrale).
>
> SCNR: Der Ingenieur hat sowieso schon immer ohne viel Aufhebens und
> Nachfragen/-denken das "dg" gekuerzt.

Die Ingenieure haben das von Leibniz, Euler, Cauchy und vielen anderen
gelernt, die genauso argumentiert haben. Deswegen war es eben eine wichtige
Leistung von Robinson, eine mathematische Fundierung für deren Argumentation
zu geben. Dass man dafür das Auswahlaxiom benötigt, hat ein bisschen ein
"Gschmäckle": Hier liegt vielleicht die Leistung der neueren Zugänge zur
Nichtstandard-Analysis, die nur interne Mengen kennt und AC vermeidet
(dann allerdings auch nicht mehr benutzt werden kann, um die Aussagen
über die früher erwähnten "kuriosen" Objekte zu machen).
Insofern kann also auch ein Skeptiker des allgemeinen Auswahlaxioms wie ich
zustimmen, dass dieses Kürzen ohne viel Aufhebens erlaubt ist.

Natürlich hat man wie schon erwähnt auch andere Zugänge gesucht und
gefunden, diesen speziellen einfachen Fall zu rechtfertigen, aber nur
die NSA funktioniert problemlos, wenn es um wesentliche kompliziertere
Argumente aus z.B. Eulers Schriften geht, in denen er auf Infinitesimale
Bezug nimmt. (Wo das mit NSA nicht "glatt" durchgeht, ist meist eine
mehr oder weniger große Beweislücke zu schließen, die das Genie Euler
zwar sicherlich irgendwie gesehen hat, aber nicht niederschreibenswert
befand.)
0 new messages