On Wednesday, August 3, 2022 at 9:32:29 PM UTC+2, Gus Gassmann wrote:
> On Wednesday, 3 August 2022 at 15:50:37 UTC-3, Fritz Feldhase wrote:
> > On Wednesday, August 3, 2022 at 6:57:19 PM UTC+2, Gus Gassmann wrote:
> >
> > > Generell ACK. Aber heute hat er über dunkle Zahlen folgendes von sich gegeben:
> > >
> > > "Let us call them /numbers which cannot be written down/. They may have other properties of natural numbers." WM, (sci.math, thread: "Natural numbers and vases III")
> > >
> > > Ganz falsch würde ich das nicht nennen...
> > In der Tat. Auch ein blindes Huhn usw.
> >
> > Allerdings würde ich da doch noch "präzisieren" (oder ergänzen) wollen:
> >
> > "Let us call them /numbers which cannot ACTUALLY be written down/. [...]"
> >
> > Denn man kann dem - was man schon gelesen hat - entgegenhalten:
> >
> > "All natural numbers - or rather their names - can 'in principle' be written down. [...]" [Man denke an die Theorie der TM.]
> >
> > Außerdem hängt diese Äußerung auch so noch irgendwie in der Luft (ist also m. E. einigermaßen "unbestimmt"). Daher würde ich folgendes bevorzugen:
> >
> > "Let us call them /numbers which cannot ACTUALLY be written down using the unary numeral system/ ..."
> >
> Selbst das ist noch zu unpräzise.
Du wolltest bestimmt zum Ausdruck bringen, dass das DIR noch zu unpräzise ist.
ZUR ERINNERUNG: Ich hatte oben nicht angekündigt hier eine 100% "präzise" Formulierung zu bringen, sondern lediglich angemerkt:
| Allerdings würde ich da doch noch "präzisieren" (oder ergänzen) wollen: [...]
und das habe ich getan. (Genaues Lesen hilft!)
> Was heisst "cannot ACTUALLY be written down"? Ist das nicht genauso schwammig wie Mucks "definierbar"/"undefinierbar".
Was soll das dumme Gerede? Nein, das ist es nicht. Natürlich kann man noch etwas genauer ausformulieren, was damit gemeint ist. Dennoch gilt (frei nach Frege):
| Alles Erklären muss einmal ein Ende haben.
Heißt, irgendwann muss man halt auch einmal auf das "normale Sprachverständnis" als Grundlage für eine Erklärung rekurrieren. (Bei formalen Definitionen / Definitionenen in formalen Systemen sind das dann eben die _nicht definierten_ Grundbegriffe. Primitive Terms. Aber DARUM geht es hier nicht.)
Ja, was heißt "cannot ACTUALLY be written down"?
Damit will ich sagen, dass es nicht _tatsächlich_ (im Gegensatz zu bloß vorgestellt, ausgedacht, imaginiert, gewünscht, gewollt, etc.) IRGEDNWO, IRGENDWIE HINGESCHRIEBEN (bzw. eingeritzt, graviert, gedruckt, etc.) werden kann - unter Zuhilfenahme eines stofflichen Mediums "als Träger", z. B. eines Blatt Papiers, einer Tontafel, einer Stahl- oder Kupferplatte (was auch immer) - also, z. B. mittels eines Bleistifts auf einem Blatt Papier, oder eben eingeritzt in eine Tontafel, etc.
(Natürlich kann man sich da noch etwas "Größeres" dabei denken: Eine hochentwickelte Zivilisation, die einen ganzen Planeten mit einem "Zahlzeichen" im unären System "versieht", was auch immer...)
> Wenn eine Zahl n tatsächlich [...] im unären System [...] niedergeschrieben werden kann, dann kann ich auch flugs noch ein 'I' anhängen und habe somit S(n) (oder n+1).
Nein, das kannst Du nicht in jedem Fall:
Dir geht NOTWENDIGERWEISE irgendwann einmal (im Verlaufe des von Dir angedeuteten Prozesses) DER verfügbare PLATZ (zum Niederschreiben) aus, so dass Du zwar (gerade noch) das Zahlzeichen für n (im Unären System) hinschreiben kannst (in Form von n Strichen), aber eben KEIN "|" mehr anhängen kannst!
Man denke an Fermat: "Für diese Behauptung habe ich einen wahrhaft wunderbaren Beweis gefunden, aber dieser Rand ist zu schmal, ihn zu fassen."
> > Solche natürlichen Zahlen gibt es zweifelsohne. Niemand kann den Zahlnahmen von 10^10^80 unter Benutzung des unären Zahlensystems TATSÄCHLICH hinschreiben. (Das geht auch schon für bedeutende kleinere Zahlen nicht mehr.)
> >
> > Außerdem muss man das wohl UMDREHEN, also:
> >
> > "Let us call numbers the names of which cannot ACTUALLY be written down using the unary numeral system /dark/."
> >
> > So weit sogut, und natürlich stimmt es: "They may have other properties of natural numbers."
> >
> > Insbesondere haben sie alle ARITHMETISCHEN Eigenschaften der natürlichen Zahlen; und auch im Kontext der MENGENLEHRE; ANALYSIS, etc. etc. spielt es KEINE ROLLE, ob eine natürliche Zahl "dunkel" ist (also unter Benutzung des unären Systems TATSÄCHLICH irgendwo in unserem Universum hingeschrieben werden kann) oder nicht. [Das ist genau so IRRELEVANT wie der Umstand, ob jemand gerade an eine bestimmte Zahl denkt oder nicht.]
> >
> > Kurz: Es gibt bislang keine Sätze in der Mathematik (im engeren Sinne, also im Kontext der Arithmetik, Analysis, Zahlentheore, Mengenlehre, etc. etc.) der Form
> >
> > An e IN: ...n... ,
> >
> > die man auf folgende Weise einschränken müsste/könnte:
> >
> > An e IN(~dark(n) -> ...n...) ,
> >
> > bzw.
> >
> > An e IN(dark(n) -> ...n...) ,
> >
> > da ja noch nicht mal eine Definition des Prädikats "dark()" _in Begriffen der Mathematik (im engeren Sinne)_ vorliegt; also im Kontext der Arithmetik, Analysis, Zahlentheorie, Mengenlehre, etc. etc.
> >
> > Bisher handelt es sich bestenfalls um einen Begriff der "Metamathematik".
> >
> > Fazit:
> >
> > WM hat also entdeckt, dass man den "unären" Zahlnamen einer natürlichen Zahl nicht für jede natürliche Zahl TATSÄCHLICH hinschreiben kann. Eine großartige Einsicht/Erkenntnis! (Vermutlich hat das noch nie jemand vor ihm so klar erkannt!) Lediglich deren TRAGWEITE scheint mir noch nicht so ganz klar zu sein. Muss man jetzt alle Lehrbücher der Mathematk umschreiben?
> >
> Ich kann mir durchaus vorstellen, dass zumindest eines davon dringend bearbeitet werden sollte, aber das werden wir wohl nicht mehr erleben...
Kaum.
> Das gesamte System, das da hinterm See entwickelt wurde :^) läuft doch darauf hinaus, dass es zu jedem Zeitpunkt t eine Menge N_t von Zahlen gibt, die jemals irgendwann irgendjemand schon vor dem Zeitpunkt t benutzt hat. Das ist zweifelsohne eine endliche Menge, hat also zu jedem Zeitpunkt t die Eigenschaften, die man ganz hinterm See so schätzt, ist aber andererseits beweisbar eine echte Teilmenge von IN und ererbt alle Eigenschaften der natürlichen Zahlen. Das ist leider alles so alt und trivial, dass der kleine Muck daraus sicher keine Fields-Medaille herausschlagen könnte, selbst wenn er nicht so weit über der Altersgrenze wäre.
Man merkt doch deutlich die "Nähe" Mückenheims zum "Ultrafinitismus", denke ich. Leider begnügt er sich nicht damit, lediglich diesen Ansatz zu verfolgen (und von mir aus auch zu lehren), sondern meint die ganze restliche Menscheit (oder doch jedenfalls die Mathematiker unter den Menschen) zum einen wahren Glauben bekehren zu müssen. Wobei es sich bei diesem Glaubenssystem leider nicht einfach nur um eine Form des "Ultrafinitismus" handelt, sondern um Mückes höchst eigenes Wahnsystem.
> > [ Neulich hat er auch sehr richtig angemerkt, dass man die rationalen Zahlen nicht "(ab)zählen" könne - wobei Cantor das angeblich versucht habe. Auch hier kann man ihm nur zustimmen (wenn wir einmal von Chuck Norris absehen)! Warum nur hat das bisher noch niemand bemerkt? ]
> Jo. Wobei Chuck Norris auch nur die natürlichen Zahlen (ab)zählte --- selbst wenn er das zweimal tat...
Stimmt. Aber ich denke, dass er das wohl auch leicht hinbekommen würde, wenn man ihn darum bäte. Er könnte das ja ganz leicht nach dem von Cantor angegebenen Schema machen: 1/1; 1/2, 2/1; 1/3, 2/2, 3/1; 1/4, 2/3, 3/2, 4/1 usw. (Wiederholungen schaden dabei ja nicht.)
Mückenheim kann froh sein, dass Chuck Norris sich nicht sonderlich viel aus Mathematik zu machen scheint - anderfalls hätte er viele von Mückenheims Thesen schon lange KONKRET (also in Form einer HANDLUNG) widerlegt!
> > Der Ultrafinitismus mag diebezüglich vielleicht etwas anderer Auffassung sein. Ich beziehe mich hier allerdings nur auf die sog. "klassische Mathematik". (Aber das Gesagte wird wohl auch noch für den "Intuitionismus" und/oder die meisten "konstruktivistische Ansätze" zutreffen, denke ich.)
> Eben.
Gut, dass wir darüber geredet haben.