On 07.05.16 22.20, Andi B. wrote:
> Marcel Mueller schrieb:
> ....
>>
>> Ich hänge hier auf einem eCS 1.05; allerdings durchgepatcht, bis der
>> Arzt kommt. Das sollte sich von der Basis her kaum von Neueren
>> unterscheiden.
> Dann ist eh alles okay. Allerdings ohne ArcaNoae subscription wirst du
> das letzten JFS Paket und ACPI (wenn du es brauchst) nicht haben.
Nutze ich beides nicht mehr, da OS/2 nur noch in VMs existiert. Und da
liegen die Daten auf dem Fileserver. Da ist lediglich noch eine
Systempartition mit ein paar GB lokal. Und die läuft mit dem alten
HPFS386-Treiber wunderbar.
>> Den Update-Wahn hat man unter eCS eigentlich nicht, weil es aufgrund des
>> Verbreitungsgrades keine ausgenutzen Sicherheitlücken gibt. AFAIK sind
> Sicherheitslücken sind nicht das Problem. Aber z.B. wichtige dlls wie
> libc oder gcc1 haben einige fixes erhalten. Sind auch
> rückwärtskompatibel mit forwarder dlls.
Bei gcc und libc ja. Bei allem anderen eher nicht.
Aber die gcc DLLs bekommt man an jeder Ecke, und die habe ich auch alle
drauf. (Hie und da compiliere ich selber mal was mit gcc 4.8.x, da
brauche ich die sowieso.)
>> Jein. Ohne LIBPATHSTRICT geht sowieso die Hälfte nicht /gleichzeitig/
> LIBPATHSTRICT ist in manchen Situationen notwendig. Bei mir wenn ich
> Seamonkey und FF gleichzeitig laufen lassen will weil beide eine xul.dll
> brauchen, aber unterschiedliche.
Exakt. Thunderbird und Kompozer gehören auch noch in die Schublade. Im
Prinzip alle Forks der Mozilla Codebase.
Das sind die Punkte, wo die DLLs keinen Meter Sinn ergeben und nur
Shared Memory kosten. Und XUL.DLL ist nicht klein.
> Ansonsten mache ich einen Bogen um
> LIBPATHSTRICT. Das geht nämlich nicht wirklich gut. Versuche mal
> mehrmals BEGINLIBPATH oder ENDLIBPATH und LIBPATHSTRICT zu verwenden und
? - Hatte noch keine Probleme damit. Aber ich nutze es auch nicht soo
exzessiv. Wobei TB und FF laufen eigentlich immer parallel mit
LIBPATHSTRICT.
> die Kiste steht schneller als ein heutiges Win abstürzen kann :-(
Da wäre ich vorsichtig. Win überrundet OS/2 schon lange in der Uptime,
und zwar mehrfach. Auch wenn man das hier vllt. nicht hören will.
Ich meine, es gibt noch andere Faktoren, die die Uptime beeinflussen. So
überleben z.B. Desktop-Rechner in der Praxis länger als Notebooks. Und
VMs leben wiederum länger als Desktops. Das gilt nach meinen Erfahrungen
erst mal unabhängig vom OS, natürlich skaliert es mit insgesamt mit der
Systemstabilität des jeweiligen OS. Und dadurch trägt es sich sogar zu,
dass ein Win auf dem Notebook ein OS/2 in der VM durchaus überrundet,
was den Klassen-Unterschied mehr als verdeutlicht.
Win ist bei mir aus ganz anderen Gründen raus. Ab XP haben mir die
Lizenzbedingungen für den Privatmann nicht mehr gefallen. Und ab 10
verbietet der Datenschutz den Zugang zum Hausnetz. Da kann von mir aus
kommen, wer will.
> Du
> füllst dir dadurch auch den Speicher mit diversen eventuell
> gleichen/kompatiblen dlls an
Wenn man sie vorher dedupliziert hat, geht es eigentlich.
>> Steht bei mir irgendwo mitten drin. Da haben sich ein paar Installer
>> vorgedrängelt.
> Denen muß man das abgewöhnen. Sprich nicht erlauben bzw. die config.sys
> selbst reparieren wenn der Installer so blöd ist.
Keine Ahnung. Ist schon lange so. War irgendwelches IBM-Zeug. Solange es
funktioniert, spiele ich da nicht gerne dran rum.
>> Dann läuft halt dafür das Zeug, was nicht von Netlabs ist, nicht mehr.
>> ;-)
> Mir ist nicht viel altes Zeug bekannt welches dann Probleme macht. Ja
> manche EMX Programme. Aber ich finde für diese paar alten Sachen, so man
> sie wirklich nutzt, ist es am Besten, diese mit LIBPATHSTRICT zu
> starten. Hängt natürlich davon ab wieviel "altes" Zeug man im Vergleich
> zu "neuem" Zeug laufen lassen will.
Da habe ich ehrlich gesagt keinen Überblick, was da genau mit welchem
Framework compiliert wurde.
> ...
>> Der Sinn der Shared Libs hat sich längst in Luft aufgelöst - im
>> besonderen unter OS/2!
> Nicht bei den portierten Sachen. Und die werden immer mehr und sie sind
> mittlerweile essentiell wenn man noch komplett mit OS/2 arbeiten will.
Dass diese Programme sie verwenden, bedeutet noch lange nicht, dass es
Sinn ergibt, siehe XUL.DLL.
Auf einem 64 Bit System mag das mit den Ressourcen egal sein. Unter OS/2
nicht. Noch dazu, da es noch jede Menge Programme gibt, die auf die 16
Bit Kompatibilität nicht verzichten können, also auf 512MB beschränkt
sind. Eigentlich alles, was mit der WPS interagiert.
>> Vorwiegend statisch gelinkte Programme laufen hingegen nach wie vor.
> Darum ist es unumgänglich, dass die ganzen portierten Sachen wie SM, FF,
> AOO, QT4, Java... die dlls shared verwenden. Anderen Ausweg haben wir
> wegen der Speicherbegrenzungen nicht.
Das Gegenteil ist der Fall! Würden die zumindest ihren eigenen Kram
statisch linken, würde das Fragmentierungsproblem beim Adressraum gar
nicht existieren. In dem Fall würde nämlich jedes Programm beim Start
2GB komplett leeren (privaten) Adressraum sehen. Das tut es so auch, nur
wird er eben nicht für das Programm selbst benutzt, sondern nur für die
Daten. Und der Shared Memory wird mit ständigen Allokationen und
Deallokationen von eigentlich privaten DLLs zu Hackfleisch gemacht.
>> Und last but not least ist auch noch die Wahrscheinlichkeit, dass zwei
>> verschiedene Programme eine DLL auch wirklich in /genau derselben
>> Version/ haben wollen eher gering. Folglich ist auch der Nutzen, die
>> Speicherersparnis, dahin.
> Nun die libc und gcc sind ein schönes Beispiel dafür, dass es eben doch
> funktioniert. Mit der kleinen forwarder dlls z.B. für libc61, läuft ein
> solches Program nun mit der gefixten libc66.
Ja, und das /einzige/ Beispiel auch.
Bleibt nur noch eine Frage im Raum stehen: was stört mich mehr:
- 29k gcc1.dll,
- 1,3MB libcxx.dll oder
- 30 MB xul.dll?
Die Ersparnis selbst durch libc ist gegen letztere vollkommen
vernachlässigbar.
Es gibt genau einen einzigen Punkt, wo die Shared Libraries in dieser
Nutzungsform wirklich helfen: beim Patchen von Sicherheitslöchern. Man
muss einfach nicht jede Anwendung durchkompilieren und aktualisieren,
was in der Praxis sowieso nicht funktioniert. Und der Sicherheitsaspekt
ist unter OS/2 wiederum in der Praxis weitgehend irrelevant.
>> Eher mache ich mir sorgen, dass mit dem ganzen Kram die Systempartition
>> voll läuft.
> Mein %unixroot% und (fast) alle meine Programme sind auf der
> Programmpartition P:. Die Systempartitions (M:, D:, ...) werden damit
> nicht belastet.
Ich habe nur ein kleines Systemvolume Lokal. Der Rest liegt auf dem
Server. Die Anbindung ist zwar gut, aber es gibt einige Programme, die
von dort aufgrund von Bugs oder Work-Arounds in der gcc-Runtime nicht
funktionieren oder zumindest nicht benutzbar sind. Thunderbird z.B.
stürzt nach wenigen Sekunden ab. (Vermutlich ein Samba-Bug.) Als er mit
älteren Samba-Server-Versionen noch lief, war er unbenutzbar langsam.
Bei Netzwerktraces erfolgten exzessiv viele Zugriffe auf immer dieselben
Daten. Auch make-Utilities oder gcc zeigen dieselben vielen
Netzwerk-Zugriffe und sind dann Faktor 5-10 langsamer. Ich gehe daher
von einem Bug in der Runtime aus. Das kam glaube ich mit dem
missglückten Versuch, Unix-Rechte in EAs abzubilden.
Faktisch muss also alles auf die 5GB Systemplatte, wenn es laufen soll.
Nur die Userdaten liegen auf dem Server.
Marcel