Am 21.06.21 um 14:00 schrieb Takvorian:
>> 10 Minuten Neuinstallation - sehr witzig? Alleine der Installer läuft
>> schon länger.
>
> Hier 7,5 Minuten vom Beginn des Setups bis zum Erscheinen des Desktops.
Und dann habe ich ein leeres, unbenutzbares System ohne Programme.
Oder meinst Du ein OS-Upgrade?
Und Boot vom USB-Stick hat bei mir noch nie funktioniert. Keine Ahnung
warum.
Es war mir zu viel Arbeit nach den Ursachen zu suchen. Das braucht man
normalerweise nur einmal im Computerleben. Und beim nächsten ist es
sowieso wieder anders.
>> Hast du schon mal mehr als die Standard-Buttons auf dem Desktop eines
>> Betriebssystems genutzt?
>
> Standard-Buttons sind für DAUs und ONUs. Ich automatisiere mir viel mit
> Skripten, um mir das umständliche Geklicke mit Standard-Buttons zu ersparen.
> CMD, Powershell, VBS - und diese Skripte sind sofort in jeder Installation
> funktionsfähig.
Das schon. Wenn man /home übernimmt sind die Benutzereinstellungen
natürlich noch da.
Aber das geht schon damit los, auch wirklich wieder alle benötigten
Programme und Tools zu installieren und sinnlosen oder nervenden Ballast
zu entfernen. Es ist gar nicht so einfach, heraus zu finden, welche der
installierten Programme manuell hinzugefügt wurden und welche man
entfernt hat.
>> Bis man die ganze Kiste wieder so konfiguriert hat, dass sie einem auch
>> wirklich wie gewünscht dient, vergehen oft Monate.
>
> Das wäre dann aber die DAU-Methode. Auch die Konfiguration lässt sich
> weitgehend automatisieren.
Gerade bei der Systemkonfiguration wüsste ich nicht, was man da sinnvoll
automatisieren könnte. Es sind einfach so viele verschiedene Stellen, an
denen (oft Kleinigkeiten) angepasst werden. Ich sichere mir bei
Neuinstallation schon immer /etc damit ich mir da die Rosinen wieder
raus kopieren kann. Aber manche Programme haben ihre Config-Files auch
komplett woanders. VDR z.B. liegt irgendwo unter /var/lib.
Und dann sind da noch die Programme, die man aus irgendeinem Grund
selber kompilieren und installieren musste. Entweder, weil sie im Repo
nicht drin sind oder aber weil dort im wesentlichen die Versionsnummer
stabil ist. Bei ffmpeg habe ich z.B. oft was aktuelleres gebraucht. VDR
eigentlich auch. Für andere Sachen muss man erst externe Repositories
einbinden und üblicherweise auch Schlüssel dazu (Avidemux, Samsung
Druckertreiber). Dann die Fixes für die Mono-Libraries, damit Pinta sich
nicht ständig weghängt.
Powermanagement-Einstellungen sind auch so eine Sache. Alleine um die
Akkus der Notebooks nicht ständig künstlich zu altern brauche ich
Skripte und Systemd-Units, um die auch zum richtigen Zeitpunkt
auszuführen. Die ganze NFS-Konfiguration ist auch nicht nur mit einem
fstab-Eintrag erledigt.
Dann die ganze Security (User, Gruppen, Berechtigungen); dann hosts
und/oder DNS.
Dann PulseAudio-Freigaben, damit die Streams aus den VMs im Keller
funktionieren. Die Caps-Lock Taste entschärfen.
Und natürlich alles, an das ich mich schon lange nicht mehr erinnere,
und was mir dann erst auffällt, wenn irgendetwas nicht wie erwartet
funktioniert.
Vieles lässt sich schon durch Dateien kopieren erreichen, aber alleine
die schiere Menge kostet schon locker einen Tag.
> Ein Tag für Neuinstallation wäre immer noch besser als wochenlange Bastelei
> an einen dilettantisch geklonten System, die zudem noch erfolglos verläuft
> und man letztlich *obendrein* doch noch neu installieren muss.
Es hat bei mir bisher *immer* funktioniert. Selbst wenn ich mal
vergessen habe, die Boot-Konfiguration anzupassen. Und da geht es
vielleicht um eine zusätzliche halbe Stunde, wenn man erst recherchieren
muss, was zu tun ist.
Einen Fall, bei dem ich aufgeben musste gab, es noch nie.
Wenn ich neu installiert habe, dann ganz bewusst, weil es nicht anders
ging, z.B. Distributionswechsel oder Wechsel von 32 auf 64 Bit.
>> Falls man irgendwelche Querulanten-Hardware im System hat, kann man bis
>> zur Behebung der Probleme möglicherweise das System noch nicht einmal
>> benutzen. Wenn beispielsweise die GraKa oder das WLAN nicht will, was
>> unter Linux schon mal vorkommen kann.
>
> Wenn sowas dazu kommt, tritt es auch bei erfolgreichem Klonen auf andere
> Hardware auf.
Ja, bei /anderer/ Hardware natürlich schon. Aber vielleicht ist die
andere Hardware ja nur ein größere SSD. Dann passt das schon.
>> Dagegen ist die Recherche nach einer geeigneten Clone-Methode Pillepalle.
>
> Dabei bleibt es ja nicht. Nach der Tool-Recherche muss ja die Einarbeitung
> in das jeweilige Fool-Tool erfolgen, nach dieser dann die Umsetzung, die
> dann immer scheitert. Ich kenne die vielen Threads mit wochenlanger
> erfolgloser Arbeit.
Naja, Anleitung lesen, dran halten, freuen.
>> Neuinstallation macht man wenn man /muss/, idealerweise nie, wenn das OS
>> etwas taugt; maximal OS-Upgrade.
>
> Neuinstallation macht man für Windows idealerweise bei jedem Upgrade, denn
> bei der schmutzigen Upgrade-Methode entsteht eine Chimäre aus Alt und Neu,
> vielfach problembehaftet.
Selbst Windows hat es mittlerweile einigermaßen in den Griff bekommen.
Das war auch bitter nötig, da sie jetzt ja alle halbe Jahr automatisch
neu installieren.
Das Mantra aus der Win95 Zeit - dem gestehe ich nicht ein mal die
Bezeichnung Betriebssystem zu -, dass man ständig neu installieren soll,
hält sich zwar immer noch, ist aber ziemlich unangebracht.
Aber hier im Thread ging es ja um Linux.
Bei Windows ist der Aufwand noch um einiges höher. Vor allem kann man
nicht einfach das Benutzerverzeichnis in eine neue Installation
übernehmen. Ich sage nur SIDs, SAM und Registry. Das funktioniert
eigentlich nur bei In-Place Upgrades einigermaßen gut.
Wenn man die SID und damit die User-Settings nicht übernehmen kann, dann
muss man jedes einzelne Programm neu konfigurieren. Das ist gefühlt eher
eine Woche Arbeit, die mit exponentiell fallender Aufwandskurve etwa in
den ersten 6 Monaten nach der Installation anfällt. Das ist so richtig
unproduktive Zeit.
>>> Die Kenntnisse, z.B. die Bootkonfiguration
>>> manuell anpassen zu können, sind in der Regel nicht da. Und der Wechsel von
>>> Windows zu Linux oder umgekehrt ist ein Wechsel von Pest zu Cholera. Besser
>>> bei einem System bleiben und dieses gut beherrschen, statt in x Systemen als
>>> DAU zu agieren.
>>
>> Das ist eine andere Tüte.
>
> Die Bootkonfiguration ist beim Übertragen auf andere Hardware einer der
> üblichen Stolpersteine. Wenn z.B. die Disk-Signatur nicht passt, bricht der
> Bootvorgang sofort ab und da der Fool mit seinem Tool ja ein Fool bleibt,
> ist die Sache hiermit gescheitert.
Dual Boot nutze ich nicht mehr, seit VMs existieren.
Single boot ist i.d.R. kein größeres Problem.
Selbst Windows lässt sich per boot.ini eingentlich immer zur Mitarbeit
überreden. Notfalls über die guten alte SCSI-Booteinträge. Treiber ins
Root kopieren und nach NTBOOTDD.SYS umbenennen und dann
scsi(0)rdisk(0)... in die boot.ini eintragen. Das hat mit SCSI nichts zu
tun, es wurde nur dafür geschaffen. Es würde mich wundern, wenn das
nicht auch mit Win10 noch geht.
Ab irgendeiner Version haben sie es aber versemmelt, unabhängig vom
Laufwerksbuchstaben zu starten. Es kommt zwar hoch, aber man kann sich
dann nicht anmelden. Über's Netz geht aber. Da muss man dann in der
Registry die DosDevices flicken und einmal neu starten, dann geht's wieder.
> Wenn ich allerdings sämtliche CMD- Powershell- VBS-Skripte in Linux neu
> erstellen müsste, vielen Dank. Und um mir für Linux die Kenntnisse
> anzueignen, die ich derzeit für Windows habe, bräuchte ich ein zweites
> Leben.
Alleine Powershell kostet schon ein Leben. Wie man zu so einem späten
Zeitpunkt noch so eine kranke Syntax aus der Computer-Steinzeit mit
schlechtester Fehlerüberprüfung neu entwickeln konnte, ist mir bis heute
ein Rätsel. Ich programmiere bestimmt ein Dutzend Programmiersprachen,
aber so etwas krankes kenne ich kaum noch einmal, und wenn dann nur in
uralt. Selbst Perl (von dem sie abgeschrieben haben) ist nicht ganz so
schlimm (allerdings auch gut dabei). Kein Wunder, dass es sich nur
extrem schleppend verbreitet und die (steinalte) CMD Shell noch nicht
annähernd abgelöst hat.
> Die müssen ihre verfügbare Zeit dann eben auf zwei OSe aufteilen, haben dann
> für jedes OS also nur 50% des Wissens, das sie für ein einziges OS hätten.
> Linux ist für mich keine Alternative, ich will möglichst NICHTS davon
> wissen. ;-)
Jedem das seine.
Marcel