Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

TM-Platte: Geboren, Gelebt, Gestorben, Reanimiert

276 views
Skip to first unread message

Başar Alabay

unread,
Aug 20, 2014, 4:59:20 AM8/20/14
to
Hallo,

ich mußte letztens im laufenden Betrieb in einem Mac Pro die Platten in
den Schächten 3 und 4 vertauschen. Also habe ich beide mit diskutil
eject ausgeworfen, rausgezogen und umgetauscht. Eine davon war die TM
Platte … und das System scheint den Tausch nach dem Neuanfahren der
Platten und dem Aktivieren/Mounten nicht ganz geblickt zu haben. Also
mußte ich rebooten, die eine Platte war danach wieder sie selbst, aber
die TM Platte blieb inaktiv. Das Festplattendienstprogramm wies sie als
defekt aus. Eine Reparatur wurde recht schnell als »wurde repariert«
angezeigt, allerdings dauerte es knapp 4 Stunden, bis die 3 TB auch
wirklich durch waren, und (natürlich) hieß es dann, kann nicht repariert
werden. Bin ich ja irgendwie vom FPDP gewöhnt. Also, was tun?

Die letzten Tage habe ich mich eingehend mit fsck_hfs
auseinandergesetzt. Außerdem kann ich jetzt langsam meine Partitionen
alle mit diskxsy direkt ansprechen :-) Auf alle Fälle ist fsck,
respektive fsck_hfs via Terminal ein großer Spaß … und bringt sogar mehr
als via GUI. Da man im Netz alles Mögliche liest, ich aber nirgends mal
einen zu Ende gedachten/gemachten »Thread« samt Conclusio gefunden habe,
poste ich das jetzt hier im (völlisch ürrelewantöm) Usenet. Hahaaa!

Also, gegeben ist eine Platte, deren FS einen ordentlichen Schlag
abbekommen haben könnte. Nach der »Verwechslung« hatte TM versucht, das
Backup zu reindizieren, was die Platte endgültig abschoß. Ich hatte
keine Lust, alle Backups bis 2012 einfach wegzubügeln, also?
Terminalspielchen.

Zuerst einmal ein su admin, um alle sudo absetzen zu können. Ich habe
den Alltagsuser absichtlich aus der sudoers rausgelassen.

Dann ein diskutil list. Da sah man, daß /dev/disk2 besagte Platte und
disk2s2 der Partitionsabschnitt ist, um den es geht.

Es folgte also ein sudo diskutil unmount /dev/disk2s2 … um die Platte
mal aus dem Rennen zu nehmen. Besser gesagt, die Partition.

Nun also eine Reparatur, die über Nacht laufen soll: sudo fsck_hfs -d -f
-r -y -c 2g /dev/rdisk2s2. Statt disk rdisk (raw), -d erzählt, -f
nötigt, -y sagt zu allem ja und amen, -c 2g gibt dem Programm 2 GB RAM
als Spielwiese (es heißt, man solle maximal die Hälfte des verbauten RAM
angeben, ich blieb da drunter), und -r sagt, daß der catalog btree neu
aufgebaut werden soll. Gerade dieses -r scheint via GUI in keiner Weise
erreichbar zu sein. Ich habe zwar die Debug-Zusätze an, aber habe das
nicht gesehen. Nun denn.

Am nächsten Morgen dann tatsächlich die Meldung, daß die Platte wieder
repariert zu sein scheint. Sie ist nun auch wieder normal ansprechbar,
und es sieht auch alles so aus, wie es soll. Aber es gibt noch einen
kleinen Fallstrick. Zuerst einmal habe ich alle unsichtbaren Elemente
sichtbar gemacht, um zu schauen, ob da evtl. ein lost+found angelegt ist
… war nicht. Dann sah ich aber im Konsolenprogramm im system.log, daß da
was zu klemmen scheint. Irgendwas in bezug auf ./fseventsd wollte nicht
sauber … also, noch einmal prüfen :-/ Kein Problem gefunden. Etwas
Netzrecherche und dann beherzt den Ordner gelöscht und neu gebootet.
Danach wurde er neu angelegt und eine neue UUID angelegt. Ob jetzt für
die Platte, Partition oder nur für die FS-Änderungen, die geloggt
werden, weiß ich nun nicht. Jedenfalls waren die Fehler nun endlich weg.

Noch einmal eine Reparatur: sudo fsck_hfs -d -f -y -c 3g /dev/rdisk2s2,
diesmal ohne -r und mit -c 3g. Ging verhältnismäßig flott (also nur
wenige Stunden statt viele). Platte wird als okay gemeldet.

Spotlight auf der Platte aus- und wieder eingeschaltet, allerdings nicht
via Spotlight Privacy-GUI, sondern so: sudo mdutil -i off
/Volumes/Backup und mdutil -i on /Volumes/Backup. Danach dann mit renice
das Indizieren hochgeschraubt (jaja …).

In diesem Fall war das zuerst ein sudo renice -20 -u _spotlight -p 88,
womit alle Prozesse des Users _spotlight und den Prozeß mit der PID 88
(in dem Fall mds) Dampf bekamen. Es waren aber noch einige mdworker, die
nachstarteten … ich habe mir die PID notiert und dann ein sudo renice
-20 -p 4497 4488 4480 4041 3633 (z. B.) nachgesetzt. Danach sah ich in
der Aktivitätsanzeige, in der ich oben via »md« gefiltert hatte, daß
einiges hochfährt. CPU steckte das locker weg (hier, man sollte
natürlich beachten, was man da für eine Kiste vor sich hat, hier ist es
der antike (haha) Mac Pro 1,1).

Irgendwann merkte man, daß wohl das Gröbste durch ist. Nochmal ein
Reboot und dann endlich Time Machine wieder anschalten und gucken, was
passiert … es waren ca. 60 GB zu speichern. Das waren tatsächlich
dedizierte 60 GB Material, das ich kurz vorher neu angelegt hatte, also
nichts Unbekanntes. Aber … seeehr langsam 404 kB, irgendwann mal 500 MB,
laaaangsaaam 1 GB … man bekam schon schlechte Laune und dachte an die
nächste Nachtschicht, aber dann, nach ca. 2 GB machte es plöpp, und der
Rest rutschte durch, wie gewohnt. Blick in system.log, ob es Fehler gibt
… nein. Backup wird geschrieben, alte Backups werden ausgegeizt, alles
wie es sein soll.

Hier noch die Meldungen der ersten Nachtschicht-Reparatur:

admin@xx:/Users/user% sudo fsck_hfs -d -f -r -y -c 2g /dev/rdisk2s2
Password:
journal_replay(/dev/disk2s2) returned 0
** /dev/rdisk2s2
Using cacheBlockSize=32K cacheTotalBlock=65536
cacheSize=2097152K.
Executing fsck_hfs (version diskdev_cmds-540.1~25).
** Checking Journaled HFS Plus volume.
The volume name is Backup
** Checking extents overflow file.
** Checking catalog file.
** Rebuilding catalog B-tree.
hfs_UNswap_BTNode: invalid node height (1)
** Rechecking volume.
** Checking Journaled HFS Plus volume.
The volume name is Backup
** Checking extents overflow file.
** Checking catalog file.
** Checking multi-linked files.
** Checking catalog hierarchy.
** Checking extended attributes file.
** Checking multi-linked directories.
privdir_valence=280237, calc_dirlinks=943840,
calc_dirinode=280237
** Checking volume bitmap.
** Checking volume information.
Invalid volume file count
(It should be 26032240 instead of 26313069)
Invalid volume directory count
(It should be 2269030 instead of 2394142)
Invalid volume free block count
(It should be 115518578 instead of 132294333)
invalid VHB nextCatalogID
Volume header needs minor repair
(2, 0)
Verify Status: VIStat = 0x8000, ABTStat = 0x0000 EBTStat = 0x0000
CBTStat = 0x0000 CatStat = 0x00000000
** Repairing volume.
** Rechecking volume.
** Checking Journaled HFS Plus volume.
The volume name is Backup
** Checking extents overflow file.
** Checking catalog file.
** Checking multi-linked files.
** Checking catalog hierarchy.
** Checking extended attributes file.
** Checking multi-linked directories.
privdir_valence=280237, calc_dirlinks=943840,
calc_dirinode=280237
** Checking volume bitmap.
** Checking volume information.
** The volume Backup was repaired successfully.

Es folgten ja noch weitere Reparaturen, siehe oben.

Und nun, nach zwei Tagen: Klippen scheinen umschifft zu sein.

Ergänzende und korrigierende Kommentare könnten das hier für’s Archiv
wertvoll machen. Ich hoffe, ich habe nichts vergessen. Daß da natürlich
ganz viel man xyz im Terminal nötig war, setze ich voraus.

B. Alabay

--
http://www.thetrial.de/
ケディエ・ばく・ハヤテ・あんら

Patrick Kormann

unread,
Aug 20, 2014, 7:24:13 AM8/20/14
to
Am 20.08.14 10:59, schrieb Başar Alabay:

> eject ausgeworfen, rausgezogen und umgetauscht. Eine davon war die TM
> Platte … und das System scheint den Tausch nach dem Neuanfahren der
> Platten und dem Aktivieren/Mounten nicht ganz geblickt zu haben. Also

Eh, sind die Slots in irgend einer Weise Hot-Plug fähig? Nein, oder?

Ansonsten würde ich persönlich ein Backup, das so kaputt war als
Not-Backup auf die Seite legen und ein neues Anfangen. Ein Backup sollte
kein Glücksspiel sein.



Başar Alabay

unread,
Aug 20, 2014, 8:39:26 AM8/20/14
to
Patrick Kormann schrieb:

>> eject ausgeworfen, rausgezogen und umgetauscht. Eine davon war die TM
>> Platte … und das System scheint den Tausch nach dem Neuanfahren der
>> Platten und dem Aktivieren/Mounten nicht ganz geblickt zu haben. Also
>
> Eh, sind die Slots in irgend einer Weise Hot-Plug fähig? Nein, oder?

Öhm, so weit ich weiß, schon?

> Ansonsten würde ich persönlich ein Backup, das so kaputt war als
> Not-Backup auf die Seite legen und ein neues Anfangen. Ein Backup sollte
> kein Glücksspiel sein.

Ich kann momentan kein neues anfangen :-/ Ich kann nur hoffen, daß nicht
in nächster Zeit ein Fullrestore nötig wird. Wobei es dafür auch drei
Retrospect-Backup-Platten gibt. Dieses TM-Backup ist in erster Linie zum
einzelne Daten aus der Vergangenheit heraussuchen.

Und ich hoffe, daß es nicht »so« kaputt war.

Thomas Kaiser

unread,
Aug 20, 2014, 9:13:40 AM8/20/14
to
Patrick Kormann schrieb in <news:n3decb-...@news.sirdir.ch>
> Am 20.08.14 10:59, schrieb Başar Alabay:
>> eject ausgeworfen, rausgezogen und umgetauscht. Eine davon war die TM
>> Platte … und das System scheint den Tausch nach dem Neuanfahren der
>> Platten und dem Aktivieren/Mounten nicht ganz geblickt zu haben. Also
>
> Eh, sind die Slots in irgend einer Weise Hot-Plug fähig? Nein, oder?

Exakt, weder OS X kann's, noch sind die physischen Voraussetzungen
gegeben (Pins 4 und 12 sind nicht länger ausgeführt, kein Abfangen
Elektrik-Geschissel beim Hot-Plugging). Die einzigen Appleschen Hot-
Plug-Dinger waren die späten xServes mit OS X Server in früheren
Versionen.

> Ansonsten würde ich persönlich ein Backup, das so kaputt war als
> Not-Backup auf die Seite legen und ein neues Anfangen. Ein Backup
> sollte kein Glücksspiel sein.

Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien, die
idealerweise physisch getrennt vom zu sichernden System verwahrt werden
(und keinesfalls _im System_ untergebracht sind) und verwechselt Backup
dann auch nicht mehr mit Pseudo-Archivierung.

Angesichts der Nicht-Robustheit von HFS+, dem Directory-Hard-Link-
Zirkus, den Apple veranstaltet und der nur rudimentären Prüf- und
Reparaturmöglichkeiten (man kann ja nur fsck iterativ aufs Filesystem
loslassen, bis es endlich "Filesystem OK" meldet oder falls man evtl.
einer der 10 Leute auf dem Planeten ist, die sich mit den HFS+-Interna
wirklich auskennen, mittels hfsleuth [1] oder fileXray [2] reparieren)
würd ich sogar noch weitergehen und ein TM-Dateisystem, bei dem eine
normale Prüfung im Festplatten Dienstprogramm nicht "ok" meldet, in die
Tonne treten, SMART-Werte prüfen (mit egal was außer TechTool Pro) und
falls OK Dateisystem neu anlegen. Ist ja kein Schaden, denn auf dem
zweiten (rotierenden) TM-Medium befindet sich ja ebenfalls noch eine
aktuelle Sicherung, die hoffentlich ausreichend lang zurückreicht.

Gruss,

Thomas

[1] http://www.newosxbook.com/index.php?page=downloads
[2] http://osxbook.com/blog/2011/04/17/filexray-vs-hfsdebug/

Markus Elsken

unread,
Aug 20, 2014, 9:40:54 AM8/20/14
to
Moin!

Am 20.08.14 um 15:13 schrieb Thomas Kaiser:
> SMART-Werte prüfen (mit egal was außer TechTool Pro)

Was hast Du gegen TTP? Im Gegensatz zu den Systemtools (SMART: OK bis
ca. 10 Sekunden vor Exitus der Platte) zeigt das die einzelnen Werte
schön detailliert an. Hier habe ich schon öfter Platten getauscht, wo
einzelne Werte im orangenen/roten Bereich waren und diese dann
anschliessend in nicht kritischen Bereichen weiter verwendet. Worauf
diese dann auch kurze Zeit später recht zuverlässig verschieden.

mfg Markus

Thomas Kaiser

unread,
Aug 20, 2014, 9:57:27 AM8/20/14
to
Markus Elsken schrieb in <news:c5jmr7...@mid.individual.net>
> Am 20.08.14 um 15:13 schrieb Thomas Kaiser:
>> SMART-Werte prüfen (mit egal was außer TechTool Pro)
>
> Was hast Du gegen TTP? Im Gegensatz zu den Systemtools (SMART: OK bis
> ca. 10 Sekunden vor Exitus der Platte)

Das, was im Festplatten Dienstprogramm angezeigt (und per diskutil
ermittelt) wird, ist in der Tat nahezu witzlos. Und da nicht klar ist,
bei welchen Platten sich diskutil welcher SMART-Parameter bedient, um
eine Warnung bzgl. baldigem Ableben zu generieren, kann man sich das
leider wirklich sparen. Eine _regelmäßige_ Auswertung von SMART-
Parametern kann aber sehr wohl hilfreich. Man braucht dafür aber die
passenden Werkzeuge also weder Apples Bordmittel noch TechTool Pro.

> zeigt das die einzelnen Werte schön detailliert an.

"Schön detailliert", schön bunt und... schön falsch. Und damit hat es
die Aufgabe eines GUI verfehlt, denn es schert offensichtlich alles an
Platten über einen Kamm, interpretiert manche Werte daher genau falsch
herum (dann ist was in TechTool rot angezeigt, obwohl's in Wirklichkeit
tiefgrün wäre) und differenziert noch nicht mal zwischen HDDs und SSDs.
Such nach "GMR Head Amplitude" in diesem Thread hier

http://www.mactechnews.de/forum/discussion/Ultrasimpel-GUI-fuer-smartctl-317418.html

und lies Dir ggf. den in dem Beitrag verlinkten durch, dann weißt Du,
was ich meine. TechTool Pro ist an der Stelle bunt und graphisch... und
leider nutzlos, da SMART-Parameter teils falsch interpretierend und
teils sogar schon mit völlig falschen Parametern listend. GUI-Tools,
die's besser machen sind in besagtem Thread alle gelistet, mein Favorit
wäre DriveDx. Das setzt zwar noch auf smartmontools 6.2 auf [1]. Aber
selbst das ließe sich simpel beheben. Einfach das smartctl-Binary aus
meiner k-smart.app rausziehen und im Application Bundle von DriveDx
ersetzen.

k-smart 1.6 basiert auf smartmontools 6.3 und liegt hier:

http://kaiser-edv.de/downloads/k-smart.zip
MD5-Sum: bb6bd2e5535ba82f58bcdc3cbae5b4d0)

Gruss,

Thomas

[1] http://www.smartmontools.org -- das ist quasi "die Referenz" und
praktisch alle seriösen SMART-Tools am Mac setzen folgerichtig auch
darauf auf (Ausnahme: TechTool Pro)

Fritz

unread,
Aug 20, 2014, 12:07:29 PM8/20/14
to
Am 20.08.14 um 10:59 schrieb Başar Alabay:
> Es folgten ja noch weitere Reparaturen, siehe oben.
>
> Und nun, nach zwei Tagen: Klippen scheinen umschifft zu sein.
>
> Ergänzende und korrigierende Kommentare könnten das hier für’s Archiv
> wertvoll machen. Ich hoffe, ich habe nichts vergessen. Daß da natürlich
> ganz viel man xyz im Terminal nötig war, setze ich voraus.

Danke für diesen Tip, bei mir ist eine Festplatte infolge eines
schleichenden Fehlers des Festplattenkabels (das Kabel wurde
mittlerweile getauscht) vom Mac her nicht zugänglich, die Platte lässt
sich am Mac nicht mounten und steckt nun in einem USB Gehäuse.

Bloß über Linux (läuft am Mac in VMware Fusion) und mit einem
Datenrecovery Tool sind die Daten lesbar.

Das kann ich ja mal drüber laufen lassen:
sudo fsck_hfs -d -f -r -y -c 2g /dev/rdisk2s2. Statt disk rdisk (raw),
-d erzählt, -f nötigt, -y sagt zu allem ja und amen, -c 2g gibt dem
Programm 2 GB RAM

--
Fritz

Patrick Kormann

unread,
Aug 20, 2014, 12:03:11 PM8/20/14
to
Am 20.08.14 15:13, schrieb Thomas Kaiser:

> Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien, die
> idealerweise physisch getrennt vom zu sichernden System verwahrt werden
> (und keinesfalls _im System_ untergebracht sind) und verwechselt Backup
> dann auch nicht mehr mit Pseudo-Archivierung.

Ja, sicher sollte es so sein, ich ging aber davon aus, dass das hier
nicht der Fall ist. Darum sollte man immer versuchen den Schaden zu
minimieren...
Ich mache es auch nicht ideal (wobei ich auf den Rechnern selbst eh
wenig wirklich wichtiges habe). Ich sichere auf ein FreeNAS, das
stündlich Snapshots macht und (bisher täglich, jetzt auch stündlich) auf
ein anderes FreeNAS rsynct. Dort gibt's ebenfalls stündlich Snapshots.
Für den Privatgebraucht reicht es hoffentlich.

> Angesichts der Nicht-Robustheit von HFS+, dem Directory-Hard-Link-

Ja, Apple würde auch besser darauf zurück kommen statt die Oberfläche zu
verhunzen.


Fritz

unread,
Aug 20, 2014, 12:12:53 PM8/20/14
to
Am 20.08.14 um 15:57 schrieb Thomas Kaiser:
> http://www.mactechnews.de/forum/discussion/Ultrasimpel-GUI-fuer-smartctl-317418.html
>
> und lies Dir ggf. den in dem Beitrag verlinkten durch, dann weiᅵt Du,
> was ich meine. TechTool Pro ist an der Stelle bunt und graphisch... und
> leider nutzlos, da SMART-Parameter teils falsch interpretierend und
> teils sogar schon mit vᅵllig falschen Parametern listend. GUI-Tools,
> die's besser machen sind in besagtem Thread alle gelistet, mein Favorit
> wᅵre DriveDx. Das setzt zwar noch auf smartmontools 6.2 auf [1]. Aber
> selbst das lieᅵe sich simpel beheben. Einfach das smartctl-Binary aus
> meiner k-smart.app rausziehen und im Application Bundle von DriveDx
> ersetzen.

Ich nutze den SMARTReporter


--
Fritz

Fritz

unread,
Aug 20, 2014, 12:14:44 PM8/20/14
to
Am 20.08.14 um 15:13 schrieb Thomas Kaiser:
> Angesichts der Nicht-Robustheit von HFS+,

Da wᅵre Apple mal dran das zu ersetzen, zu verbessern.

Selbst NTFS scheint mir, meiner Erfahrung, robuster und besser reparierbar.

--
Fritz

Başar Alabay

unread,
Aug 20, 2014, 12:19:47 PM8/20/14
to
Patrick Kormann schrieb:

>> Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien, die
>> idealerweise physisch getrennt vom zu sichernden System verwahrt werden
>> (und keinesfalls _im System_ untergebracht sind) und verwechselt Backup
>> dann auch nicht mehr mit Pseudo-Archivierung.
>
> Ja, sicher sollte es so sein, ich ging aber davon aus, dass das hier
> nicht der Fall ist. Darum sollte man immer versuchen den Schaden zu
> minimieren...

Dann hast Du wohl überlesen, daß ich ganz artig rotierende, externe
Backups habe, die nicht mit TM zu tun haben. Ey, nicht so selektiv wie
der Kaiser bitte, gell?

> Ich mache es auch nicht ideal (wobei ich auf den Rechnern selbst eh
> wenig wirklich wichtiges habe). Ich sichere auf ein FreeNAS, das
> stündlich Snapshots macht und (bisher täglich, jetzt auch stündlich) auf
> ein anderes FreeNAS rsynct. Dort gibt's ebenfalls stündlich Snapshots.
> Für den Privatgebraucht reicht es hoffentlich.

Das Wichtigste habe ich sogar noch auf Tonbändern, Cassetten und CDs :-)

Başar Alabay

unread,
Aug 20, 2014, 12:25:15 PM8/20/14
to
Fritz schrieb:

[Snip Megatofu]

> Danke für diesen Tip, bei mir ist eine Festplatte infolge eines
> schleichenden Fehlers des Festplattenkabels (das Kabel wurde
> mittlerweile getauscht) vom Mac her nicht zugänglich, die Platte lässt
> sich am Mac nicht mounten und steckt nun in einem USB Gehäuse.

Nicht mounten. Aber als Platte wird sie erkannt? Dann könntest/solltest
Du das da unten 8in angepaßter Form) wohl eher unter OSX denn Linux auf
die ungemountete Platte loslassen.

> Bloß über Linux (läuft am Mac in VMware Fusion) und mit einem
> Datenrecovery Tool sind die Daten lesbar.
>
> Das kann ich ja mal drüber laufen lassen:
> sudo fsck_hfs -d -f -r -y -c 2g /dev/rdisk2s2. Statt disk rdisk (raw),
> -d erzählt, -f nötigt, -y sagt zu allem ja und amen, -c 2g gibt dem
> Programm 2 GB RAM

Unter OSX! Und … zuerst einmal schauen, wie Deine partition heißt.
disk2s2 und rdisk2s2 sind MEINE Namen. Deine könnten ganz anders lauten,
disk1s3, disk2s13 (wenn noch aus OS 9 Zeiten), etc. Das solltest Du
schon noch irgendwie in Erfahrung bringen. Mit hdiutil list z. B. Und -c
2g ist HIER sinnvoll gewesen (und auch mal mit -c 3g gelaufen). Wenn Du
nur 4 GB RAM hast, solltest Du evtl. nur 1g oder 2g nutzen … wenn sonst
nix auf der Kiste läuft. Etc. Also bitte nicht blind rdisk2s2 mit -r
beglücken … das könnte *ziemlich* (!) wehtun.

Fritz

unread,
Aug 20, 2014, 1:59:25 PM8/20/14
to
Am 20.08.14 um 18:25 schrieb Başar Alabay:
> Fritz schrieb:
>
> [Snip Megatofu]
>
>> Danke für diesen Tip, bei mir ist eine Festplatte infolge eines
>> schleichenden Fehlers des Festplattenkabels (das Kabel wurde
>> mittlerweile getauscht) vom Mac her nicht zugänglich, die Platte lässt
>> sich am Mac nicht mounten und steckt nun in einem USB Gehäuse.
>
> Nicht mounten. Aber als Platte wird sie erkannt? Dann könntest/solltest
> Du das da unten 8in angepaßter Form) wohl eher unter OSX denn Linux auf
> die ungemountete Platte loslassen.

Hatte es eh nicht unter Linux vor, seltsam ist schon, dass Linux den
Inhalt der Partition lesen kann - habe die HFS+ Treiber und Tools
installiert. Lesen geht zwar nur mit Root Rechten, aber immerhin.

>> Bloß über Linux (läuft am Mac in VMware Fusion) und mit einem
>> Datenrecovery Tool sind die Daten lesbar.
>>
>> Das kann ich ja mal drüber laufen lassen:
>> sudo fsck_hfs -d -f -r -y -c 2g /dev/rdisk2s2. Statt disk rdisk (raw),
>> -d erzählt, -f nötigt, -y sagt zu allem ja und amen, -c 2g gibt dem
>> Programm 2 GB RAM
>
> Unter OSX! Und … zuerst einmal schauen, wie Deine partition heißt.
> disk2s2 und rdisk2s2 sind MEINE Namen. Deine könnten ganz anders lauten,
> disk1s3, disk2s13 (wenn noch aus OS 9 Zeiten), etc. Das solltest Du
> schon noch irgendwie in Erfahrung bringen. Mit hdiutil list z. B. Und -c
> 2g ist HIER sinnvoll gewesen (und auch mal mit -c 3g gelaufen). Wenn Du
> nur 4 GB RAM hast, solltest Du evtl. nur 1g oder 2g nutzen … wenn sonst
> nix auf der Kiste läuft. Etc. Also bitte nicht blind rdisk2s2 mit -r
> beglücken … das könnte *ziemlich* (!) wehtun.

Dass ich die Disk Namen anpassen muss, ist mir schon klar. Im
Festplattendienstprogramm wird die Platte zwar sichtbar, die angelegte
Partition lässt sich aber nicht mounten. Ich hatte für die
Wiederherstellung zwar zwei TM Backups (getrennt auf zwei ext. HDs) -
trotzdem würde mich der Inhalt der Originalen Platte interessieren und
alleine schon wieder eine harte Nuss geknackt zu haben.

Nach der Reparatur kaufte ich mir eine andere 1TB 2.5" Festplatte. Eine
SSD wollte ich in meinen älteren Mac nicht mehr einbauen. Die
Performance reicht mir allemal.

--
Fritz

Thomas Kaiser

unread,
Aug 20, 2014, 2:02:34 PM8/20/14
to
Fritz schrieb in <news:53F4C905...@uta.fritz-fqdn.dd-dns.de>
>> [...]
>> GUI-Tools, die's besser machen sind in besagtem Thread alle gelistet,
>> mein Favorit wäre DriveDx. Das setzt zwar noch auf smartmontools 6.2
>> auf [1]. Aber selbst das ließe sich simpel beheben. Einfach das
>> smartctl-Binary aus meiner k-smart.app rausziehen und im Application
>> Bundle von DriveDx ersetzen.
>
> Ich nutze den SMARTReporter

Der bringt halt eine uralte smartctl-Version mit (6.1), was insbesondere
bzgl. unterstützter Platten-/SSD-Typen doof ist.

Version 6.1 meint bzgl. "-P showall":
drivedb.h 3797 2013-03-14 17:52:59Z
Total number of entries : 537

Die aktuelle 6.3, wie sie in meiner k-smart.app steckt:
drivedb.h 3974 2014-07-25 18:54:47Z
Total number of entries : 577

Und ein "Entry" entspricht ggf. 'zig Modellen, weil sich die Platten-
/SSD-Modelle gewisser Laufwerksfamilien bzgl. SMART-Ausgaben nicht
unterscheiden und zu "Einträgen" anhand Regular Expressions zusammen-
gefaßt werden.

Und das ist insofern doof, weil Dein SMARTReporter alles an Platten/
SSDs, die in den letzten 1,5 Jahren rausgekommen sind, mit Sicherheit
nicht kennt und demzufolge auch keinerlei Chance hat, alle Parameter
richtig zu interpretieren. Das ist ja leider die Crux an SMART: Bei
vielen Parametern kocht jeder Hersteller sein eigenes Süppchen und hohe
Werte bei identischen Parametern bedeuten bspw. bei Seagate gar nix, bei
Samsung hingegen Alarm.

Aktuelle Platten/SSDs und veraltete SMART-Tools zu kombinieren ist
in Grenzen sinnfrei bzw. führt automatisch zu Fehlinterpretationen.

Prinzipiell kochen die ja alle nur mit Wasser und legen einfach ein
smartctl-Binary in ihr Application Bundle, dessen Ausgabe sie dann
parsen.

Demzufolge kann man das auch einfach so austauschen (bspw. gegen das
6.3er aus meinem k-smart). Der eventuell vorhandenen Mehrwert solcher
meist kostenpflichtiger SMART-GUIs bestünde aber eigentlich drin, dass
sie die nackte Ausgabe von smartctl (siehe http://pastebin.com/DAWpGMD6
bspw.) *sinnvoll* interpretieren, d.h. dem *G* in GUI auch einen Sinn
geben, indem sie modellspezifisch SMART-Parameter prüfen und dann
visuell hervorheben (gerne auch in "bunt").

Wie man's nicht machen sollte, zeigt Micromat, deren TechTool Pro eh
ziemlich wenig bzgl. Platten und vor allem SSDs drauf hat ("surface
scan" für SSDs anbieten -- zum Todlachen, wenn's nicht so peinlich
wäre). Die interpretieren schon manche SMART-Parameter an sich falsch
und haben dann nur ein allgemeines Regelwerk drauf, das gewisse Werte
als kritisch und andere als unkritisch meldet, obwohl das ohne modell-
spezifische Differenzierung schlicht nur Anwender-Verarsche ist (ist ja
auch ein Tool für ambitionierte Laien und keine "Pros"). BTW: Laut
Micromat geht auch SMART in externen Gehäusen nicht:

NOTE: SMART is only available for ATA or SATA drives. SCSI drives do
not support SMART. FireWire and USB drive interfaces do not pass the
SMART calls necessary to per- form the SMART test routines even
though the drive in the housing may be an ATA drive.

Tja, zum Glück weiß da meine SSD nix davon, die in einem externen USB3-
Gehäuse steckt (Icy Box IB-250StU3+BH15, kann UASP, kann Dank ASM-Chip
auch SAT <http://de.wikipedia.org/wiki/SCSI/ATA_Translation> und damit
auch SMART im externen Gehäuse mit der aktuellsten SATSMART-kext [1].
Gehäuse kostet dafür aber fast nix [2]):

http://pastebin.com/pS9FtTjZ

Gruss,

Thomas

[1] https://github.com/RJVB/OS-X-SAT-SMART-Driver
[2] http://geizhals.at/de/raidsonic-icy-box-ib-250stu3-bh15-schwarz-20315-a992312.html

Fritz

unread,
Aug 20, 2014, 2:02:41 PM8/20/14
to
Am 20.08.14 um 18:03 schrieb Patrick Kormann:
> Ich sichere auf ein FreeNAS, das
> stᅵndlich Snapshots macht und (bisher tᅵglich, jetzt auch stᅵndlich) auf
> ein anderes FreeNAS rsynct.

Welches FreeNAS verwendest du konkret? Welche HW, welche HDs, RAID?

--
Fritz

Thomas Kaiser

unread,
Aug 20, 2014, 2:06:56 PM8/20/14
to
Patrick Kormann schrieb in <news:oetecb-...@news.sirdir.ch>
> Am 20.08.14 15:13, schrieb Thomas Kaiser:
>> Angesichts der Nicht-Robustheit von HFS+, dem Directory-Hard-Link-
>
> Ja, Apple würde auch besser darauf zurück kommen statt die Oberfläche
> zu verhunzen.

Da wird nichts mehr passieren, die sitzen das Thema einfach aus, denn
auf Client-Geräten (Desktop, Mobile, Wearable und wohin die Reise sonst
noch so geht), wird das FS eh früher oder später verschwinden.

Und die Anforderungen an Cloud- bzw. Datacenter-FS sind eh gänzlich
andere.

Gruss,

Thomas

Thomas Kaiser

unread,
Aug 20, 2014, 2:35:33 PM8/20/14
to
Fritz schrieb in <news:53F4E1FD...@uta.fritz-fqdn.dd-dns.de>
> Hatte es eh nicht unter Linux vor, seltsam ist schon, dass Linux den
> Inhalt der Partition lesen kann - habe die HFS+ Treiber und Tools
> installiert. Lesen geht zwar nur mit Root Rechten, aber immerhin.

Da wäre ich mal extrem vorsichtig bzgl. der Aussage. Apple hat neue
Features an HFS+ immer schön abwärtskompatibel drangepappt, d.h. wenn Du
an eine HFS+-Implementierung gelangst, die mit den ganzen Neuerungen nix
anfangen kann (wovon ich bei den meisten Sachen unter Linux mal ausgehen
würde), dann zeigt die Dir zwar irgendwas an -- das hat aber nicht
unbedingt immer was mit Deinen Daten zu tun, siehe bspw.

https://groups.google.com/d/msg/de.comp.sys.mac.misc/yUup3l3kEhI/dMLMBTDitI0J

> Im Festplattendienstprogramm wird die Platte zwar sichtbar, die
> angelegte Partition lässt sich aber nicht mounten.

Rausfinden, welche Partition das ist per "diskutil list", dann
rausfinden, ob das ein CoreStorage-Device ist (taucht dann doppelt auf
und dann für jeden Eintrag ein "/usr/sbin/diskutil corestorage info "
gefolgt von der Partitionsbezeichnung oder simpel "/usr/sbin/diskutil
coreStorage list"). Und dann auf die richtige Partition ein "diskutil
info" und ein "diskutil verifyVolume" loslassen. Letzteres sollte
Klartext ausspucken, was schiefläuft.

Eine Notwendigkeit, direkt an fsck_hfs hinzulangen, ist eigentlich nur
dann -- wie wohl im Fall des OP -- "nötig", wenn man herumspielt und
TimeMachine-Backups reparieren will (was generell nicht die beste Idee
ist). Bedingt durch die Hardlink-Chose sind nämlich gerade auf vollen
TM-Disks häßlich viele Objekte und dann und nur dann muß man mittels
"-c" mehr RAM alloziieren lassen. Ansonsten führen die diskutil-Aufrufe
immer automatisch zu den passenden fsck_hfs-Aufrufen nebst Drumherum-
Gedöns wie dass die Platten vorher sauber ausgeworfen werden und anschl.
wieder gemountet, etc.

> Eine SSD wollte ich in meinen älteren Mac nicht mehr einbauen. Die
> Performance reicht mir allemal.

Derweil gibt es keinen krasseren Jungbrunnen für ältere Macs. Und das
oft vorgetragene Argument "Lohnt nicht, weil die Kiste hat nur SATA I
und damit werden aktuelle SSDs ja doch ausgebremst", ist Quatsch, weil's
bei "SSD als Systemlaufwerk" nahezu nur auf Random I/O ankommt und da
verseilt 'ne SSD halt jede HD gnadenlos egal wie "wenig" Durchsatz über
SATA hergeht oder nicht.

Gruss,

Thomas

Gerald E:scher

unread,
Aug 20, 2014, 6:57:32 PM8/20/14
to
Thomas Kaiser schrieb am 20/8/2014 15:57:
>
> k-smart 1.6 basiert auf smartmontools 6.3 und liegt hier:
>
> http://kaiser-edv.de/downloads/k-smart.zip

Das macht aber nichts anderes als ein paar
$ smartctl -a diskx
?

Auf https://github.com/kasbert/OS-X-SAT-SMART-Driver gibt es �brigens
eine Kernel-Extension, mit der sich auch die SMART-Werte von USB- und
Firewireplatten abfragen lassen (sofern von der jeweiligen Bridge
unterst�tzt).

--
Gerald

Patrick Kormann

unread,
Aug 20, 2014, 7:23:15 PM8/20/14
to
Am 20.08.14 18:19, schrieb Başar Alabay:

> Dann hast Du wohl überlesen, daß ich ganz artig rotierende, externe
> Backups habe, die nicht mit TM zu tun haben. Ey, nicht so selektiv wie
> der Kaiser bitte, gell?

Aber erst in deiner Antwort auf mein Posting, oder?

> Das Wichtigste habe ich sogar noch auf Tonbändern, Cassetten und CDs :-)

Naja, dann hab ich das Wichtigste in der Cloud ;)


Patrick Kormann

unread,
Aug 20, 2014, 7:31:32 PM8/20/14
to
Am 20.08.14 20:02, schrieb Fritz:

> Welches FreeNAS verwendest du konkret? Welche HW, welche HDs, RAID?

Die jeweils Neuste. HW ist ein Eigenbau i3, Gigabyte GA-H77-DS3, mit 32
GB RAM und einem 4-Fach Plattteneinschub (ginge natᅵrlich auch ohne,
dann wᅵre aber das Plattenwechseln komplizierter). Platten sind WD REDs
(3 TB, IIRC). Redundanz ᅵberlass ich FreeNAS.
Ursprᅵnglich hatte ich dafᅵr nen HP Microserver (N55 oder sowas? Weiss
nicht mehr), dreckbillig, weit unter 200ᅵ, aber das war mir dann doch a)
zu wenig perfomrant und vor allem b) der Speicher nicht genug erweiterbar.

Das zweite FreeNAS ist eigentlich nur Virtuell (VMWare vSphere), aber
immerhin auch mit Redundanz.

Was das rsyncen angeht habe ich ᅵbrigens gelogen. Die TimeMachine
Backups rsynce ich gar nicht, die sind mir dafᅵr nicht wichtig genug.
Per rsync gespiegelt werden nur die 'wichtigen' Daten, die ich sowieso
auf dem Server habe und nicht auf den einzelnen Rechnern.

Thomas Kaiser

unread,
Aug 21, 2014, 2:01:52 AM8/21/14
to
Gerald E:scher schrieb am 20.08.2014 in <news:20140820225734...@ID-37099.user.uni-berlin.de>
> Thomas Kaiser schrieb am 20/8/2014 15:57:
>>
>> k-smart 1.6 basiert auf smartmontools 6.3 und liegt hier:
>>
>> http://kaiser-edv.de/downloads/k-smart.zip
>
> Das macht aber nichts anderes als ein paar
> $ smartctl -a diskx
> ?

Bisschen mehr, unter anderem erzeugt es ein Shell-Alias zu dem im
Application Bundle enthaltenen smartctl-Binary, enthält eben genau
jenes, so dass man kein Xcode/Homebrew/MacPorts braucht, kann mit
gedrückten Modifier-Keys auch Selbsttests absetzen lassen und filtert
die Volumeliste inzwischen korrekt (CoreStorage also verschlüsselte
Volumes oder Fusion-Drives tauchen nämlich sonst doppelt auf). Ist
letztlich nur ein Application Wrapper mit 2 Binaries an Bord um ein
simples Skript:

http://pastebin.com/3syQqF1Y

Der einzige Sinn und Zweck ist, das klitzekleine Tool Usern mit
Kommandozeilen-Aversion zuschubsen zu können, die mit defekten
SMART-Tools (z.B. TechTool Pro) oder welchen hantieren, die durch ihr
GUI Werte verfälschen (weil falsch interpretierend) oder unterschlagen
(weil "one size fits it all"-Ansatz verfolgend). Auch warnt k-smart
inkl. HTTP-Link wenn Platten/SSDs veraltete Firmwares haben.

> Auf https://github.com/kasbert/OS-X-SAT-SMART-Driver gibt es übrigens
> eine Kernel-Extension, mit der sich auch die SMART-Werte von USB- und
> Firewireplatten abfragen lassen (sofern von der jeweiligen Bridge
> unterstützt).

Ah, da tut sich ja auch wieder was. Ich hab zuletzt Anfang des Jahres
mal geguckt, da war die kasbert-Lösung quasi eingeschlafen und
funktionierte nicht 64-bittig und mit keinem halbwegs aktuellem
Bridge-Chip, weswegen ich auf dem Fork

https://github.com/RJVB/OS-X-SAT-SMART-Driver

aufgesetzt habe, der auch tut (aber für mein ASM1051-basiertes USB3-
Gehäuse mußte ich die letzte Version der kext erst frisch kompilieren
und konnte nicht das .dmg nehmen -- muß später mal prüfen, inwieweit das
bei kasbert jetzt wieder paßt)

Gruss,

Thomas
Message has been deleted

Başar Alabay

unread,
Aug 21, 2014, 3:51:40 AM8/21/14
to
Gerald E:scher schrieb:

>> k-smart 1.6 basiert auf smartmontools 6.3 und liegt hier:
>>
>> http://kaiser-edv.de/downloads/k-smart.zip
>
> Das macht aber nichts anderes als ein paar
> $ smartctl -a diskx
> ?

Ei, jetz mach do den Kaiser net draurisch!

Na jedenfalls, man kann schon mit SMARTReporter 2 (!) ziemlich in die
Tiefe gehen. Man muß in der HD-Liste einen Rechtsklick machen. Abgesehen
davon, kann man sich ein aktuelleres smartctl in das Applikationspaket
schieben, wenn man will/muß. Via macports käme man an 6.2, via dem
Programmierer selbst an 6.3. Und ja, tatsächlich, die Testmöglichkeiten
und vor allem -anzeigen sind in SMARTReporter besser weil echtzeitiger
als beim smarten Supermarkt.

> Auf https://github.com/kasbert/OS-X-SAT-SMART-Driver gibt es übrigens
> eine Kernel-Extension, mit der sich auch die SMART-Werte von USB- und
> Firewireplatten abfragen lassen (sofern von der jeweiligen Bridge
> unterstützt).

M9 Hüllen sind jedenfalls zu alt, die können es nicht.

Başar Alabay

unread,
Aug 21, 2014, 3:53:46 AM8/21/14
to
Patrick Kormann schrieb:

>> Dann hast Du wohl überlesen, daß ich ganz artig rotierende, externe
>> Backups habe, die nicht mit TM zu tun haben. Ey, nicht so selektiv wie
>> der Kaiser bitte, gell?
>
> Aber erst in deiner Antwort auf mein Posting, oder?

Das kann sein, aber auch schon x mal in vergangenen Jahren.

>> Das Wichtigste habe ich sogar noch auf Tonbändern, Cassetten und CDs :-)
>
> Naja, dann hab ich das Wichtigste in der Cloud ;)

Ah. Wobei ich mir nicht sicher bin, ob Du das richtig verstanden hast.

Başar Alabay

unread,
Aug 21, 2014, 3:56:48 AM8/21/14
to
Daniel K®ebs schrieb:

>> Das Wichtigste habe ich sogar noch auf Tonbändern, Cassetten und CDs :-)
>
> Wie oft spulst Du die Bänder um?

Also, einige Tonbänder lagen zuletzt ca. 30–40 Jahre unumgespult herum
und liefen vor 3 Jahren top durch. Außer eines, das ist 18 Jahre alt und
praktisch tonnereif. Tja, älter ist besser. Und nein, es mußte nichts
gebacken werden. Ob die in den STudios die Bänder auch alle x Jahre
umspulen … wage ich bei manchen glatt zu bezweifeln :-) In so einer
Klitsche ging sogar ein Masterband von mir unter, Mann, Mann, Mann …

Thomas Kaiser

unread,
Aug 21, 2014, 4:21:08 AM8/21/14
to
Patrick Kormann schrieb am 20.08.2014 in <news:dnnfcb-...@news.sirdir.ch>
> Am 20.08.14 20:02, schrieb Fritz:
>
>> Welches FreeNAS verwendest du konkret? Welche HW, welche HDs, RAID?
>
> Die jeweils Neuste. HW ist ein Eigenbau i3, Gigabyte GA-H77-DS3

Dann hoffe ich stark, dass Du dann nicht auf ZFS setzt, denn ZFS ohne
ECC-RAM ist einfach nur kontraproduktiv (und wirkt sich aufgrund des
ganzen Prüfsummen-Gedöns bei Bit-Flips deutlich schlimmer aus als bei
anderen FS, die auf Checksumming verzichten)

Wenn man alte Hardware mittels FreeNAS recycelt, dann hat man oft keine
Wahl und muß den non-ECC-Weg beschreiten (sollte sich dann aber den
Gefahren, die daraus in Zusammenhang mit ZFS resultieren, sehr bewußt
sein). Aber wenn man ein System neu aufbaut, das als Datengrab fungieren
soll, dann darf man die Mehrausgaben für ECC nicht scheuen, gerade wenn
man Checksumming (mit entsprechenden FS, also ZFS, btrfs, ReFS) nutzen
will. Nur so als Denkanstoß:

http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ram-and-zfs.15449/

Die ganzen schicken Features bzgl. "Ende-zu-Ende-Datenkonsistenz" werden
in einem System ohne ECC-RAM (und ohne Auslesen der ECC-Error-Logs --
das vergessen ja auch die meisten und deshalb ist ECC-RAM im MacPro/
xServe ja immer nur 'ne halbe Sache [1]) effektiv ad absurdum geführt
und regelmäßige scrubs führen nicht zum Erkennen von Fehlern sondern zum
Schreddern der Daten, wenn mal ein instabiles RAM-Modul am Start ist.
Muß man mögen bzw. sollte man vermeiden, wenn man auf Datensicherheit
und nicht Augenwischerei steht.

Aufgrund der Anforderungen ECC-RAM und viele SATA-Ports (plus üppig RAM
und ausreichend Wumms), finde ich die folgenden Kandidaten ganz nett für
"cold storage"-Anforderungen wie sie bei sowas wie Backup/Archiv bzw.
FreeNAS für den Zweck anstehen:

- ASRock C2750D4I [2] ("Pro"-Variante siehe [3])
- Gigabyte GA-9SISL [4]
- SuperMicro A1SAi-2750F [5]

Das Silverstone-Gehäuse aus [2] müsste evtl. auch für die beiden unteren
Kandidaten passen.

Gruss,

Thomas

[1] Bei vSphere/ESXi vmkernel.log parsen, unter Linux edac-util-Ausgabe
regelmäßig parsen bzw. /sys/devices/system/edac/mc/mc0/ce_count und
/sys/devices/system/edac/mc/mc0/ue_count ins Monitoring und bei BSD
bzw. FreeNAS braucht's einen Blick ins Log bzgl. MCA bzw. mcelog:
http://lists.freebsd.org/pipermail/freebsd-stable/2010-December/060705.html
[2] http://b3n.org/nas-server-build-asrock-c2750d4i-silverstone-ds380/
[3] http://www.asrockrack.com/general/productdetail.asp?Model=1U12LW-C2750
[4] http://b2b.gigabyte.com/products/product-page.aspx?pid=4988#sp
[5] http://www.supermicro.nl/products/motherboard/Atom/X10/A1SAi-2750F.cfm

Fritz

unread,
Aug 21, 2014, 7:59:15 AM8/21/14
to
Am 21.08.14 um 09:51 schrieb Başar Alabay:
> Na jedenfalls, man kann schon mit SMARTReporter 2 (!) ziemlich in die
> Tiefe gehen. Man muß in der HD-Liste einen Rechtsklick machen. Abgesehen
> davon, kann man sich ein aktuelleres smartctl in das Applikationspaket
> schieben, wenn man will/muß. Via macports käme man an 6.2, via dem
> Programmierer selbst an 6.3. Und ja, tatsächlich, die Testmöglichkeiten
> und vor allem -anzeigen sind in SMARTReporter besser weil echtzeitiger
> als beim smarten Supermarkt.

Ich muss mal sehen, welche smartctl Version Homebrew anbietet?

Ich habe hier zwei ICY Box IB-231StU3-G (2.5" USB2/3), wären die etwa
auch UASP fähig?

--
Fritz

Patrick Kormann

unread,
Aug 21, 2014, 7:16:14 AM8/21/14
to
Am 21.08.14 09:53, schrieb Başar Alabay:

>> Aber erst in deiner Antwort auf mein Posting, oder?
>
> Das kann sein, aber auch schon x mal in vergangenen Jahren.

Ja aber das hat dann nichts mehr mit selektivem Lesen zu tun. Ich glaube
du hast meine Lebensgeschichte auch nicht im Kopf ;)

>> Naja, dann hab ich das Wichtigste in der Cloud ;)
>
> Ah. Wobei ich mir nicht sicher bin, ob Du das richtig verstanden hast.

Ich denke schon. Apple hat all meine Musik ;). Die, die sie nicht kennen
wollten habe ich per iTunes Match hochgeladen...



Fritz

unread,
Aug 21, 2014, 8:26:41 AM8/21/14
to
Am 21.08.14 um 10:21 schrieb Thomas Kaiser:
> Wenn man alte Hardware mittels FreeNAS recycelt, dann hat man oft keine
> Wahl und muᅵ den non-ECC-Weg beschreiten (sollte sich dann aber den
> Gefahren, die daraus in Zusammenhang mit ZFS resultieren, sehr bewuᅵt
> sein). Aber wenn man ein System neu aufbaut, das als Datengrab fungieren
> soll, dann darf man die Mehrausgaben fᅵr ECC nicht scheuen, gerade wenn
> man Checksumming (mit entsprechenden FS, also ZFS, btrfs, ReFS) nutzen
> will. Nur so als Denkanstoᅵ:
>
> http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ram-and-zfs.15449/

Wie kᅵnnte man da einen alten MacMini 2.1 dazu verwenden?

--
Fritz

Başar Alabay

unread,
Aug 21, 2014, 8:37:36 AM8/21/14
to
Fritz schrieb:

> Ich muss mal sehen, welche smartctl Version Homebrew anbietet?

Das, glaube ich, sogar 6.3.

> Ich habe hier zwei ICY Box IB-231StU3-G (2.5" USB2/3), wären die etwa
> auch UASP fähig?

Keene Ahnung. Da gibt es eine (umgezogene) Wikiliste.

Başar Alabay

unread,
Aug 21, 2014, 8:38:34 AM8/21/14
to
Patrick Kormann schrieb:

> Ja aber das hat dann nichts mehr mit selektivem Lesen zu tun. Ich glaube
> du hast meine Lebensgeschichte auch nicht im Kopf ;)

Hast Du ’ne Ahnung! :-)))

>> Ah. Wobei ich mir nicht sicher bin, ob Du das richtig verstanden hast.
>
> Ich denke schon. Apple hat all meine Musik ;). Die, die sie nicht kennen
> wollten habe ich per iTunes Match hochgeladen...

Okay, Du hast mich nicht richtig verstanden :-)

Thomas Kaiser

unread,
Aug 21, 2014, 8:56:05 AM8/21/14
to
Fritz schrieb in <news:53F5DF1...@uta.fritz-fqdn.dd-dns.de>
> Am 21.08.14 um 09:51 schrieb Başar Alabay:
>> Na jedenfalls, man kann schon mit SMARTReporter 2 (!) ziemlich in die
>> Tiefe gehen.

Ein echter Alabay. Die uralten 2er-Version nutzen fürs "Ermitteln" von
Problemen diskutil (d.h. können nicht mehr als das, was das Festplatten
Dienstprogramm anbietet) und verlassen sich für die Detailanzeige auf
irgendeine 'zig Jahre alte smartmontools-Version, die nicht mal halbwegs
aktuelle Platten/SSDs kennt.

Wenn man SMART präventiv einsetzen will (was bei HDs nur bedingt klappt,
bei SSDs hingegen abgesehen von DOA -- death on arrival -- relativ gut
funktioniert), dann muß man regelmäßig SMART-Werte _richtig_ auslesen
und ebenso regelmäßig SMART-Selbsttests abfeuern. Völlig sinnlos, das
mit dieser uralten Version angehen zu wollen.

So, ich werd mal das Scoring auch auf References-Header ausdehnen, damit
ich von solchem Wirrsinn auch via Zitatebene verschont bleibe. :-)

> Ich muss mal sehen, welche smartctl Version Homebrew anbietet?

Die aktuellste. Um an smartctl in Version 6.3 zu kommen, zwar sinnfrei
aber geht natürlich. Wenn man sich das komplette smartmontools-Paket auf
den Mac holt, sollte man auch gleich einen Blick auf den smartd werfen.
Das ist der entsprechende Daemon, der im Hintergrund Check/Selbsttests
automatisieren kann. Und wenn man den auf Basis einer aktuellen
smartmontools-Version laufen läßt, dann kann der auch sinnvoll agieren
im Gegensatz zu uralt-Versionen, die keine aktuellen Platten/SSDs
kennen.

> Ich habe hier zwei ICY Box IB-231StU3-G (2.5" USB2/3), wären die etwa
> auch UASP fähig?

Natürlich nicht allein schon weil viel zu alt. Nebenbei: UASP hat nix
mit SAT (und damit SMART) zu tun.

Gruss,

Thomas

Patrick Kormann

unread,
Aug 21, 2014, 8:28:20 AM8/21/14
to
Am 21.08.14 10:21, schrieb Thomas Kaiser:

> Dann hoffe ich stark, dass Du dann nicht auf ZFS setzt, denn ZFS ohne
> ECC-RAM ist einfach nur kontraproduktiv (und wirkt sich aufgrund des
> ganzen Prüfsummen-Gedöns bei Bit-Flips deutlich schlimmer aus als bei
> anderen FS, die auf Checksumming verzichten)

Ja, danke für den Schlag auf den Kopf, habe das bisher zu wenig Ernst
genommen. Bisher hatte ich immer nur bei neuen RAM Modulen Probleme,
wenn die mal liefen, liefen sie...

> - ASRock C2750D4I [2] ("Pro"-Variante siehe [3])
> - Gigabyte GA-9SISL [4]
> - SuperMicro A1SAi-2750F [5]
>
Das passt irgendwie alles nicht so ideal, denke ich. Ich hab kein Rack,
bei den anderen müsst ich mal schauen... werde langsam alt.. Mini-ITX?
Die Atoms unterstützen ECC? Interessant.
Da dem Drivebay der Lüfter langsam stribt, stellt sich die Frage, ob ich
nicht gleich was ganz neues machen will.

Das sähe IMHO noch ganz interessant aus, aber ob man das in Europa kriegt?
http://www.ixsystems.com/storage/freenas/
(freenas mini)

Muss vielleicht auch nochmal bei HP schauen.. .Die Micros taugen soweit
ich gesehen habe schon mal auch nichts weil sie kein ECC haben.

Gruss
Patrick

Thomas Kaiser

unread,
Aug 21, 2014, 9:15:17 AM8/21/14
to
Fritz schrieb in <news:53F5E581...@uta.fritz-fqdn.dd-dns.de>
> Am 21.08.14 um 10:21 schrieb Thomas Kaiser:
>> Wenn man alte Hardware mittels FreeNAS recycelt, dann hat man oft keine
>> Wahl und muß den non-ECC-Weg beschreiten (sollte sich dann aber den
>> Gefahren, die daraus in Zusammenhang mit ZFS resultieren, sehr bewußt
>> sein). Aber wenn man ein System neu aufbaut, das als Datengrab fungieren
>> soll, dann darf man die Mehrausgaben für ECC nicht scheuen, gerade wenn
>> man Checksumming (mit entsprechenden FS, also ZFS, btrfs, ReFS) nutzen
>> will. Nur so als Denkanstoß:
>>
>> http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ram-and-zfs.15449/
>
> Wie könnte man da einen alten MacMini 2.1 dazu verwenden?

Um demonstrieren zu wollen, dass ein FreeNAS-System mit kaum RAM und
dann noch ohne ECC und mit nur einem SATA-Port [1] Scheize ist?

Gruss,

Thomas

[1] https://www.ifixit.com/Apple-Parts/12-7-mm-Optical-Bay-SATA-Hard-Drive-Enclosure/IF107-079

Andre Igler

unread,
Aug 21, 2014, 9:27:39 AM8/21/14
to
Am 21.08.14 09:56, schrieb Başar Alabay:
> Daniel K®ebs schrieb:
>
>>> Das Wichtigste habe ich sogar noch auf Tonbändern, Cassetten und
>>> CDs :-)
>>
>> Wie oft spulst Du die Bänder um?
>
> Also, einige Tonbänder lagen zuletzt ca. 30–40 Jahre unumgespult
> herum und liefen vor 3 Jahren top durch. Außer eines, das ist 18
> Jahre alt und praktisch tonnereif. Tja, älter ist besser.
<OT> Das hat (auch) mit der Qualität des Trägerbandes (für die
Magnetschicht) zu tun. Wenn die OK resp. "dicht" genug ist, dann schlägt
auch die Magnetisierung nicht durch.

Wenn nicht, hilft auch das Umspulen wenig. Und nein, früher war nicht
alles besser. Eher: U buy cheap, u get cheap. Früher genau so wie heute.
</OT>

addio
--
pm <mein vorname> bei <mein nachname> punkt at
www.albinschwarz.com http://weblog.igler.at

Fritz

unread,
Aug 21, 2014, 9:48:49 AM8/21/14
to
Am 20.08.14 um 20:35 schrieb Thomas Kaiser:
> Rausfinden, welche Partition das ist per "diskutil list", dann
> rausfinden, ob das ein CoreStorage-Device ist (taucht dann doppelt auf
> und dann fᅵr jeden Eintrag ein "/usr/sbin/diskutil corestorage info "
> gefolgt von der Partitionsbezeichnung oder simpel "/usr/sbin/diskutil
> coreStorage list"). Und dann auf die richtige Partition ein "diskutil
> info" und ein "diskutil verifyVolume" loslassen. Letzteres sollte
> Klartext ausspucken, was schieflᅵuft.
>
> Eine Notwendigkeit, direkt an fsck_hfs hinzulangen, ist eigentlich nur
> dann -- wie wohl im Fall des OP -- "nᅵtig", wenn man herumspielt und
> TimeMachine-Backups reparieren will (was generell nicht die beste Idee
> ist). Bedingt durch die Hardlink-Chose sind nᅵmlich gerade auf vollen
> TM-Disks hᅵᅵlich viele Objekte und dann und nur dann muᅵ man mittels
> "-c" mehr RAM alloziieren lassen. Ansonsten fᅵhren die diskutil-Aufrufe
> immer automatisch zu den passenden fsck_hfs-Aufrufen nebst Drumherum-
> Gedᅵns wie dass die Platten vorher sauber ausgeworfen werden und anschl.
> wieder gemountet, etc.

Ich habe das nun auf meiner 'abgeschmierten' System Partition probiert,
leider kein Erfolg:
......................
sudo fsck_hfs -d -f -r -y -c 3g /dev/rdisk1s2
journal_replay(/dev/disk1s2) returned 22
** /dev/rdisk1s2
Using cacheBlockSize=32K cacheTotalBlock=98304 cacheSize=3145728K.
Executing fsck_hfs (version hfs-226.1.1).
** Checking Journaled HFS Plus volume.
hfs_swap_BTNode: invalid forward link (0x2CF7D18E)
hfs_swap_BTNode: invalid backward link (0x115044A6)
hfs_swap_BTNode: invalid node kind (105)
hfs_swap_BTNode: invalid node height (252)
hfs_swap_BTNode: invalid record count (0x0D3C)
Invalid record count
(3, 230)
** The volume could not be verified completely.
volume check failed with error 2
volume type is pure HFS+
primary MDB is at block 0 0x00
alternate MDB is at block 0 0x00
primary VHB is at block 2 0x02
alternate VHB is at block 1454108942 0x56abf10e
sector size = 512 0x200
VolumeObject flags = 0x07
total sectors for volume = 1454108944 0x56abf110
total sectors for embedded volume = 0 0x00
CheckHFS returned -1317, fsmodified = 0
......................

Passiert ist das wᅵhrend des Betriebs, als das System auf Raten ein fror
und es anscheinend den Kontakt zur Festplatte verlor. Nur der Mauszeiger
funktionierte noch - ich konnte nur mehr den Aus Knopf drᅵcken.
Zuerst dachte ich die Festplatte sei kaputt und baute eine Hitachi
Hybrid 1TB SSDH ein und spielte das TM Backup zurᅵck, eine Woche ging
alles gut, dann der gleiche Absturz.

Nach dem Kabeltausch wollte ich auf der Hitachi Mavericks komplett neu
installieren, nur jedes mal (ich testete dies mehrmals) wenn ich all
meine AppStore Applikationen installieren wollte, verlor der
Festplattencontroller den Kontakt zur Festplatte - I/O Error - trotz
neuen Kabels. Die Hitachi dᅵrfte bei den Aktionen etwas abbekommen
haben. In einem ICY Gehᅵuse funktionierte sie aber.

Mit der WD Blue 1TB und der Originalen 250 GB Hitachi gab es mit dem
neuen Kabel keine Probleme. Das ist auch der Grund warum ich jetzt mit
Festplatten die mehr Strom abverlangen vorsichtig bin.

Nun werkelt die WD BLUE 1TB 5400rpm mit Werten 90 bis 110 MB/s
(schreibend und lesend) drinnen, nur das Tool HDAPM muss ich verwenden
sonst geht die WD dauernd in Energie-Spar-Modus (Spin down).

Was ich da alles an Tests durchfᅵhrte, wᅵrde hier den Rahmen sprengen,
u.a. auch die offiziellen Apple HW Test-Tools vom ServiceCenter sind
gelaufen.

Das Problem trat noch dazu vor dem Erscheinen vom 10.9.4 Update auf, in
dessen Beschreibung stand:
'Verbessert die Zuverlᅵssigkeit beim Beenden des Ruhezustands'
Der Crash trat jedes Mal nach Beenden des Ruhezustands vom MBP auf.

Die Gesamte Aktion war auch der Grund warum ich mich u.a. auch nᅵher mit
SMART befassen musste.

--
Fritz

Patrick Kormann

unread,
Aug 21, 2014, 9:13:42 AM8/21/14
to
Am 21.08.14 10:21, schrieb Thomas Kaiser:

> [2] http://b3n.org/nas-server-build-asrock-c2750d4i-silverstone-ds380/

Das hatte ich übersehen. Wäre ne Möglichkeit und 8 Slots wären natürlich
'luxus'. Und Amazon.de hätte die meisten Komponenten. Beim RAM bin ich
bisher nicht fündig geworden. Und ob dann jeder Shop nach Spanien
liefert ist dann die nächste Frage.

Thomas Kaiser

unread,
Aug 21, 2014, 10:08:36 AM8/21/14
to
Patrick Kormann schrieb in <news:s75hcb-...@news.sirdir.ch>
> Am 21.08.14 10:21, schrieb Thomas Kaiser:
>
>> Dann hoffe ich stark, dass Du dann nicht auf ZFS setzt, denn ZFS ohne
>> ECC-RAM ist einfach nur kontraproduktiv (und wirkt sich aufgrund des
>> ganzen Prüfsummen-Gedöns bei Bit-Flips deutlich schlimmer aus als bei
>> anderen FS, die auf Checksumming verzichten)
>
> Ja, danke für den Schlag auf den Kopf, habe das bisher zu wenig Ernst
> genommen. Bisher hatte ich immer nur bei neuen RAM Modulen Probleme,
> wenn die mal liefen, liefen sie...

Nee, leider nicht. Wenn man kein ECC-RAM hat, hat man noch nicht mal die
Chance, sowas festzustellen, außer das RAM-Modul ist schon so hinüber,
dass man irgendwann aufgrund regelmäßiger Crashes, Kernel Panics,
defekter Dateien, zerschossener Dateisysteme Handlungsbedarf erkennt
(der typische Home-User verbringt aber dann erstmal 1-2 Wochen mit
Rechte Reparieren, Kiste plattmachen, von externer Platte starten, bis
ihm irgendwann klar wird, dass es was an der Hardware sein könnte).
Schleichende Bit-Kipper bei non-ECC-RAM passieren immer wieder mal, wir
kriegen davon aber Technik-bedingt schlichtweg nichts mit.

Das Dumme: Die allseits beliebten RAM-Prüfmethoden (memtest oder
extrem-Quatsch wie Rember) können das nicht entdecken. Die sind
vielleicht in der Lage, ein Modul auszusortieren, das schon wirklich
hinüber ist, aber für den "kleinen Fehler zwischendurch" sind sie
nutzlos. Denn manche Fehler treten nur bei manchen Zugriffsmustern auf.

Nur mit ECC-RAM sind Fehler überhaupt erkenn- respektive korrigierbar.
1-Bit-Fehler können durch "normales" ECC korrigiert, 2-Bit-Fehler
wenigstens erkannt werden. Was hat man jetzt von ECC, wenn man nicht
solche Fehler mitprotokolliert, d.h. *nachguckt*? Statistisch gesehen
einfach nur weniger bzw. später auftretende Bit-Kipper (und das ist die
Situation unter OS X bzw. am MacPro und XServe -- gewesen. Mir ist
zumindest kein Tool bekannt, dass RAM-Partity-Fehler oder -Korrekturen
nach oben melden kann).

Wenn man's richtig macht, protokolliert man den Kram mit und reagiert
pro-aktiv auf Module, die anfangen 1-Bit-Fehler zu werfen, indem man
einen Austausch scheduled, bzw. reagiert sofort beim ersten Mehr-Bit-
Fehler und ersetzt das fragliche Modul.

Vernünftige Server-OS machen das im laufenden Betrieb und wenn man dann
einen Fuhrpark mit ausreichend statistischer Relevanz hat, muß man zum
einen feststellen, dass das a) regelmäßig passiert (also 1-Bit- und
selten auch Mehr-Bit-Fehler selbst bei "Premium-Modulen" mit ECC) und
dass man b) das fragliche Modul anschl. tage-/wochenlang mittels memtest
quälen kann und es wird keinen Fehler melden. Heißt: Nur mit ECC-RAM und
permanentem Monitoring kriegt man überhaupt mit, was Sache ist.

Eine steinalte Untersuchung basierend auf Googles Serverpool zwischen
2006 und 2008 ergab:

For example, we observe DRAM error rates that are orders of
magnitude higher than previously reported, with FIT rates (failures
in time per billion device hours) of 25,000 to 70,000 per Mbit and
more than 8% of DIMMs affected per year.
http://www.cs.toronto.edu/~bianca/papers/sigmetrics09.pdf

Heißt: Das Problem existiert, man nimmt's "daheim" halt nur leider nicht
mal wahr. Und die Konsequenzen für End-to-End-Datenintegrität per
Checksumming sind leider extrem: An und für sich intakte Daten auf
Platte werden durch instabile RAM-Module mit der Zeit bzw. jedem Scrub
immer mehr geschreddert.

>> - ASRock C2750D4I [2] ("Pro"-Variante siehe [3])
>> - Gigabyte GA-9SISL [4]
>> - SuperMicro A1SAi-2750F [5]
>>
> Das passt irgendwie alles nicht so ideal, denke ich. Ich hab kein Rack,

Drum hab ich ja gleich auf das Silverstone mit verlinkt. Danach suchen,
das Wörtchen "Alternative" mitgeben... fertig.

> bei den anderen müsst ich mal schauen... werde langsam alt.. Mini-ITX?
> Die Atoms unterstützen ECC? Interessant.

_Die_ Atoms sind auch nicht mehr jene Atoms von vor paar Jahren (auch
wenn das wie bei Intels Chipsatz-Grafiken das Gros der Leute nicht mehr
wahrnehmen wird ;-). Die Avotons haben ausreichend Dampf, können
ausreichend ECC-RAM adressieren und bieten nahezu alle "Pro-Features"
(bis auf VT-d, was bisserl Schade bzgl. Virtualisierung ist)

> http://www.ixsystems.com/storage/freenas/

Sieht danach aus, als ob vorher verlinktes Gigabyte-Board drinsteckt,
weil "nur" 32 GByte Maximal-RAM. Und sieht vernünftig abgestimmt aus.

Wir evaluieren für einen Kunden bald auf Basis des ASRock-Boards, weil
der für Backup/Archiv +35 TByte will (Idee: 10 x 6TB-Platten als raidz2,
das per iSCSI/Multipathing rausgereicht wird, rein, 2 SSDs als ZIL-
mirror und per ZFS send/receive Snapshots zu identischem System an
zweitem Standort). Es ist jetzt schon abzusehen, dass die 8-CPU-Cores
dafür deutlich übermotorisiert sind. Aber die Idee, direkt auf der
Hardware VMWare zu fahren und FreeNAS zu virtualisieren, mußten wir
gleich wieder verwerfen, weil dann jede Disk als vmdk durchgereicht
werden müsste und somit kein Storage für weitere VMs zur Verfügung
stünde (oder wir zwacken von den Intel 3700er-SSDs was ab -- mal
schauen). Jedenfalls nett, wie wenig Ressourcen sowas heute noch frißt.

Gruss,

Thomas

Thomas Kaiser

unread,
Aug 21, 2014, 10:20:08 AM8/21/14
to
Fritz schrieb in <news:53F5F8C1...@uta.fritz-fqdn.dd-dns.de>
> Am 20.08.14 um 20:35 schrieb Thomas Kaiser:
>> Eine Notwendigkeit, direkt an fsck_hfs hinzulangen, ist eigentlich nur
>> dann -- wie wohl im Fall des OP -- "nötig", wenn man herumspielt und
>> TimeMachine-Backups reparieren will (was generell nicht die beste Idee
>> ist).
>
> Ich habe das nun auf meiner 'abgeschmierten' System Partition probiert

Wozu auch immer... Die wichtigste Information zu fsck_hfs findest Du in
dessen Manual Page:

fsck_hfs is not able to fix some inconsistencies that it detects.

> sudo fsck_hfs -d -f -r -y -c 3g /dev/rdisk1s2

Völlig gaga, sowas abzusetzen, wenn einem die Daten auf Platte was wert
sind. Vorher einen 1:1-Klon *bitweise* anfertigen, dann diskutil verify
(verifyDisk ist weiterreichend, weil kümmert sich auch um Partitionen,
CoreStorage und EFI-Systempartition) loslassen und wenn fsck_hfs, dann
immer erstmal mit "-n", d.h. prüfen lassen.

> CheckHFS returned -1317, fsmodified = 0

Endstation, da wird noch nicht mal mehr DiskWarrior irgendwas dengeln
können.

Gruss,

Thomas

Fritz

unread,
Aug 21, 2014, 10:32:00 AM8/21/14
to
Am 21.08.14 um 15:48 schrieb 'Ingrid' Fritz:
Nachtrag:
In mein MBP baute ich nach dem Festplattenkabel Tausch auch die
Originale 250 MB Hitachi ein und installierte dort ohne Probleme
Mavericks mitsamt einigen Tools wie SMARTReporter und Data Rescueᅵ 3
<http://www.prosofteng.com/products/data_rescue.php> nur in der lesenden
Trial Version.

Diese 250er HD wanderte danach in ein USB Gehᅵuse und ich baute zum Test
sowohl die erste abgeschmierte (und noch immer vorhandene) Seagate 750
GB HD als auch die 1 TB SSHD ein und konnte die Daten mit Data Rescueᅵ 3
auslesen, nur lᅵsst sich mit der Trial Version nur sehr beschrᅵnkt
zurᅵcksichern.

Irgendwie muss sich das Problem schon vorher schleichend und unbemerkt
gezeigt haben - ich verwendete auch vor dem Crash zwei ext. USB
Festplatten fᅵr das TM Backup - nur ist mir aufgefallen dass z.B. in
einem Thunderbird Unterverzeichnis bei einem der TM Backup Reihen
etliche Dateien fehlten, die aber auf der anderen TM Platte in den
Reihen vorhanden waren.

Darum auch das Bestreben die alte 750er auslesen zu kᅵnnen. Wenn das
nicht wᅵre hᅵtte ich sie schon lᅵngst formatiert und getestet.

Ich versuche jetzt die beiden TM Backup Reihen zu vergleichen und das
auch mit dem aktuellen Stand am MBP abzugleichen. Mit den Fotos (iPhoto)
und Videos bin ich Groᅵteils schon durch.

Fᅵr das momentane TM Backup verwende ich zwei neue ext. HDs.

--
Fritz

Fritz

unread,
Aug 21, 2014, 11:04:47 AM8/21/14
to
Am 21.08.14 um 16:20 schrieb Thomas Kaiser:
>> >sudo fsck_hfs -d -f -r -y -c 3g /dev/rdisk1s2
> Vᅵllig gaga, sowas abzusetzen, wenn einem die Daten auf Platte was wert
> sind. Vorher einen 1:1-Klon*bitweise* anfertigen, dann diskutil verify
> (verifyDisk ist weiterreichend, weil kᅵmmert sich auch um Partitionen,
> CoreStorage und EFI-Systempartition) loslassen und wenn fsck_hfs, dann
> immer erstmal mit "-n", d.h. prᅵfen lassen.

Irgendwie seltsam, Linux kann die Verzeichnisse der besagten Partition
lesen und auch Data Rescueᅵ 3
<http://www.prosofteng.com/products/data_rescue.php>
fand den Inhalt, nur mit der Trial kann man nicht restoren und so
wichtig (da ich zwei TM Backups habe) ist mir der Inhalt nun doch nicht
dass ich dafᅵr 100 USD ausgebe - und wer sagt dass die Dateien nach dem
Restore auch brauchbar sind.

Mich wundert bloᅵ das ᅵber beider Wege zumindest die Verzeichnisse
lesbar sind.

diskutil verifyDisk /dev/disk1
keine Fehler erkennbar

$ sudo diskutil verifyVolume disk1s2
Password:
Started file system verification on disk1s2 Macintosh HD
Checking file system
Checking Journaled HFS Plus volume
Invalid record count
The volume could not be verified completely
Error: -69845: File system verify or repair failed
Underlying error: 8: POSIX reports: Exec format error

Die offene Frage - war tatsᅵchlich das Kabel zur Festplatte defekt und
die Platte hat nach dem WakeUp, wo hohe I/O Leistung erforderlich ist,
zuwenig Spannung bekommen, dann wᅵren zum Teil auch die Daten inkonsistent.
Oder war es der Mavericks WakeUp Bug in 10.9.3?
'Verbessert die Zuverlᅵssigkeit beim Beenden des Ruhezustands' (das
stand im 10.9.4 Update)

Wenn der Fehler nicht bei zwei verschiedenen Festplatten knapp
hintereinander aufgetreten wᅵre, kᅵnnte auch die 750er Festplatte einen
Defekt aufweisen, nur SMART bemerkte da nichts.

Ich werde es vermutlich nicht mehr mit Sicherheit herausbekommen -
obwohl ich mir das system.log das wᅵhrend des Crashes noch geschrieben
wurde von beiden abgeschmierten Platten mit Data Rescueᅵ 3 herausgeholt
habe - aber das reiᅵt dann einfach ab.

--
Fritz

Thomas Kaiser

unread,
Aug 21, 2014, 11:49:34 AM8/21/14
to
Fritz schrieb in <news:53F60A8F...@uta.fritz-fqdn.dd-dns.de>
> Irgendwie seltsam, Linux kann die Verzeichnisse der besagten Partition
> lesen

Das Linux-Kernelmodul für HFS+ ist überwiegend Code von 2001-2003 und
irgendwann kam das, was mit OS X 10.4 neu dazukam (Extended Attributes
und ACLs) dann hinterher:

http://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/tree/fs/hfsplus?id=HEAD

Der Code ist auf dem Stand von 10.4, kann damit mit den Neuerungen
(Directory-based Hardlinks in 10.5, decmpfs-Dateikompression ab 10.6,
das kleine Dateibrocken als Extended Attributes, die mit 10.4 an HFS+
drangebastelt wurden und demzufolge in einem BTree im Attributes File
verpackt [1]) nicht umgehen und fällt wohl eben deshalb nicht auf die
Fresse. Vermutlich checkt Linux nur das Catalog File (wenn überhaupt)
und ins Attributes File wird nur geguckt bzgl. EAs und ACLs (wenn
überhaupt). Ich vermute auch stark, dass all das decmpfs-Gedöns (von dem
ab 10.6 auf Systempartitionen massiv Gebrauch gemacht wird) unter Linux
gar nicht auftauchen dürfte.

Bei Dir kippt fsck_hfs ja schon sehr früh aus den Latschen, weil es
irreparable Inkonsistenzen in einem BTree antrifft:

hfs_swap_BTNode: invalid forward link (0x2CF7D18E)
hfs_swap_BTNode: invalid backward link (0x115044A6)
hfs_swap_BTNode: invalid node kind (105)
hfs_swap_BTNode: invalid node height (252)
hfs_swap_BTNode: invalid record count (0x0D3C)

Ob das nun im Catalog oder Attributes File auftaucht... wer weiß?

> und auch Data Rescue® 3

Dem ist doch das Dateisystem schnuppe, das scannt doch nur nach
Dateimustern und versucht, dann zusammenhängende Dateiblöcke zu
rekonstruieren? Was gerne mal schiefgeht aber von der Kundschaft
toleriert wird, weil's ja schon irgendwie toll ist, wenn man wenigstens
70-90% der einem selbst bekannten Dateien irgendwohin kopiert bekommt?

Gruss,

Thomas

[1] http://arstechnica.com/apple/2009/08/mac-os-x-10-6/3/

Fritz

unread,
Aug 21, 2014, 12:22:37 PM8/21/14
to
Am 21.08.14 um 17:49 schrieb Thomas Kaiser:
> Fritz schrieb in <news:53F60A8F...@uta.fritz-fqdn.dd-dns.de>
>> Irgendwie seltsam, Linux kann die Verzeichnisse der besagten Partition
>> lesen
>
> Das Linux-Kernelmodul fᅵr HFS+ ist ᅵberwiegend Code von 2001-2003 und
> irgendwann kam das, was mit OS X 10.4 neu dazukam (Extended Attributes
> und ACLs) dann hinterher:
>
> http://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/tree/fs/hfsplus?id=HEAD
>
> Der Code ist auf dem Stand von 10.4, kann damit mit den Neuerungen
> (Directory-based Hardlinks in 10.5, decmpfs-Dateikompression ab 10.6,
> das kleine Dateibrocken als Extended Attributes, die mit 10.4 an HFS+
> drangebastelt wurden und demzufolge in einem BTree im Attributes File
> verpackt [1]) nicht umgehen und fᅵllt wohl eben deshalb nicht auf die
> Fresse. Vermutlich checkt Linux nur das Catalog File (wenn ᅵberhaupt)
> und ins Attributes File wird nur geguckt bzgl. EAs und ACLs (wenn
> ᅵberhaupt). Ich vermute auch stark, dass all das decmpfs-Gedᅵns (von dem
> ab 10.6 auf Systempartitionen massiv Gebrauch gemacht wird) unter Linux
> gar nicht auftauchen dᅵrfte.
>
> Bei Dir kippt fsck_hfs ja schon sehr frᅵh aus den Latschen, weil es
> irreparable Inkonsistenzen in einem BTree antrifft:
>
> hfs_swap_BTNode: invalid forward link (0x2CF7D18E)
> hfs_swap_BTNode: invalid backward link (0x115044A6)
> hfs_swap_BTNode: invalid node kind (105)
> hfs_swap_BTNode: invalid node height (252)
> hfs_swap_BTNode: invalid record count (0x0D3C)
>
> Ob das nun im Catalog oder Attributes File auftaucht... wer weiᅵ?

Du meinst ich soll die Platte eher 'platt machen' = neu formatieren und
dabei testhalber gleich mit Nullen ᅵberschreiben?

In der Linux VM habe ich davon einige Dateien herausgeholt, nur von
Linux auf das Wirtssystem Apple zu kopieren ist unter VMware Fusion
ᅵuᅵerst langsam.

Mir wᅵre das ja ganz egal, wenn ich nur nicht das andere Problem hᅵtte -
die zwei unterschiedlichen TM Backups.

Konkret fehlten mir auf einer TM Backup Festplatte durchgᅵngig etliche
Thunderbird Orderdateien in
'/Users/Username/Library/Thunderbird/Profiles/abcd.Userfolder/Mail/Local
Folders'

Bei der Rᅵcksicherung der Outlook Daten fehlten bei der einen TM
Festplatte alle angelegten Regeln.
Ich habe nun von beiden TM Backup Platten rᅵckgesichert.

Bei der Mail Datenbank, wer weiᅵ ....

Einiges konnte ich schon vergleichen.
Den Dokumente Zweig muss ich noch durchgehen.

diff -rq Ordner1 Ordner2 zeigte mir bei meinem iPhoto Verzeichnissen
nicht alle Differenzen komplett an.

Ich holte mir von den iPhoto Backups die Ordner mit den Originalen
heraus und importierte sie jeweils neu, was schon vorhanden war ᅵbergeht
iPhoto ja sowieso.

FileMerge ist zum Teil fᅵr Vergleiche brauchbar, es dauert nur sehr,
sehr lange, denn es vergleicht die Dateien selbst und nicht nur die
Verzeichniseintrᅵge.

Eine Mᅵglichkeit die ich auch gefunden habe
in den Ordnern jeweils ein
ls -la -h -R -g > verzeichnis(a/b).txt
zu machen und die beiden Dateien mit FileMerge zu vergleichen, ist
mᅵhsam aber es funktioniert.

<http://www.macwelt.de/forum/showthread.php?691100-TOOL-zum-time-machine-festplatte-aufl%F6sen&p=4083006&viewfull=1#post4083006>
Dieser User kopiert einfach bestimmte Verzeichnisse aus dem TM Backup
von ᅵltesten bis zum Jᅵngsten ᅵbereinander .... sinnvoll oder nicht?

Irgendwann demnᅵchst will ich mit Vergleichen fertig werden, die frei
werdenden HDs sollen andere Aufgaben bekommen.

>> und auch Data Rescueᅵ 3
>
> Dem ist doch das Dateisystem schnuppe, das scannt doch nur nach
> Dateimustern und versucht, dann zusammenhᅵngende Dateiblᅵcke zu
> rekonstruieren? Was gerne mal schiefgeht aber von der Kundschaft
> toleriert wird, weil's ja schon irgendwie toll ist, wenn man wenigstens
> 70-90% der einem selbst bekannten Dateien irgendwohin kopiert bekommt?

Du meinst ich tat gut daran mir die rund 100 USD fᅵr die Lizenz zu
ersparen ;-)

--
Fritz

Goetz Hoffart

unread,
Aug 21, 2014, 12:50:11 PM8/21/14
to
Patrick Kormann <sir...@hotmail.com> wrote:

> Die Micros taugen soweit
> ich gesehen habe schon mal auch nichts weil sie kein ECC haben.

Falsch geschaut. N36L, N40L und N54L k�nnen (auch) ECC. Ansonsten halt
ein kleiner ML110, mein G6 ist *sehr* leise.

Gr��e
G�tz
--
http://www.knubbelmac.de/

Goetz Hoffart

unread,
Aug 21, 2014, 12:51:03 PM8/21/14
to
Thomas Kaiser <Thomas...@phg-online.de> wrote:

> Die ganzen schicken Features bzgl. "Ende-zu-Ende-Datenkonsistenz" werden
> in einem System ohne ECC-RAM

... und es gibt bei den heutigen Speicherdichten erschreckend viele
Bit-Flips in Non-ECC-RAM. Ich meine Sun h�tte damals im Kontext ZFS eine
Studie dazu ver�ffentlicht, aber ich finde die grad nicht mehr ...

Başar Alabay

unread,
Aug 21, 2014, 1:00:29 PM8/21/14
to
Thomas Kaiser schrieb:

>>> Na jedenfalls, man kann schon mit SMARTReporter 2 (!) ziemlich in die
>>> Tiefe gehen.
>
> Ein echter Alabay. Die uralten 2er-Version nutzen fürs "Ermitteln" von
> Problemen diskutil (d.h. können nicht mehr als das, was das Festplatten
> Dienstprogramm anbietet) und verlassen sich für die Detailanzeige auf
> irgendeine 'zig Jahre alte smartmontools-Version, die nicht mal halbwegs
> aktuelle Platten/SSDs kennt.

Was raucht der bloß in seiner Freizeit?!
Vielleicht sollte er, der doch so gerne Quellen nennt, das mal belegen?
Welche uralten 2er Versionen? Was ist mit diskutil? Wozu dann smartctl?
Was, wenn dieses manuell ausgetauscht wurde? Die originale Version war
übrigens auch eine 5er oder 6er Version, da es kürzlich doch noch ein
neues Update gab. Weiß der Herr Ka-Smart wohl leider nicht :-)

> Wenn man SMART präventiv einsetzen will (was bei HDs nur bedingt klappt,
> bei SSDs hingegen abgesehen von DOA -- death on arrival -- relativ gut
> funktioniert), dann muß man regelmäßig SMART-Werte _richtig_ auslesen
> und ebenso regelmäßig SMART-Selbsttests abfeuern. Völlig sinnlos, das
> mit dieser uralten Version angehen zu wollen.

Wovon redet er? :-))) smartctl 6.3 ist »uralt«? :-)

> So, ich werd mal das Scoring auch auf References-Header ausdehnen, damit
> ich von solchem Wirrsinn auch via Zitatebene verschont bleibe. :-)

Gibt es in München keine guten Psychosomatischen Kliniken oder so? Ich
glaube, ich werde mal ein paar andere mailadressen für’s Usenet
aktivieren, um diesem Narziß ein wenig mehr Trödelmarktspiegel vor die
Nase zu halten.

> Natürlich nicht allein schon weil viel zu alt. Nebenbei: UASP hat nix
> mit SAT (und damit SMART) zu tun.

Und mit Schaum vor dem Mund vergaß der Spahettikaiser ein Komma.

Mann, Mann, Mann …

Başar Alabay

unread,
Aug 21, 2014, 1:02:30 PM8/21/14
to
Andre Igler schrieb:

>>> Wie oft spulst Du die Bänder um?
>>
>> Also, einige Tonbänder lagen zuletzt ca. 30–40 Jahre unumgespult
>> herum und liefen vor 3 Jahren top durch. Außer eines, das ist 18
>> Jahre alt und praktisch tonnereif. Tja, älter ist besser.
> <OT> Das hat (auch) mit der Qualität des Trägerbandes (für die
> Magnetschicht) zu tun. Wenn die OK resp. "dicht" genug ist, dann schlägt
> auch die Magnetisierung nicht durch.

Jepp, das kann wohl sein. Interessanterweise gibt es auch Cassetten, die
nach 30 Jahren nicht so oder kaum durchgeschlagen haben.

> Wenn nicht, hilft auch das Umspulen wenig. Und nein, früher war nicht
> alles besser. Eher: U buy cheap, u get cheap. Früher genau so wie heute.
> </OT>

Vermutlich. Aber ich habe trotzdem das Gefühl, daß früher die Wertigkeit
vieler Nutzgegenstände definitiv besser war.

Başar Alabay

unread,
Aug 21, 2014, 1:17:11 PM8/21/14
to
Thomas Kaiser schrieb:

>>> Na jedenfalls, man kann schon mit SMARTReporter 2 (!) ziemlich in die
>>> Tiefe gehen.
>
> Ein echter Alabay. Die uralten 2er-Version nutzen fürs "Ermitteln" von
> Problemen diskutil (d.h. können nicht mehr als das, was das Festplatten
> Dienstprogramm anbietet) und verlassen sich für die Detailanzeige auf
> irgendeine 'zig Jahre alte smartmontools-Version, die nicht mal halbwegs
> aktuelle Platten/SSDs kennt.

Was raucht der bloß in seiner Freizeit?!
Vielleicht sollte er, der doch so gerne Quellen nennt, das mal belegen?
Welche uralten 2er Versionen? Was ist mit diskutil? Wozu dann smartctl?
Was, wenn dieses manuell ausgetauscht wurde? Die originale Version war
übrigens auch eine 5er oder 6er Version, da es kürzlich doch noch ein
neues Update gab. Weiß der Herr Ka-Smart wohl leider nicht :-)

> Wenn man SMART präventiv einsetzen will (was bei HDs nur bedingt klappt,
> bei SSDs hingegen abgesehen von DOA -- death on arrival -- relativ gut
> funktioniert), dann muß man regelmäßig SMART-Werte _richtig_ auslesen
> und ebenso regelmäßig SMART-Selbsttests abfeuern. Völlig sinnlos, das
> mit dieser uralten Version angehen zu wollen.

Wovon redet er? :-))) smartctl 6.3 ist »uralt«? :-)

> So, ich werd mal das Scoring auch auf References-Header ausdehnen, damit
> ich von solchem Wirrsinn auch via Zitatebene verschont bleibe. :-)

Gibt es in München keine guten Psychosomatischen Kliniken oder so? Ich
glaube, ich werde mal ein paar andere Mailadressen für’s Usenet
aktivieren, um diesem Narziß ein wenig mehr Trödelmarktspiegel vor die
Nase zu halten.

> Natürlich nicht allein schon weil viel zu alt. Nebenbei: UASP hat nix
> mit SAT (und damit SMART) zu tun.

Und mit Schaum vor dem Mund vergaß der Spaghettikaiser ein Komma.

Mann, Mann, Mann …

Markus Elsken

unread,
Aug 21, 2014, 1:24:24 PM8/21/14
to
Moin!

Am 21.08.14 um 19:02 schrieb Başar Alabay:
> Jepp, das kann wohl sein. Interessanterweise gibt es auch Cassetten, die
> nach 30 Jahren nicht so oder kaum durchgeschlagen haben.

Meine TDK MA-R spielen noch wie vor 25 oder gar 30 Jahren, ohne Echo.

mfg Markus

Patrick Kormann

unread,
Aug 21, 2014, 3:32:00 PM8/21/14
to
Am 21.08.14 18:50, schrieb Goetz Hoffart:

> Falsch geschaut. N36L, N40L und N54L k�nnen (auch) ECC. Ansonsten halt
> ein kleiner ML110, mein G6 ist *sehr* leise.

Ja, die Ns k�nnen aber nur 8 oder IIRC inoffiziell 16 GB. Ebenso wohl
der ML110? Wenn nein ist's eh zu sp�t, habe jetzt mehr oder weniger die
Komponenten aus
<http://b3n.org/nas-server-build-asrock-c2750d4i-silverstone-ds380/>
bestellt.
War das kompliziert, bei Amazon Deutschland war alles wesentlich
billiger, daf�r eine Komponente nicht an Lager und ne andere w�rde nicht
nach Spanien verschickt...


Goetz Hoffart

unread,
Aug 21, 2014, 4:13:57 PM8/21/14
to
Patrick Kormann <sir...@hotmail.com> wrote:

> Ja, die Ns k�nnen aber nur 8 oder IIRC inoffiziell 16 GB.

Sie kommen mit 16 GB ECC gut klar.

> Ebenso wohl der ML110?

Da gehen offiziell 16 GB. Mehr habe ich nicht probiert, meine 12 GB sind
mehr als �ppig f�r meine Einsatzzwecke.

Thomas Kaiser

unread,
Aug 21, 2014, 5:03:39 PM8/21/14
to
Patrick Kormann schrieb in <news:b2uhcb-...@news.sirdir.ch>
> habe jetzt mehr oder weniger die Komponenten aus
><http://b3n.org/nas-server-build-asrock-c2750d4i-silverstone-ds380/>
> bestellt.

Oops. Während in Villabajo noch getestet wird, wird in Villarriba schon
bestellt?! ;-)

Im Ernst aber für Dich wohl komplett uninteressant: Evaluierung mit 'nem
A1SAi-2550F (Quad- statt Octacore Avolon-Atom) als iSCSI-Target gegen
eine ESXi-Kiste mit ebenfalls 4 GBit-NICs per MPIO hat uns hier vorhin
wohl über 350 MByte/sek beschert, nachdem ein Checker übernommen hat,
weil ich das MPIO-Setup auch im dritten Anlauf nicht fehlerfrei
hinbekommen habe.

Mal weitersehen und erneut Gehäuse evaluieren. Gegenüber dem Kunden
werden wir wohl nicht (mehr) mit dem ASRock-Board antreten sondern mit
dem A1SAi-2750F plus separater PCIe-SATA-Karte. Die +350 MB/Sec braucht
aktuell wohl niemand beim Szenarium Backup-/Archiv-Target aber Reserven
sind nicht verkehrt. Und ich hoffe ganz stark, ausreichend Zeit zu
haben, den Kram sauber durchtesten zu können, denn write-cache bzw. "ZIL
auf SSD" bei Nutzung des ganzen Dings als reines iSCSI-Datensilo ist
mehr als spannend. Grad, um Consumer-SSDs mit unvorhersehbar hohen
Write-Latenzen gegen Server-Zeugs (in unserem Fall erst mal Intels
3700er-Serie) antreten zu lassen.

> War das kompliziert, bei Amazon Deutschland war alles wesentlich
> billiger, dafür eine Komponente nicht an Lager und ne andere würde
> nicht nach Spanien verschickt...

Komisch, meine losen Berührungspunkte mit spanischer IT ließen mich
glauben, das alles vor Ort assemblieren zu lassen, um keinen Ärger zu
haben, wäre die beste Idee. Aber hey, das war immer nur Blabla und in
Andalucía komplett Vargas-getränkt, während die noch ansprechbaren
Katalanen eher an mala herba zu leiden schienen. Insofern: Vermutlich
alles richtig gemacht :-)

Gruss,

Thomas

Patrick Kormann

unread,
Aug 21, 2014, 8:10:55 PM8/21/14
to
Am 21.08.14 23:03, schrieb Thomas Kaiser:

> Oops. Während in Villabajo noch getestet wird, wird in Villarriba schon
> bestellt?! ;-)

Wer testet denn? ;)

> Im Ernst aber für Dich wohl komplett uninteressant: Evaluierung mit 'nem
> A1SAi-2550F (Quad- statt Octacore Avolon-Atom) als iSCSI-Target gegen
> eine ESXi-Kiste mit ebenfalls 4 GBit-NICs per MPIO hat uns hier vorhin
> wohl über 350 MByte/sek beschert, nachdem ein Checker übernommen hat,
> weil ich das MPIO-Setup auch im dritten Anlauf nicht fehlerfrei
> hinbekommen habe.

Den Quadcore hab ich mir auch noch angeschaut, aber mir tut es schon
fast weh etwas zu bestellen das sich 'Atom' schimpft, dann nehm ich
nicht noch ein kleines Modell ;)
Und mit MPIO kenn ich mich auch nicht aus. Ich hab sogar schon Mühe mit
Trunking. Und bei ESXi bin ich eh ganz an der Oberfläche - ich mag auch
gar nicht tiefer graben, mangels passender Lizenz.
In meinem Fall wohl irrelevant, aber VMWare täte gut daran für den nicht
produktiven Einsatz ne 'vollwertige' Lizenz günstig anzubieten. Ich
denke auf dem Weg würde sich Virtualisierung schneller ausbreiten. Was
man von zuhause kennt...

> haben, den Kram sauber durchtesten zu können, denn write-cache bzw. "ZIL
> auf SSD" bei Nutzung des ganzen Dings als reines iSCSI-Datensilo ist
> mehr als spannend. Grad, um Consumer-SSDs mit unvorhersehbar hohen
> Write-Latenzen gegen Server-Zeugs (in unserem Fall erst mal Intels
> 3700er-Serie) antreten zu lassen.

Ja so das letzte Ende an Performance brauch ich eh nicht, aber für die
Datensicherheit musste ich was tun ;)

> Komisch, meine losen Berührungspunkte mit spanischer IT ließen mich
> glauben, das alles vor Ort assemblieren zu lassen, um keinen Ärger zu
> haben, wäre die beste Idee. Aber hey, das war immer nur Blabla und in
> Andalucía komplett Vargas-getränkt, während die noch ansprechbaren
> Katalanen eher an mala herba zu leiden schienen. Insofern: Vermutlich
> alles richtig gemacht :-)

Dass wir uns richtig verstehen, ich habe jetzt bei Amazon.es bestellt.
Assemblieren lassen durch wen? Kenne niemandem, dem ich das zutrauen
würde und die meisten Computershops in der Gegend sind eh pleite
gegangen. Und als sie noch nicht pleite waren, kamen sie mir manchmal
eher wie ein Museum vor.
Mein Lieblingsonlineshop (Am Sonntag abend bestellt, am Montag
Nachmittag das Paket schon da!) ist leider dieses Jahr auch pleite
gegangen :(

Message has been deleted

Thomas Kaiser

unread,
Aug 22, 2014, 7:10:35 AM8/22/14
to
Patrick Kormann schrieb in <news:adeicb-...@news.sirdir.ch>
> Am 21.08.14 23:03, schrieb Thomas Kaiser:
>
> Und mit MPIO kenn ich mich auch nicht aus. Ich hab sogar schon Mühe mit
> Trunking.

Das Wichtigste bzgl. beidem: Wissen, wann's was bringt und wann nicht ;-)

Trunking/Bonding/Link-Aggregation auf dem Netzwerk-Layer bringt nur was
in one-to-many- oder many-to-many-Situationen (also viele Clients, einer
oder mehrere Server). Eine einzelne TCP/IP-Verbindung wird dadurch nicht
schneller (aus 2 x 1 GBit/sec wird eben nicht 2 GBit/sec) weil sie immer
auf "link speed" beschränkt bleibt. Man gewinnt zwischen exakt zwei
Hosts also wenn dann nur Ausfallsicherheit. Und lohnen tut sich das
Ganze nur in der Breite.

Mutipath-I/O hingegen kann -- über dem vorherigen Layer angesiedelt --
durch Bündelung mehrerer Pfade nicht nur Ausfallsicherheit bieten
sondern de facto auch die Performance mehrerer Links bündeln. Aber
"brauchen" tut man sowas auch nur, wenn man komplexere Setups am Start
hat und Server und Storage trennt, was man besser nicht aus Jux und
Tollerei und "mal schnell eben" macht sondern nur, wenn's wirklich was
bringt (bspw. VMotion, wofür redundanter performanter Shared Storage
Voraussetzung ist).

> VMWare täte gut daran für den nicht produktiven Einsatz ne
> 'vollwertige' Lizenz günstig anzubieten. Ich denke auf dem Weg würde
> sich Virtualisierung schneller ausbreiten. Was man von zuhause
> kennt...

Naja, ich weiß ja nicht, ob das, was für IT seit paar Jahren
symptomatisch zu sein scheint (trotz 10-20-fach mehr Ressourcen im
Vergleich zu vor 5 Jahren beim Endanwender kontinuierlich weniger
Leistung und Qualität ankommen zu lassen) nicht auch direkte Folge
dieses "ich hab mal daheim damit rumgespielt... und wär doch gelacht,
wenn wir das nicht auch in der 4ma hingefrickelt bekommen würden?!" ist?

Es ist schon frappierend: Da steckt heute überall hochperformantes Blech
mehrfach redundant in den Racks, hat CPU- und RAM-Ressourcen, die im
Leben nicht gefordert werden, Interconnects, die das 10- bis 40-fache
hergeben im Vergleich zu früher. Und beim Endanwender kommt am Ende
30%-50% der Performance bzw. Servicequalität an im Vergleich zu dem
"ollen Schraddel", der abgelöst werden soll, weil's regelmäßig
konzeptionell oder im Rahmen der Implementierung verschisselt wird.

Und niemand mißt mehr irgendwas (richtig). Da wird drauf vertraut, dass
der neue Kram ordentlich teuer war und demzufolge dann auch alles
superperformant sein *muß* (derweil ist Virtualisierung grad wenn der
Storage ebenfalls betroffen ist, hochkomplex und erfordert Spezial-
wissen in 'zig IT-Teildisziplinen, die ein normaler Admin vor Ort
leider so gut wie nie hat)

Da werden ganze Büroneubauten bezogen ohne dass das Netzwerk wenigstens
mal auf Layer 1 durchgemessen/abgenommen wird, werden die falschen Racks
verbaut, so dass von Tag 1 an die Switch-Interconnects völlig abseits
der Spezifikation betrieben werden (weil durch geschlossene Racktür
kriminell geknickt), schafft man's, weil man sich 'ne Bedarfanalyse im
Vorfeld "gespart" hat, die Kombination "viel teurer" und "viel lahmer"
umzusetzen im Vergleich zu dem, was zeit- und bedarfgemäß wäre (10 GbE),
fährt untaugliche Link-Aggregation-Algorithmen auf den Switch-
Interconnects, bremst normalen Netzwerk-Traffic auf 40% runter, weil
idiotischerweise irgendwelche QoS-Policies Gesabbel (VoIP) über alles
stellen, etc. pp.

Und niemand mißt mal nach, bevor so Irrsinn in Betrieb geht (klar, die
Anwender spüren nur diffus, dass die neue Umgebung lahmer ist als die
alte. Und die IT (sei's Dienstleister oder interne Abteilung) hat nur
selten ein echtes Interesse daran, das eigene Versagen zu dokumentieren.
Schicke Patt-Situation. Naja, genug gejammert... :-)

> Ja so das letzte Ende an Performance brauch ich eh nicht, aber für die
> Datensicherheit musste ich was tun ;)

Ja, und das, was im professionellen Umfeld gilt (Backup und vor allem
Restore braucht eine zu den Service Level Agreements passende und sicher
abrufbare Performance), trifft ja "daheim" auch nicht zu :-)

Gruss,

Thomas

Patrick Kormann

unread,
Aug 22, 2014, 10:29:04 AM8/22/14
to
Am 22.08.14 13:10, schrieb Thomas Kaiser:

> Trunking/Bonding/Link-Aggregation auf dem Netzwerk-Layer bringt nur was
> in one-to-many- oder many-to-many-Situationen (also viele Clients, einer
> oder mehrere Server). Eine einzelne TCP/IP-Verbindung wird dadurch nicht
> schneller (aus 2 x 1 GBit/sec wird eben nicht 2 GBit/sec) weil sie immer
> auf "link speed" beschränkt bleibt. Man gewinnt zwischen exakt zwei
> Hosts also wenn dann nur Ausfallsicherheit. Und lohnen tut sich das
> Ganze nur in der Breite.

Das ist klar. Für den einzelnen User nützt es im Normalfall schon
deshalb nichts, weil er selbst ja auch nicht schneller angebunden ist
(oder geben mit link aggregation). Nachdem ich's mit meinem neuen Switch
nun gar nicht mehr vernünftig hingekriegt habe (ist ja auch nett, dass
die Terminologie an jeder Ecke ne andere ist und man dann immer
aufwendig nachforschen darf, welcher Standard denn nun unterstützt wird,
wenn überhaupt) hab ich mir jetzt damit beholfen, dass ich über den
einen Link auf meine Datenvolumes zugreife und über den anderen Link die
TimeMachine Backups mache.

> Mutipath-I/O hingegen kann -- über dem vorherigen Layer angesiedelt --
> durch Bündelung mehrerer Pfade nicht nur Ausfallsicherheit bieten
> sondern de facto auch die Performance mehrerer Links bündeln. Aber
> "brauchen" tut man sowas auch nur, wenn man komplexere Setups am Start
> hat und Server und Storage trennt, was man besser nicht aus Jux und
> Tollerei und "mal schnell eben" macht sondern nur, wenn's wirklich was
> bringt (bspw. VMotion, wofür redundanter performanter Shared Storage
> Voraussetzung ist).

Ja, davon hab ich nur mal gelesen, aber mich noch nicht im Detail damit
befasst.

> Naja, ich weiß ja nicht, ob das, was für IT seit paar Jahren
> symptomatisch zu sein scheint (trotz 10-20-fach mehr Ressourcen im
> Vergleich zu vor 5 Jahren beim Endanwender kontinuierlich weniger
> Leistung und Qualität ankommen zu lassen) nicht auch direkte Folge
> dieses "ich hab mal daheim damit rumgespielt... und wär doch gelacht,
> wenn wir das nicht auch in der 4ma hingefrickelt bekommen würden?!" ist?

Ich weiss nicht ob das so ist oder dir nur so vorkommt. Zugegeben, ich
bin seit fast 15 Jahren aus dem Profiumfeld fast raus und betreibe das
nur so als Hobby, aber eben ich versuche ja unserem Internetprovider
hier etwas zu helfen (... und das ist ein endloses Feld..) und wenn ich
sehe, was heute mit dem Einsatz von 'Pfennighardware' möglich ist, was
wir damals mit Hardware machten, die den Gegenwert eines
Oberklassewagens kostete...
Klar, man kann immer alles 'kaputtoptimieren'. Normalerweise bin ich da
immer sehr zurückhaltend. Aber ich hab jetzt auch gerade auf dem Router
eines Kollegen einen limiter auf dem Router aktiviert, weil ihm dieser
seine Verbindung wesentlich 'netter' auf 512 kbit/s upstream einbremst
als es sein Provider (DOCSIS) tut. Wenn er die seinen Upstream
ausgelastet hat, landete hatte ich pingzeiten zu ihm von ~8 Sekunden.
Jetzt sinds so 27 ms...
Meine Idee bez. 'zuhause rumgespielt' war eher, dass ich denke 99% der
Firmen (und ich meine jetzt nicht die, in denen du dich bewegst, sondern
die, wo die EDV halt nur so nebenbei läuft)
haben sich noch gar nicht mit Virtualisierung und deren Chancen befasst.
Aber hast schon Recht, die Chancen dass die nen Admin haben, der zuhause
mit sowas rumspielen würde ist wohl auch klein. Na egal, ich hätte gern
ein vSpehre zuhause zum Spielen :)

> Es ist schon frappierend: Da steckt heute überall hochperformantes Blech
> mehrfach redundant in den Racks, hat CPU- und RAM-Ressourcen, die im
> Leben nicht gefordert werden, Interconnects, die das 10- bis 40-fache
> hergeben im Vergleich zu früher. Und beim Endanwender kommt am Ende
> 30%-50% der Performance bzw. Servicequalität an im Vergleich zu dem
> "ollen Schraddel", der abgelöst werden soll, weil's regelmäßig
> konzeptionell oder im Rahmen der Implementierung verschisselt wird.

k.A. du bewegst dich da in einem anderen Umfeld als ich. Aber früher war
auch nicht alles besser. Wenn ich an den Bundesbetrieb denke, wo ich mal
gearbeitet habe. Der Chef kaufte alles, was von IBM kam (ich will da
nichts böses äussern, aber er hatte da sicher gute Gründe...) und
niemand hatte eine grössere Ahnung. Da wurden wild Kabel von Twinax und
Universeller Verkabelung getauscht, dabei waren die einen terminiert,
die andern nicht. Ach, das schlimmste war der Einsatz der AS/400
überhaupt... :) Und die ganzen OS/2 Rechner, auf denen bis auf die
Terminal Emulation AUSSCHLIESSLICH Windows Software (mehr schlecht als
Recht) lief. Die Firma, die ein einfaches Imaging-Installationsverfahren
für die Rechner gemacht hat (das noch nicht mal richtig lief) hat sich
dumm und dämlich verdient. Ich hab das dann mal auf NT 4.0 und
unattended install umgestellt... ohne mir eine goldene Nase zu
verdienen, im Gegenteil, ich war weit unter dem bezahlt, was man
kürzlich als Mindestlohn haben wollte.
Und ich hatte von den AS/400 ja sowieso keine Ahnung, aber wenigstens
wusste ich es. Als man mich gebeten hat in einer Aussenstelle eine
Tokenring Karte einzubauen hab ich angerufen und mir genau erklären
lassen wie und in welchen Slot. Trotzdem war das System dann urplörtlich
aus und es roch schön elekrtonisch. Zum Glück hatte es nur die Tokenring
Karte gegrillt und nicht das System. Ich hab dann mal selbst in die
Anleitung geschaut, hätte ich besser auch gleich gemacht, aber hey, wenn
man den Spezialisten fragt, der das 3-fache verdient... Es war IIRC ein
Memory slot, in dem er mich die Karte stecken liess. (ein anderes Thema
wäre ja dann, warum das überhaupt so einfach geht...)
Die Krönung war dann noch, dass der Feigling abstreiten wollte, dass er
mir das so gesagt hat.
Naja, was soll's, tempi pasati.

> Und niemand mißt mehr irgendwas (richtig). Da wird drauf vertraut, dass
> der neue Kram ordentlich teuer war und demzufolge dann auch alles
> superperformant sein *muß* (derweil ist Virtualisierung grad wenn der
> Storage ebenfalls betroffen ist, hochkomplex und erfordert Spezial-
> wissen in 'zig IT-Teildisziplinen, die ein normaler Admin vor Ort
> leider so gut wie nie hat)

... und wer bestellt sowas denn überhaupt? Irgend jemand muss ja sagen:
'Ihr braucht das' oder 'wir wollen das'.

> Da werden ganze Büroneubauten bezogen ohne dass das Netzwerk wenigstens
> mal auf Layer 1 durchgemessen/abgenommen wird, werden die falschen Racks
> verbaut, so dass von Tag 1 an die Switch-Interconnects völlig abseits
> der Spezifikation betrieben werden (weil durch geschlossene Racktür
> kriminell geknickt), schafft man's, weil man sich 'ne Bedarfanalyse im
> Vorfeld "gespart" hat, die Kombination "viel teurer" und "viel lahmer"
> umzusetzen im Vergleich zu dem, was zeit- und bedarfgemäß wäre (10 GbE),
> fährt untaugliche Link-Aggregation-Algorithmen auf den Switch-
> Interconnects, bremst normalen Netzwerk-Traffic auf 40% runter, weil
> idiotischerweise irgendwelche QoS-Policies Gesabbel (VoIP) über alles
> stellen, etc. pp.

Ja aber sag, wenn man die Verkabelung nicht selbst macht, gehört sowas
doch eigentlich zum Abnahmeprotokoll, nicht? QoS ist ein Thema für sich.
Siehe oben. Die meisten verstehen nicht, dass sie da keine Bandbreite
geschenkt kriegen...

> Und niemand mißt mal nach, bevor so Irrsinn in Betrieb geht (klar, die
> Anwender spüren nur diffus, dass die neue Umgebung lahmer ist als die
> alte. Und die IT (sei's Dienstleister oder interne Abteilung) hat nur
> selten ein echtes Interesse daran, das eigene Versagen zu dokumentieren.
> Schicke Patt-Situation. Naja, genug gejammert... :-)

Ich hoffe immernoch du übertreibst ,)

> Ja, und das, was im professionellen Umfeld gilt (Backup und vor allem
> Restore braucht eine zu den Service Level Agreements passende und sicher
> abrufbare Performance), trifft ja "daheim" auch nicht zu :-)

Kaum. Oder niemand würde das Budget bewilligen. Ich hätte ja gern
nochmal nen Satz Festplatten mitbestellt, möchte meinen Pool bei
gelegenheit mal anders aufbauen... Aber... zu teuer ;)


Goetz Hoffart

unread,
Aug 22, 2014, 2:09:50 PM8/22/14
to
Patrick Kormann <sir...@hotmail.com> wrote:

> haben sich noch gar nicht mit Virtualisierung und deren Chancen befasst.

... und Risiken. Es gab schon x Ausbr�che aus VM-Umgebungen.

Thomas Kaiser

unread,
Aug 23, 2014, 5:00:38 AM8/23/14
to
Goetz Hoffart schrieb am 22.08.2014 in <news:1lqsnxk.oqo8fm1ghiepcN%use...@hoffart.de>
> Patrick Kormann <sir...@hotmail.com> wrote:
>
>> haben sich noch gar nicht mit Virtualisierung und deren Chancen befasst.
>
> ... und Risiken. Es gab schon x Ausbrüche aus VM-Umgebungen.

Bzw. eigentlich noch viel "lustiger". Der Einzug von Virtualisierungs-
Features in CPUs reißt auch an ganz anderen Stellen plötzlich
Sicherheitslücken auf, an die man plötzlich auch noch denken muß, siehe

http://www.kb.cert.org/vuls/id/649219

Davon abgesehen halte ich es für extrem wahrscheinlich, dass sowohl die
aktuellen Mainstream-CPUs aus dem Hause Intel/AMD als auch kommerzielle
Virtualisierungslösungen à la VMWare/Hyper-V staatlicherseits verordnete
Hintertüren eingebaut haben, die bei Bedarf aktivierbar sind und wie
"doofe Bugs" aussehen (mit den billigend in Kauf genommenen Risiken und
Nebenwirkungen, dass sowas auch von kompetenten Exploit-Suchern auf
eigene Rechnung genutzt werden kann)

Ansonsten sehe ich nicht so wirklich, wie Virtualisierung in kleinen
Umgebungen das Sicherheitsniveau *noch* weiter senken sollte. (Nicht
existente) Password Policies, unverschlüsselte Übertragung von Logon
Credentials (ein Paßwort für alles, das dann auch beim HTTP-Zugriff aufs
interne Wiki verwendet wird, weil HTTPS braucht man da ja nicht) und bei
Serversystemen offene Hintertüren/Scheunentore Dank IPMI/BMC [1], etc.
pp. Da sind IMO paar neue Angriffsvektoren via VM-Management-Konsole und
die Möglichkeit, aus einer VM auszubrechen, kaum mehr der Rede wert.

"Normale Admins" sind schon längst mit der völlig normalen Komplexität
ihrer Umgebungen überfordert, haben keinerlei Sensibilisierung für
"IT-Security als Gesamtkonzept", und drum sprießen in solchen Umgebungen
die Vulnerabilities wie die Pilze aus dem Boden. Und die Pilzmetapher
bzw. das Pilzmyzel paßt dabei auch noch prima, denn da alles irgendwie
zusammenhängt, ändert man hier und die Lücke entsteht dort (und "dort"
ist aus der Perspektive des "normalen Admin" schon weit jenseits seines
Horizonts -- leider)

Gruss,

Thomas

[1] https://community.rapid7.com/community/metasploit/blog/2013/07/02/a-penetration-testers-guide-to-ipmi

Fritz

unread,
Aug 23, 2014, 9:24:41 AM8/23/14
to
Am 23.08.14 um 11:00 schrieb Thomas Kaiser:
> Bzw. eigentlich noch viel "lustiger". Der Einzug von Virtualisierungs-
> Features in CPUs reiᅵt auch an ganz anderen Stellen plᅵtzlich
> Sicherheitslᅵcken auf, an die man plᅵtzlich auch noch denken muᅵ, siehe
>
> http://www.kb.cert.org/vuls/id/649219

......

> [1]https://community.rapid7.com/community/metasploit/blog/2013/07/02/a-penetration-testers-guide-to-ipmi

Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac VMware
Fusion oder Parallels laufen hat und darin Windows oder Linux (in
Desktop Version) betreibt?

--
Fritz

Goetz Hoffart

unread,
Aug 23, 2014, 10:03:36 AM8/23/14
to
Fritz <frit...@gmx-topmail.de> wrote:

> Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac VMware
> Fusion oder Parallels laufen hat und darin Windows oder Linux (in
> Desktop Version) betreibt?

Dass Schadsoftware aus der virtuellen Maschine ausbrechen und deinen Mac
�bernehmen kann.

Thomas Kaiser

unread,
Aug 23, 2014, 10:27:47 AM8/23/14
to
Fritz schrieb in <news:53F89619...@uta.fritz-fqdn.dd-dns.de>
> Am 23.08.14 um 11:00 schrieb Thomas Kaiser:
>> Bzw. eigentlich noch viel "lustiger". Der Einzug von Virtualisierungs-
>> Features in CPUs reißt auch an ganz anderen Stellen plötzlich
>> Sicherheitslücken auf, an die man plötzlich auch noch denken muß,
>> siehe
>>
>> http://www.kb.cert.org/vuls/id/649219
>
> ......
>
>> [1]https://community.rapid7.com/community/metasploit/blog/2013/07/02/a-penetration-testers-guide-to-ipmi
>
> Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac VMware
> Fusion oder Parallels laufen hat und darin Windows oder Linux (in
> Desktop Version) betreibt?

Weder VMWare Fusion noch Parallels Desktop sind Bare-Metal-Hypervisoren
(was anderes ist es, wenn man VMWare ESXi direkt auf der einzig sinnigen
Mac-Plattform -- MacPro5,1 [1] -- einsetzt) und wie sollen IPMI-/BMC-
Schwachstellen am Mac eine Rolle spielen, wenn es keinen Mac (mehr)
gibt, der sowas an Bord hat (Ausnahme: die xServes ab 2006 hatten ein
IPMI-Subset, bei Apple LOM [2] genannt, an Bord)

Aber selbstverständlich betrifft das von Götz grundsätzlich erwähnte
Problem, dass VM-Gäste aus ihrem Käfig ausbrechen können, auch die
Desktop-Virtualisierungs-Lösungen am Mac. Evtl. sind die ja sogar 1:1
"kompatibel" zu den Bare-Metal-Lösungen (schon vor Längerem haben auf so
'ner Art IT-Stammtisch paar der Netzwerk-/Security-Checker geunkt, dass
es wohl analog zu "Wake on LAN" auch "Magic Packets" für "VM outbreak"
gäbe, die dann "Bugs" in den vmnic-Treibern -- bzw. "[legacy] network
adapters" bei Hyper-V wobei Microsoft ja keine Desktop-Virtualisierung
für den Mac im Programm hat bzw. diese in der Xbox 360 verschwunden ist
-- triggern und damit das Türchen vom Gast zum Wirt aufstoßen bzw. aus
einer VM heraus den Wirt angreifbar machen.)

Komplexität ist einer der Hauptantagonisten von IT-Sicherheit. Und
Virtualisierung ist 'ne ordentliche Schippe Komplexität noch oben
drauf...

Gruss,

Thomas

[1] http://www.virtuallyghetto.com/tag/mac-pro
[2] http://support.apple.com/kb/HT2773

Fritz

unread,
Aug 23, 2014, 11:15:46 AM8/23/14
to
Am 23.08.14 um 16:03 schrieb Goetz Hoffart:
> Fritz<frit...@gmx-topmail.de> wrote:
>
>> >Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac VMware
>> >Fusion oder Parallels laufen hat und darin Windows oder Linux (in
>> >Desktop Version) betreibt?
> Dass Schadsoftware aus der virtuellen Maschine ausbrechen und deinen Mac
> ᅵbernehmen kann.

Und wer hat eine solche schon 'in the wild' angetroffen?

--
Fritz

Fritz

unread,
Aug 23, 2014, 11:23:57 AM8/23/14
to
Am 23.08.14 um 16:27 schrieb Thomas Kaiser:
> Weder VMWare Fusion noch Parallels Desktop sind Bare-Metal-Hypervisoren
> (was anderes ist es, wenn man VMWare ESXi direkt auf der einzig sinnigen
> Mac-Plattform -- MacPro5,1 [1] -- einsetzt) und wie sollen IPMI-/BMC-
> Schwachstellen am Mac eine Rolle spielen, wenn es keinen Mac (mehr)
> gibt, der sowas an Bord hat (Ausnahme: die xServes ab 2006 hatten ein
> IPMI-Subset, bei Apple LOM [2] genannt, an Bord)
>
> Aber selbstverstᅵndlich betrifft das von Gᅵtz grundsᅵtzlich erwᅵhnte
> Problem, dass VM-Gᅵste aus ihrem Kᅵfig ausbrechen kᅵnnen, auch die
> Desktop-Virtualisierungs-Lᅵsungen am Mac. Evtl. sind die ja sogar 1:1
> "kompatibel" zu den Bare-Metal-Lᅵsungen (schon vor Lᅵngerem haben auf so
> 'ner Art IT-Stammtisch paar der Netzwerk-/Security-Checker geunkt, dass
> es wohl analog zu "Wake on LAN" auch "Magic Packets" fᅵr "VM outbreak"
> gᅵbe, die dann "Bugs" in den vmnic-Treibern -- bzw. "[legacy] network
> adapters" bei Hyper-V wobei Microsoft ja keine Desktop-Virtualisierung
> fᅵr den Mac im Programm hat bzw. diese in der Xbox 360 verschwunden ist
> -- triggern und damit das Tᅵrchen vom Gast zum Wirt aufstoᅵen bzw. aus
> einer VM heraus den Wirt angreifbar machen.)
>
> Komplexitᅵt ist einer der Hauptantagonisten von IT-Sicherheit. Und
> Virtualisierung ist 'ne ordentliche Schippe Komplexitᅵt noch oben
> drauf...

Wurden schon 'in the wild' solche Schᅵdlinge gefunden?

Auf der (MS) Welt laufen sicherlich unzᅵhlige Hyper-V Maschinen, die zum
Teil auch 'einen Fuᅵ' im Internet haben - wenn auch hinter einer Firewall.

Man denke z.B. nur an die unzᅵhligen Exchange Mail-Server.

--
Fritz

Patrick Kormann

unread,
Aug 23, 2014, 11:35:25 AM8/23/14
to
Am 23.08.14 16:27, schrieb Thomas Kaiser:

> Komplexität ist einer der Hauptantagonisten von IT-Sicherheit. Und
> Virtualisierung ist 'ne ordentliche Schippe Komplexität noch oben
> drauf...

Trotzdem. Irgendwie scheint es mir komplizierter, erst ein Gastsystem zu
übernehmen, dann durch einen Fehler in der Virtualisierung die
Virtualisierungsumgebung zu übernehmen und dadurch dann wieder auf einen
anderen Gast los zu gehen.
Wenn DAS mal nicht komplex ist. Da ist es ja ein vielfaches einfacher
jedes dieser Systeme direkt auszuhebeln...


Thomas Kaiser

unread,
Aug 23, 2014, 12:27:11 PM8/23/14
to
Fritz schrieb in <news:53F8B022...@uta.fritz-fqdn.dd-dns.de>
> Am 23.08.14 um 16:03 schrieb Goetz Hoffart:
>> Fritz<frit...@gmx-topmail.de> wrote:
>>
>>> >Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac
>>> >VMware Fusion oder Parallels laufen hat und darin Windows oder
>>> >Linux (in Desktop Version) betreibt?
>> Dass Schadsoftware aus der virtuellen Maschine ausbrechen und deinen
>> Mac übernehmen kann.
>
> Und wer hat eine solche schon 'in the wild' angetroffen?

Gute Frage, vor allem in einem völlig ausgestorbenen Seitenarm des
deutschsprachigen Usenet und dort in einem nahezu verwaisten Thread ;-)

Was würde es denn für Dich an Unterschied bedeuten, wenn jetzt irgend
'ne Schadsoftware beim Namen genannt würde? Dass Du die Problematik an
sich dann überhaupt ernstnehmen würdest?

Gruss,

Thomas

Goetz Hoffart

unread,
Aug 23, 2014, 12:39:58 PM8/23/14
to
Fritz <frit...@gmx-topmail.de> wrote:

> Und wer hat eine solche schon 'in the wild' angetroffen?

Was w�rde das �ndern? Es wurde gezeigt mit PoCs dass es geht. Es gab
schon Sch�dlinge, die das prinzipiell genutzt haben.

Damit hast du nun zwei M�glichkeiten:

a) das ignorieren wegen �wird mich schon nicht betreffen�
b) Gegenma�nahmen einl�uten

Eine Antwort �es hat schon n Leute betroffen� w�rde (a) vielleicht
schw�chen, aber nicht von der Aussage �ndern. Wenn du wartest bis eine
gro�e Anzahl von n betroffen ist, ist es ja eh schon zu sp�t.

Goetz Hoffart

unread,
Aug 23, 2014, 12:39:58 PM8/23/14
to
Patrick Kormann <sir...@hotmail.com> wrote:

> Trotzdem. Irgendwie scheint es mir komplizierter, erst ein Gastsystem zu
> �bernehmen, dann durch einen Fehler in der Virtualisierung die
> Virtualisierungsumgebung zu �bernehmen und dadurch dann wieder auf einen
> anderen Gast los zu gehen.
> Wenn DAS mal nicht komplex ist. Da ist es ja ein vielfaches einfacher
> jedes dieser Systeme direkt auszuhebeln...

Nicht jedes dieser Systeme muss aus dem Internet erreichbar sein. Und
nicht jedes dieser Systeme muss gleich leicht von au�en �bernehmbar
sein.

Da ist eine �bernahme des Hypervisors u.U. einfacher, vor allem da mir
dann eben eine ganze Menge Maschinen in den Scho� fallen kann, auch
welche, die gerne das Gold enthalten: Datenbankserver, Fileserver.

Thomas Kaiser

unread,
Aug 23, 2014, 1:17:17 PM8/23/14
to
Patrick Kormann schrieb in <news:luomcb-...@news.sirdir.ch>
> Am 23.08.14 16:27, schrieb Thomas Kaiser:
>
>> Komplexität ist einer der Hauptantagonisten von IT-Sicherheit. Und
>> Virtualisierung ist 'ne ordentliche Schippe Komplexität noch oben
>> drauf...
>
> Trotzdem. Irgendwie scheint es mir komplizierter, erst ein Gastsystem
> zu übernehmen, dann durch einen Fehler in der Virtualisierung die
> Virtualisierungsumgebung zu übernehmen und dadurch dann wieder auf
> einen anderen Gast los zu gehen. Wenn DAS mal nicht komplex ist.

Das war Götz' Szenarium. Ich halte an der Stelle was anderes für
interessanter: Wenn auf einem physischen Server plötzlich 10 virtuelle
laufen, dann wirkt sich eines der _klassischen_ Versäumnisse (IPMI- bzw.
iLOM-Zugang nicht sinnvoll abgesichert als ein Beispiel oder Standard-
Paßwort für VM-Verwaltungs-Interface) gleich viel drastischer aus, denn
im ersten Fall kannst Du ggf. Images von den VMs ziehen bzw. siehst Dich
mit einer root-Shell auf dem Hypervisor "konfrontiert", im zweiten Fall
hast Du normalerweise gleich Vollzugriff auf alle VMs Dank KVM).

Ebenso spannend wird wieder der Angriffsvektor Backup, denn da man die
ganzen VMs jetzt einfach so "schnell mal eben" auf irgendeine NFS-Share
schubsen kann... wird's auch gemacht, gerne mal mit laxer bzw. nicht
vorhandener Autorisierung. Und so'n komplettes Maschinen-Image, das man
in Ruhe forensisch untersuchen kann, ist schon ein netter Startpunkt, um
das eigentliche System aufzumachen, so sich das dann überhaupt noch
lohnt und nicht eh schon alles "Wissenswerte" im Backup-Image steckt.

> Da ist es ja ein vielfaches einfacher jedes dieser Systeme direkt
> auszuhebeln...

Naja, siehe oben. Neue bzw. wieder aufgewertete alte Angriffsvektoren.
Dazu kommt, dass in kleinen Umgebungen Sachen, die man aus gutem Grund
physisch trennt, jetzt nur noch logisch segmentiert: VM-Wirt hat bspw.
mehr als 2-3 NICs und da kommt man auf die Idee, dass man die Firewall
nebst DMZ gleich mit virtualisiert. Da die heutigen Switches VLANs
unterstützen wird dann gleich konsequent weiter gemischt statt physisch
getrennt und der virtuelle DMZ-vSwitch wird per VLAN mit physischen
Komponenten wie dem Router vom Provider verbunden statt sowas über einen
separaten physischen Switch zu lösen. Und in der Eile übersieht man
dann, dass man einen physischen Port sowohl dem DMZ-VLAN als auch dem
internen zugewiesen hat. Und schon ist das angestrebte Setup à la

LAN <--> Firewall/ALG <--> DMZ <--> Paketfilter/Router <--> Internet

einem Witz gewichen (und solche Dinger hab ich schon mehrfach gefunden
bzw. aus Versehen finden lassen -- OpenNMS' linkd scannt ganze Netzwerke
ab bzw. versucht, die zu kartographieren [1] und dabei fällt dann sowas
auf. Aber Monitoring ist in kleinen Umgebungen ja Fremdwort... naja, in
vielen großen leider auch)

Das andere Risiko, dass der VM-Hypervisor einen Bug im vmnic- und/oder
vswitch-Code hat, der die "Undurchlässigkeit" virtueller Netze aufhebt
bzw. man aus Versehen hier schon alles kaputtkonfiguriert und demzufolge
Devices in eigentlich getrennten Netzen sich gegenseitig erreichen
können, besteht natürlich auch immer.

Sowas in der Richtung meinte ich bzgl. Komplexität...

Und das ist alles keine Theorie, das sind praktische Erfahrungen. Grad
die sperrangelweiten Hintertüren bzgl. IPMI, iLOM und Konsorten sind
toll (deren Auswirkung natürlich umso netter werden, je mehr VMs oder
Container auf dem Server laufen).

Man diskutiert wochenlang mit der IT-Security, ob man endlich mal einen
Account auf den Serversystemen bekommt, schaut sich dann die Adressen
der Sun-Kisten an, fragt sich, warum da alle 4 Adressen immer eine
fehlt, vermutet mal auf blöd, dass die dazwischen fehlenden Adresse den
iLOM-Interfaces gehören und landet 'nen Volltreffer, weil auf allen
Servern im iLOM ein "console -d0" hinterlegt ist. D.h. normalen Account
kriegt man "aus Sicherheitsgründen" nicht aber root-Shell ohne Paßwort
für jeden im Netz ist schon drin. Und bei PC-basierten Servern sieht's
meist nicht besser aus: keine oder default Logon Credentials und BMC-
bzw. IPMI-/LOM-NIC im normalen Netz.

Gruss,

Thomas

[1] http://www.opennms.org/wiki/Linkd

Fritz

unread,
Aug 23, 2014, 1:28:58 PM8/23/14
to
Am 23.08.14 um 18:39 schrieb Goetz Hoffart:
> Fritz<frit...@gmx-topmail.de> wrote:
>
>> >Und wer hat eine solche schon 'in the wild' angetroffen?
> Was wᅵrde das ᅵndern? Es wurde gezeigt mit PoCs dass es geht. Es gab
> schon Schᅵdlinge, die das prinzipiell genutzt haben.
>
> Damit hast du nun zwei Mᅵglichkeiten:
>
> a) das ignorieren wegen ᅵwird mich schon nicht betreffenᅵ
> b) Gegenmaᅵnahmen einlᅵuten

Welche Gegenmaᅵnahmen - wieder zurᅵck zu dezidierter Hardware fᅵr jeden
Server?

Fᅵr gelegentliches 'Aufdrehen' von virtuellen Maschinen sehe ich kein
grᅵᅵeres Risiko als wenn ich am Mac selber arbeite, besonders fᅵr jene
Anwendungsfᅵlle die ich damit abdecke.

--
Fritz

Hermann Schaefer

unread,
Aug 24, 2014, 4:29:23 AM8/24/14
to
Thomas Kaiser schrieb:

> Gute Frage, vor allem in einem völlig ausgestorbenen Seitenarm des
> deutschsprachigen Usenet und dort in einem nahezu verwaisten Thread ;-)

Naja. Das ist eher ein elitärer Club altgedienter Ekschpärten hier, sozusagen
der de.alt.Country.Club..

Hermann Schaefer

unread,
Aug 24, 2014, 4:57:47 AM8/24/14
to
Thomas Kaiser schrieb:

> und da kommt man auf die Idee, dass man die Firewall
> nebst DMZ gleich mit virtualisiert.

Wird erschreckend oft vorgeschlagen von "Experten", die gerne VMWare an den Mann
resp. Geschäftsfrau bringen wollen. Und wenn man dann auf die dezenten Risiken
hinweist, wird man blöd angeschaut (und angemacht).
Für mich ist 'en Firewall immer 'ne komplett eigene physisch getrennte Kiste und
DMZ-Maschinen ebenso. Aber dann lohnt sich die Virtualisierung ja gar nicht so
wirklich... na so was aber auch..

> einem Witz gewichen (und solche Dinger hab ich schon mehrfach gefunden
> bzw. aus Versehen finden lassen -- OpenNMS' linkd scannt ganze Netzwerke
> ab bzw. versucht, die zu kartographieren [1] und dabei fällt dann sowas
> auf. Aber Monitoring ist in kleinen Umgebungen ja Fremdwort... naja, in
> vielen großen leider auch)

Och, da reicht manchmal schon eine Hand aus. Einfach mal physische Kisten zählen
und Anzahl Server. Da wird dann auch mal der Edge-Server auf der gleichen Kiste
wie der Exchange und die Firewall betrieben. "Da kann nichts passieren,
ehrlich!". Jo. Klar. Und Sonntags immer brav in die Kirche.

Aber am schlimmsten sind tatsächlich "vergessene" Dinge, also schnelle Hacks, um
mal schnell was zum laufen zu kriegen und dann wieder vergessen wurde. Immer
wieder erschreckend, was man da so mit einfachen Mitteln wie Etherpeek findet.
Das offene Gäste-WLAN hat da auch mal den gleichen Bereich wie die IPMI der
Server (10.0.0.x und 10.67.78.x und /8)..

Goetz Hoffart

unread,
Aug 24, 2014, 5:02:46 AM8/24/14
to
Hermann Schaefer <in...@zeitkind.de> wrote:

> Das ist eher ein elit�rer Club altgedienter Ekschp�rten hier, sozusagen
> der de.alt.Country.Club..

<prust> <tschuldigung> Wie genau definierst du �Elite�?

Wenn du gesagt h�ttest dass in den fr�hen bis mittleren 90ern in
maus.computer.atari.* die Elite von Experten war -- dann w�rde ich dir
nach einigem Kopfgewiege wohl zustimmen. Aber hier? Hier sind ein paar
vereinzelte Softwareentwickler, ein paar Dienstleister, AFAIK kein
einziger Hardwareentwickler und wohl keiner von Apple. Das ist f�r mich
nicht �Elite�.

Wenn dagegen mein Ironiedetekter grade verklemmte Zeigernadeln hat und
du mit elit�rer Club eher das Nase hochtragen meinst und weniger die
Auswahl an Wissen ...

Thomas Kaiser

unread,
Aug 24, 2014, 7:17:14 AM8/24/14
to
Hermann Schaefer schrieb in <news:c5tnoc...@mid.individual.net>
> Aber dann lohnt sich die Virtualisierung ja gar nicht so wirklich...
> na so was aber auch..

Um nochmal das Gruppenthema zu berühren... irgendwelche OS X Altlasten
lassen sich ziemlich nett weiter betreiben, wenn man sie in VM-Käfige
sperrt. Wir hatten das jetzt bei diversen Kunden, dass dort irgendwelche
ollen xServes vor sich hin liefen, niemand mehr genau wusste, was die
eigentlich im Detail machen (irgendwelches Java-Zeugs oder längst
ausgestorbene Workflow-Softwares). Die Admins haben nur Angst vor den
Dingern, weil teils noch 10.4/G4-basiert und mit Platten, die jetzt seit
~10 Jahren durchlaufen und wohl den nächsten Spindown nicht überleben.

Das Zeugs irgendwie auf 10.6/Intel heben und auf beliebigem Blech
mittels "Unlocker" wegzusperren, ist ziemlich nervenschonend. Wenn man
sich an Apples EULA gebunden fühlt, nimmt man halt 'nen MacPro 5,1 für
den Zweck. Ein Kunde hatte neulich Umzug und da war am Ende fast 1 Meter
1HE-Server übrig, die vorher wegvirtualisiert wurden. Das Gros des
Blechs waren xServes, die jetzt auf SuperMicro oder Dell weiterlaufen.

> Aber am schlimmsten sind tatsächlich "vergessene" Dinge, also schnelle
> Hacks, um mal schnell was zum laufen zu kriegen und dann wieder
> vergessen wurde.

Oder einfach der "Lauf der Dinge", da kommen dann neue Systeme, die von
irgendwem anders betreut werden (müssen) und ein Bein ins interne Netz
und eins ins externe haben (müssen). Und nach paar Jahren hast Du neben
Firewall/Proxy/Application-Level-Gateway gleich mehrere Server, die
internes LAN und Internet teils routend, teils NATend verbinden.

Gruss,

Thomas

Uwe Wunderlich

unread,
Aug 24, 2014, 1:07:18 PM8/24/14
to
Thomas Kaiser <Thomas...@phg-online.de> wrote:

> Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien, die
> idealerweise physisch getrennt vom zu sichernden System verwahrt werden
> (und keinesfalls _im System_ untergebracht sind) und verwechselt Backup
> dann auch nicht mehr mit Pseudo-Archivierung.

Wo soll ich denn hinsichern? TerryBytes �ber das Internet schicken oder
im Keller Bandlaufwerke mit FibreChannel zu stehen haben?

--
((( Klobi )))
_____________________________________________________________________

Goetz Hoffart

unread,
Aug 24, 2014, 3:00:18 PM8/24/14
to
Uwe Wunderlich <kl...@mac.com> wrote:

> Wo soll ich denn hinsichern? TerryBytes �ber das Internet schicken oder
> im Keller Bandlaufwerke mit FibreChannel zu stehen haben?

Du kannst das Bandlaufwerk auch per SCSI oder SAS anschlie�en. LTO
gibt's bezahlbar als Gebrauchtware vom H�ndler. Oder man nimmt RDX. Oder
zumindest einen Stapel externe Platten.

Wenn du wirklich Terabytes sichern musst, dann wird es dir das wert
sein.

Joe Kotroczo

unread,
Aug 24, 2014, 3:15:54 PM8/24/14
to
On 21/08/2014 07:04, Daniel K�ebs wrote:
> Ba?ar Alabay <ala...@gmx.net> wrote:
>
>> Das Wichtigste habe ich sogar noch auf Tonb�ndern, Cassetten und CDs :-)
>
> Wie oft spulst Du die B�nder um?

Wozu soll das gut sein. Rhetorische Frage, braucht keine Antwort.

Thomas Kaiser

unread,
Aug 24, 2014, 3:32:14 PM8/24/14
to
Uwe Wunderlich schrieb in <news:1lqwd2m.p5nrt41g43necN%kl...@mac.com>
> Thomas Kaiser <Thomas...@phg-online.de> wrote:
>
>> Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien,
>> die idealerweise physisch getrennt vom zu sichernden System verwahrt
>> werden (und keinesfalls _im System_ untergebracht sind) und
>> verwechselt Backup dann auch nicht mehr mit Pseudo-Archivierung.
>
> Wo soll ich denn hinsichern? TerryBytes über das Internet schicken
> oder im Keller Bandlaufwerke mit FibreChannel zu stehen haben?

Keine Ahnung, wie man TerryBytes sichert. Aber wenn Du ein gewöhnliches
Datenaufkommen hast, würde ich es mal mit TimeMachine probieren. Das ist
total Brandneues von Apple, das in aktuellen Versionen von Haus aus mit
rotierenden "Medien" (man sagt dann auch Festplatten dazu) umgehen kann.
Diese Festplatten kann man auch von A nach B tragen. Klingt komisch, ist
aber so.

Ein Spezl von mir hat ein Büro mit extrem überschaubarer Mitarbeiter-
zahl. Server ist ein oller MacPro (5,1), gesichert wird per TimeMachine.
Auf USB2-Platten, die von den Datenleitungen her an einem USB2-Hub und
elektrisch an einer programmierbaren Steckerleiste [1] hängen. Das
Programm, um die Platten an-/auszuschalten [2] läuft auch unter OS X,
eine simple Automator-Action als iCal-Plugin gesichert macht "diskutil
mount/unmount" und schaltet die Platten der Reihe nach ein und aus und
zwei der Kolleginnen nebst Cheffe haben durch simple Terminwiederholung
im Kalender die schlichte Erinnerung drin, jeweils eine der USB-Platten
heimzunehmen und nach 'ner Woche wieder mitzubringen und anzustöpseln.
Klappt erstaunlich oft.

Nicht perfekt aber weitaus besser als das, was 99,9% der Firmen am Start
haben, wenn man sich die typischen Datensicherheits-Bedrohungen mal alle
im Detail anschaut. Und Dank FileVault 2 bzw. fdesetup [3] ist es auch
genau gar kein Problem, die Backups irgendwem mitzugeben (außer man hat
Globalschurken der Dimension NSA auch auf dem Schirm)

@Götz: Du hast Thunderbolt <http://www.mlogic.com/products/mtape>
vergessen. :-)

Gruss,

Thomas

[1] http://geizhals.at/de/gembird-energenie-eg-pms-6-fach-a732667.html
[2] http://sispmctl.sourceforge.net (MacPorts und Homebrew haben's an Bord)
[3] https://developer.apple.com/library/Mac/documentation/Darwin/Reference/ManPages/man8/fdesetup.8.html

Başar Alabay

unread,
Aug 24, 2014, 4:12:51 PM8/24/14
to
Thomas Kaiser schrieb:

>> Wo soll ich denn hinsichern? TerryBytes über das Internet schicken
>> oder im Keller Bandlaufwerke mit FibreChannel zu stehen haben?
>
> Keine Ahnung, wie man TerryBytes sichert. Aber wenn Du ein
> gewöhnliches
> Datenaufkommen hast, würde ich es mal mit TimeMachine probieren. Das
> ist

Kömich, kömich, grad eben hat er noch versucht drauf hinzuweisen, was
der Unterschied zwischen Backup und Pseudobackup ist.

Fooolltschekka-BUNNY-Narziß-Määän :-)))

Uwe, Götz hingegen hat Dir schon eine relativ nachvollziehbare Antwort
serviert. Man kann durchaus mit (z. B.) Retrospect auf externe Platten
raussichern. Bandlaufwerke haushaltsgünstig privat an einen mittel bis
ganz aktuellen Mac anschließen ist vermutlich nicht jedermanns Sache.
Nicht alle sind Nørtdz.

TM wiederum ist extrem angenehm zum »eben mal« und »Systemchen« schnell
zurückspielen. Und intern kann das nur beim MP 1,1–5,1 laufen, ansonsten
ist mir kein Rechner mit mehreren Plattenschächten bekannt.

B. Alabay

--
http://www.thetrial.de/
ケディエ・ばく・ハヤテ・あんら

Goetz Hoffart

unread,
Aug 24, 2014, 5:59:46 PM8/24/14
to
Joe Kotroczo <kotr...@mac.com> wrote:

> >> Das Wichtigste habe ich sogar noch auf Tonb�ndern, Cassetten und CDs :-)
> >
> > Wie oft spulst Du die B�nder um?
>
> Wozu soll das gut sein. Rhetorische Frage, braucht keine Antwort.

Aber vielleicht k�nnte man die Rechte reparieren?

Goetz Hoffart

unread,
Aug 24, 2014, 6:00:56 PM8/24/14
to
Ba?ar Alabay <ala...@gmx.net> wrote:

> ansonsten ist mir kein Rechner mit mehreren Plattensch�chten bekannt.

Mac mini, manche iMacs, mit Nachhilfe auch manche MacBook(Pro).

Başar Alabay

unread,
Aug 25, 2014, 1:48:01 AM8/25/14
to
Goetz Hoffart schrieb:

>> ansonsten ist mir kein Rechner mit mehreren Plattenschächten bekannt.
>
> Mac mini, manche iMacs, mit Nachhilfe auch manche MacBook(Pro).

Ach ja, es gab mal diese Serverminis, stimmt. Imacs mit mehreren
Schächten?! Ich spreche nicht von Basteleien. Da gibt es auch MP 1,1 mit
OSX 10.11 :-)

BTW, ich bin ja geschockt, wie günstig man MP 3,1 und 4,1
nachgeschmissen bekommt, 5,1 sind wohl noch zu attraktiv. Und 6,1 …
kauft das überhaupt jemand?

Ingo Keck

unread,
Aug 25, 2014, 5:44:59 AM8/25/14
to
Goetz Hoffart <use...@hoffart.de> wrote:

> Fritz <frit...@gmx-topmail.de> wrote:
>
> > Welche praktischen Auswirkungen hat das, wenn Jemand auf den Mac VMware
> > Fusion oder Parallels laufen hat und darin Windows oder Linux (in
> > Desktop Version) betreibt?
>
> Dass Schadsoftware aus der virtuellen Maschine ausbrechen und deinen Mac
> �bernehmen kann.

Also auch kein Windows mehr in der VM. Hilft aber gegen die NSA auch
nicht viel, wenn der Host eh schon unter MacOS X l�uft.

Ingo.
--
GeorgeSLO: We all know what happens to evil villans in the end.
Kevin C: They leave their jobs at Goldman Sachs, Haliburton, etc and
take positions in the federal government.
(user comments on Yehuda Moon)

Ingo Keck

unread,
Aug 25, 2014, 5:45:00 AM8/25/14
to
Thomas Kaiser <Thomas...@phg-online.de> wrote:

> Hermann Schaefer schrieb in <news:c5tnoc...@mid.individual.net>
[...]
> > Aber am schlimmsten sind tats�chlich "vergessene" Dinge, also schnelle
> > Hacks, um mal schnell was zum laufen zu kriegen und dann wieder
> > vergessen wurde.
>
> Oder einfach der "Lauf der Dinge", da kommen dann neue Systeme, die von
> irgendwem anders betreut werden (m�ssen) und ein Bein ins interne Netz
> und eins ins externe haben (m�ssen). Und nach paar Jahren hast Du neben
> Firewall/Proxy/Application-Level-Gateway gleich mehrere Server, die
> internes LAN und Internet teils routend, teils NATend verbinden.

Wenn die das Zeug offen und verst�ndlich dokumentieren m�ssten (und
daf�r auch die Zeit und das Geld bek�men), w�rde das viel seltender
passieren und auch schneller auffallen, falls doch.

Ich bin versucht ins n�chste Angebot eine billig-Version mit
Versagensgarantie aufzunehmen, im Sinne von: Wir k�nnen auch Sch**sse
auf dem Niveau der Konkurrenz, wenn das gew�nscht ist.

Thomas Kaiser

unread,
Aug 25, 2014, 8:38:37 AM8/25/14
to
Ingo Keck schrieb in <news:1lqxk31.1irk4si1nxeqo0N%to...@ingokeck.de>
> Thomas Kaiser <Thomas...@phg-online.de> wrote:
>
>> Hermann Schaefer schrieb in <news:c5tnoc...@mid.individual.net>
> [...]
>> > Aber am schlimmsten sind tatsächlich "vergessene" Dinge, also
>> > schnelle Hacks, um mal schnell was zum laufen zu kriegen und dann
>> > wieder vergessen wurde.
>>
>> Oder einfach der "Lauf der Dinge", da kommen dann neue Systeme, die
>> von irgendwem anders betreut werden (müssen) und ein Bein ins interne
>> Netz und eins ins externe haben (müssen). Und nach paar Jahren hast
>> Du neben Firewall/Proxy/Application-Level-Gateway gleich mehrere
>> Server, die internes LAN und Internet teils routend, teils NATend
>> verbinden.
>
> Wenn die das Zeug offen und verständlich dokumentieren müssten (und
> dafür auch die Zeit und das Geld bekämen), würde das viel seltender
> passieren und auch schneller auffallen, falls doch.

Wobei die Hürden zumindest in den paar Fällen, wo ich drüber gestolpert
bin, deutlich niedriger waren: Da fand der Entwicklungsleiter der Web-
Leute den Admin mit seinem Sicherheits-Kram so nervig, dass man die
Lösung halt an der offiziellen Infrastruktur vorbei gebaut hat oder ein
Softwarehersteller leidet an IT-Autismus und ist der Meinung, seine
Software wäre weder virtualisierungsfähig noch über reverse Proxies
sicher abzuschotten oder der Kunde will eigentlich irgendwie seinen
alten IT-Dienstleister schassen, merkt aber erst während er schon dabei
ist, dass der gar nicht ersetzbar ist, weil dann erst auffällt, was der
alles "heimlich, still und leise" im Hintergrund macht. Dann haste aber
schon eine duale Infrastruktur und der alte Dienstleister lehnt nett
lächelnd jegliche Verantwortung für den von der Geschäftsführung
verursachten Wildwuchs ab, etc. pp.

> Ich bin versucht ins nächste Angebot eine billig-Version mit
> Versagensgarantie aufzunehmen, im Sinne von: Wir können auch Sch**sse
> auf dem Niveau der Konkurrenz, wenn das gewünscht ist.

Ich hätte da 'nen Ex-Kunden, der würde da sofort zugreifen. Welche
Branche? :-)

Gruss,

Thomas

Markus Elsken

unread,
Aug 25, 2014, 2:58:37 PM8/25/14
to
Moin!

Am 25.08.14 um 07:48 schrieb Başar Alabay:
> Ach ja, es gab mal diese Serverminis,

ALLE flachen minis ohne optisches Laufwerk haben zwei Schächte...

mfg Markus

Uwe Wunderlich

unread,
Aug 25, 2014, 5:01:46 PM8/25/14
to
Thomas Kaiser <Thomas...@phg-online.de> wrote:

> w�rde ich es mal mit TimeMachine probieren

Verwende ich doch...mit 8TB �ber Thunderbolt. Aber die Platte steht halt
neben dem mac mini. Und mitnehmen ist nicht. TM sichert doch dauernd.
Also soll ich nun in meinen Keller sichern, oder wie?

Goetz Hoffart

unread,
Aug 25, 2014, 5:07:37 PM8/25/14
to
Ba?ar Alabay <ala...@gmx.net> wrote:

> Ach ja, es gab mal diese Serverminis, stimmt.

Auch nicht-Server-Mac-minis passen idR zwei 2,5" Disks.

> Imacs mit mehreren Schächten?!

Platte+SSD.

> BTW, ich bin ja geschockt, wie günstig man MP 3,1 und 4,1 nachgeschmissen
> bekommt, 5,1 sind wohl noch zu attraktiv.

Warum sollte man sich auch jetzt einen Mac Pro 3,1 kaufen?

> Und 6,1 … kauft das überhaupt jemand?

Sicher. Hast du eine andere Antwort erwartet?

Grüße
Götz
--
http://www.knubbelmac.de/

Thomas Kaiser

unread,
Aug 26, 2014, 1:57:52 AM8/26/14
to
Uwe Wunderlich schrieb am 25.08.2014 in <news:1lqyiim.cjhn0c1gcam0cN%kl...@mac.com>
> Thomas Kaiser <Thomas...@phg-online.de> wrote:
>
>> würde ich es mal mit TimeMachine probieren
>
> Verwende ich doch...mit 8TB über Thunderbolt. Aber die Platte steht halt
> neben dem mac mini. Und mitnehmen ist nicht. TM sichert doch dauernd.

Aha, 8 TByte und "TM sichert doch dauernd". 8 TByte auf HFS+ ist für
meinen Geschmack jenseits von gut und böse (weil HFS+ bekanntermaßen
eines der am wenigstens robusten Dateisysteme in heutiger Zeit ist und
dann bei TimeMachine ja noch elend viele Verzeichnishardlinks oben drauf
kommen)

Wieviel Kapazität hat denn der Mini? Wieso braucht's da 8 TByte? Bist Du
Digitalmessie? Oder sicherst Du sich dauernd ändernde Monolithen
(VM-Images)? Oder Backup und Archiv verwechselt und die Backup-Historie
geht 3 Jahre zurück (und die Sicherungen brauchen vor allem deshalb so
lange, weil TimeMachine auf der externen Platte aufräumen muß, was wenn
da erstmal Milliarden Dateien bzw. Hardlinks drauf sind, ziemlich
zeitaufwändig wird)

> Also soll ich nun in meinen Keller sichern, oder wie?

Keine Ahnung, bei normalem Datenaufkommen und wenn man sich an die
Grundregeln "rotierende Medien" und "physische Trennung" hält, dann kann
man mit TimeMachine problemlos "echte Datensicherung" machen, die im
Ergebnis sogar teils Anforderungen an "Disaster Recovery" erfüllt.

Scheint bei Dir aber nicht der Fall zu sein.

Die Keller-Nummer ginge ja normalerweise evtl. schon per LAN. In dem
Modus wird TimeMachines Dateisystem-basierter Ansatz aber noch fragiler,
da dann immer mit einem SparseBundle hantiert wird und gerade das
"Aufräumen" (also alte Sicherungen wegwerfen, damit Platz für neue ist),
extrem anfällig dafür ist, dass der Mac die Verbindung zur TM-Share
verliert (bzw. nicht rechtzeitig innerhalb des sog. Reconnect Intervals
wieder herstellen kann). Dann zerbröselt einem das SparseBundle bzw.
dessen Dateisystem einfach so und man darf bei Null anfangen (was gar
kein so großes Problem wäre, wenn nicht die Hälfte der Leute eine
Backup-Lösung für Archivierungszwecke zu mißbrauchen versuchen)

Gruss,

Thomas

Başar Alabay

unread,
Aug 26, 2014, 3:11:29 AM8/26/14
to
Markus Elsken schrieb:

> Am 25.08.14 um 07:48 schrieb Başar Alabay:
>> Ach ja, es gab mal diese Serverminis,
>
> ALLE flachen minis ohne optisches Laufwerk haben zwei Schächte...

Ich habe da aufgehört, das zu verfolgen, als Minis ohne optisches
Laufwerk noch Serverminis hießen.

Başar Alabay

unread,
Aug 26, 2014, 3:12:28 AM8/26/14
to
Goetz Hoffart schrieb:

>> BTW, ich bin ja geschockt, wie günstig man MP 3,1 und 4,1 nachgeschmissen
>> bekommt, 5,1 sind wohl noch zu attraktiv.
>
> Warum sollte man sich auch jetzt einen Mac Pro 3,1 kaufen?

Weil 10.10 liefe.

>> Und 6,1 … kauft das überhaupt jemand?
>
> Sicher. Hast du eine andere Antwort erwartet?

Jepp.

Fritz

unread,
Aug 26, 2014, 6:47:39 AM8/26/14
to
Am 24.08.14 um 19:07 schrieb Uwe Wunderlich:
> Thomas Kaiser<Thomas...@phg-online.de> wrote:
>
>> >Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien, die
>> >idealerweise physisch getrennt vom zu sichernden System verwahrt werden
>> >(und keinesfalls_im System_ untergebracht sind) und verwechselt Backup
>> >dann auch nicht mehr mit Pseudo-Archivierung.
> Wo soll ich denn hinsichern? TerryBytes ᅵber das Internet schicken oder
> im Keller Bandlaufwerke mit FibreChannel zu stehen haben?

Das bei den ᅵblichen ADSL/XDSL/VDSL Upload Bandbreiten .....


--
Fritz

Fritz

unread,
Aug 26, 2014, 6:52:52 AM8/26/14
to
Am 25.08.14 um 23:01 schrieb Uwe Wunderlich:
> Thomas Kaiser<Thomas...@phg-online.de> wrote:
>
>> >wᅵrde ich es mal mit TimeMachine probieren
> Verwende ich doch...mit 8TB ᅵber Thunderbolt. Aber die Platte steht halt
> neben dem mac mini. Und mitnehmen ist nicht. TM sichert doch dauernd.
> Also soll ich nun in meinen Keller sichern, oder wie?

Auswerfen, abstecken, mitnehmen und andere anstecken mounten ....


--
Fritz

Fritz

unread,
Aug 26, 2014, 7:01:58 AM8/26/14
to
Am 26.08.14 um 07:57 schrieb Thomas Kaiser:
> Aha, 8 TByte und "TM sichert doch dauernd". 8 TByte auf HFS+ ist fᅵr
> meinen Geschmack jenseits von gut und bᅵse (weil HFS+ bekanntermaᅵen
> eines der am wenigstens robusten Dateisysteme in heutiger Zeit ist und
> dann bei TimeMachine ja noch elend viele Verzeichnishardlinks oben drauf
> kommen)

'HFS+ bekanntermaᅵen eines der am wenigstens robusten Dateisysteme in
heutiger Zeit'
Das darfst Du aber in so manchen Mac WEB Foren nicht erwᅵhnen .... <grins>

> Wieviel Kapazitᅵt hat denn der Mini? Wieso braucht's da 8 TByte? Bist Du
> Digitalmessie? Oder sicherst Du sich dauernd ᅵndernde Monolithen
> (VM-Images)? Oder Backup und Archiv verwechselt und die Backup-Historie
> geht 3 Jahre zurᅵck (und die Sicherungen brauchen vor allem deshalb so
> lange, weil TimeMachine auf der externen Platte aufrᅵumen muᅵ, was wenn
> da erstmal Milliarden Dateien bzw. Hardlinks drauf sind, ziemlich
> zeitaufwᅵndig wird)

Was passt da in einen alten MacMini 2.1 so rein?
2x2.5" HDs (CD/DVD Laufwerk ausbauen und Zwischenrahmen einbauen)

Muss mal schauen welche (bezahlbaren) Kapazitᅵten bei 2.5" SATA Platten
so angeboten werden. Ein wenig kᅵnnte man ja davon fᅵr das Mac OSX
abzweigen und bei der Gelegenheit gleich 2x2GB RAM einbauen (AFAIK davon
nur 3GB erreichbar) - oder das Mac OS X auf eine externe USB2 HD auslagern.

Bei meinen Tests mit dem MBP war ich erstaunt wie performant Mavericks
von einer nur per USB2 angeschlossenen externen Festplatte aus arbeitete.

--
Fritz

Thomas Kaiser

unread,
Aug 26, 2014, 7:34:05 AM8/26/14
to
Fritz schrieb in <news:53FC65CB...@uta.fritz-fqdn.dd-dns.de>
> Am 24.08.14 um 19:07 schrieb Uwe Wunderlich:
>> Thomas Kaiser<Thomas...@phg-online.de> wrote:
>>
>>> >Wenn man Backup begriffen hat, arbeitet man mit rotierenden Medien,
>>> >die idealerweise physisch getrennt vom zu sichernden System
>>> >verwahrt werden (und keinesfalls_im System_ untergebracht sind) und
>>> >verwechselt Backup dann auch nicht mehr mit Pseudo-Archivierung.
>>
>> Wo soll ich denn hinsichern? TerryBytes über das Internet schicken
>> oder im Keller Bandlaufwerke mit FibreChannel zu stehen haben?
>
> Das bei den üblichen ADSL/XDSL/VDSL Upload Bandbreiten .....

Zu den Bandbreiten kommen ja noch hohe Latenzen. Das wird gerne
vergessen, versaut einem aber bei untauglichem Setup von Übertragungen
bzw. keinen ausreichenden Vorkehrungen die praktisch erreichbaren
Uploadraten nochmal ziemlich.

Ansonsten gab's früher mal bei QSC "umgedrehte" ADSL-Anschlüsse, hatten
wir bei 2 Kunden für genau den Zweck (mehr Daten rausschieben, weil
Sicherung). Ah, wohl auch heute noch (Q-DSL home 3072 erreicht 2
MBit/sek. im Upstream)

http://www.q-dsl-home.de/download.html

Mit VDSL in Ballungsräumen kommt man für kleines Geld auf 5 bis 10
MBits/sec upstream (hier in München bzw. bei M"-Net sind's meist knappe
11 MBits/sec [1] für 35,- Tacken pro Monat). Aber ohne spezielles Setup
halt ich das eher für unpraktisch zumindest im Zusammenhang mit
TimeMachine (obwohl sowas ja sogar kommerziell in der Vergangenheit
angeboten wurde: TimeMachine quer durch's Netz, siehe Dolly Drive)
http://web.archive.org/web/20120624234157/http://www.dollydrive.com/)

Was hingegen gut klappt bei moderatem Änderungsvolumen ist das Sichern
lokal auf vernünftigem Storage (also ein Filer mit passenden Details wie
ECC-RAM und robustem/Snapshot-fähigem Dateisystem) von Sync des Deltas
im Vergleich zur letzten Sicherung an zweiten Standort. Mit FreeNAS
bspw. kann man sich das sogar in Grenzen per GUI zusammenklicken, wenn
man woanders noch ein zweites FreeNAS-System über VPN oder wenigstens
per SSH-Tunnel erreichbar hat. Es werden dann dort auch nur Datendeltas
Dank ZFS' "send/receive"-Mechanismus für den letzten Snapshot übertragen.

Dabei bleibt aber die sprichwörtliche Idiotensicherheit von TimeMachine
auf der Strecke, kommt im Regelfall durch die Komponente SparseBundle
mehr Komplexität/Fragilität ins Spiel und die Datenwiederherstellungs-
zeitfenster sind viel zu groß außer man kommt physisch schnell an den
anderen Standort. Mit anderen Worten: Spezielle Speziallösung, die kaum
für den privaten Einsatz taugen dürfte. :-)

Gruss,

Thomas

[1] http://kaiser-edv.de/tmp/tOcMRB/Bildschirmfoto%202014-08-26%20um%2013.13.16.png

Markus Elsken

unread,
Aug 26, 2014, 7:41:32 AM8/26/14
to
Moin!

Am 26.08.14 um 13:01 schrieb Fritz:
> Muss mal schauen welche (bezahlbaren) Kapazitᅵten bei 2.5" SATA Platten
> so angeboten werden.

Hitachi 1,5TB. Die normalen Samsung (jetzt Seagate) 1TB bekommt man ja
schon fast hinterhergeworfen.

Bei SSD ist die Grenze aktuell bei 1TB. Wᅵre fᅵr einen aktuellen Mini
lustig, ein 2,5TB FusionDrive :D

mfg Markus

Thomas Kaiser

unread,
Aug 26, 2014, 7:55:57 AM8/26/14
to
Fritz schrieb in <news:53FC6926...@uta.fritz-fqdn.dd-dns.de>
> Was passt da in einen alten MacMini 2.1 so rein?
> 2x2.5" HDs (CD/DVD Laufwerk ausbauen und Zwischenrahmen einbauen)

Der hat doch nur 1 x SATA und der Anschluß fürs optische Laufwerk ist
PATA? Dafür könntest Du (e)SATA mittels Mini-PCIe nachrüsten, wenn Du
die Kiste im Wortsinn aufbohrst:

http://www.xlr8yourmac.com/systems/mini_esata_card_mod/macmini_estatacard_mod.html

> Muss mal schauen welche (bezahlbaren) Kapazitäten bei 2.5" SATA Platten
> so angeboten werden.

Vielleicht im Hinterkopf haben, dass es schon 1 TByte im mSATA-Format gibt:

http://geizhals.at/de/samsung-ssd-840-evo-1tb-mz-mte1t0bw-a1048613.html

Und davon passen in das Volumen einer 2,5"-Platte mit 9,5 mm Bauhöhe
locker 4. Ich hab bisher aber nur Adapter für max. 2 mSATA-SSDs gesehen
und dann hast Du immer noch das Problem, dass Du intern zu wenig SATA-
Anschlüsse hast.

> oder das Mac OS X auf eine externe USB2 HD auslagern.

Firewire ist für ein externes Systemlaufwerk zu bevorzugen (weil in
jedem Fall DMA zum Tragen kommt und viel wichtiger, weil Firewire viel
besser Random I/O kann als das doofe MassStorage-Protocol von USB2 --
und das ist das Wichtige an "Systemplatte" und nicht irrelevante
Dauertransferraten). Warum man aber in so einen ollen Mini Platten
reinstecken sollte (je kleiner, je teurer), erschließt sich mir nach wie
vor nicht, wenn das Ding irgendwie nur NAS spielen soll. Da reichen
externe USB2-Enclosures wirklich für das Streaming von irgendwelchem
Kram.

> Bei meinen Tests mit dem MBP war ich erstaunt wie performant Mavericks
> von einer nur per USB2 angeschlossenen externen Festplatte aus
> arbeitete.

Platte oder SSD?

Gruss,

Thomas

Fritz

unread,
Aug 26, 2014, 8:10:01 AM8/26/14
to
Am 26.08.14 um 13:41 schrieb Markus Elsken:
> Am 26.08.14 um 13:01 schrieb Fritz:
>> >Muss mal schauen welche (bezahlbaren) Kapazitᅵten bei 2.5" SATA Platten
>> >so angeboten werden.
> Hitachi 1,5TB. Die normalen Samsung (jetzt Seagate) 1TB bekommt man ja
> schon fast hinterhergeworfen.

2TB 2.5" sind schon gang und gᅵbe, es gibt bezahlbare ext. USB2/3 2.5"
Festplatten. Laut Geizhals ist bei 2.5" momentan bei 2TB Schluss.

--
Fritz

Fritz

unread,
Aug 26, 2014, 8:25:25 AM8/26/14
to
Am 26.08.14 um 13:55 schrieb Thomas Kaiser:
>> >oder das Mac OS X auf eine externe USB2 HD auslagern.
> Firewire ist fᅵr ein externes Systemlaufwerk zu bevorzugen (weil in
> jedem Fall DMA zum Tragen kommt und viel wichtiger, weil Firewire viel
> besser Random I/O kann als das doofe MassStorage-Protocol von USB2 --
> und das ist das Wichtige an "Systemplatte" und nicht irrelevante
> Dauertransferraten). Warum man aber in so einen ollen Mini Platten
> reinstecken sollte (je kleiner, je teurer), erschlieᅵt sich mir nach wie
> vor nicht, wenn das Ding irgendwie nur NAS spielen soll. Da reichen
> externe USB2-Enclosures wirklich fᅵr das Streaming von irgendwelchem
> Kram.

Hast auch wieder recht - zumal selbst die leiseren 2TB 2.5" Festplatten
nicht besonders teuer sind.

Eine 3.5" 1TB FW800 (USB2, SATA) LaCie macht ganz schᅵn Krach.

Kann man in ein solches LaCie FW800 (d2 Quadra V2) Gehᅵuse auch SATA
Platten mit hᅵherer Kapazitᅵt stecken, oder wird das durch die LaCie
Controller Firmware verhindert? Eine 4TB ᅵber FW800 angebunden wᅵre auf
ᅵlteren Macs (USB2) ein Hit.

Der MacMini verfᅵgt nur ᅵber einen FW400 Anschluss.

>> >Bei meinen Tests mit dem MBP war ich erstaunt wie performant Mavericks
>> >von einer nur per USB2 angeschlossenen externen Festplatte aus
>> >arbeitete.
> Platte oder SSD?

Platte - die originale 250er Hitachi. Dies ist nun mein Test- und
Rettungs-System fᅵr alle Fᅵlle.

--
Fritz

Thomas Kaiser

unread,
Aug 26, 2014, 9:52:57 AM8/26/14
to
Fritz schrieb in <news:53FC7CB5...@uta.fritz-fqdn.dd-dns.de>
> Am 26.08.14 um 13:55 schrieb Thomas Kaiser:
>>> >oder das Mac OS X auf eine externe USB2 HD auslagern.
>> Firewire ist für ein externes Systemlaufwerk zu bevorzugen (weil in
>> jedem Fall DMA zum Tragen kommt und viel wichtiger, weil Firewire viel
>> besser Random I/O kann als das doofe MassStorage-Protocol von USB2 --
>> und das ist das Wichtige an "Systemplatte" und nicht irrelevante
>> Dauertransferraten). Warum man aber in so einen ollen Mini Platten
>> reinstecken sollte (je kleiner, je teurer), erschließt sich mir nach wie
>> vor nicht, wenn das Ding irgendwie nur NAS spielen soll. Da reichen
>> externe USB2-Enclosures wirklich für das Streaming von irgendwelchem
>> Kram.
>
> Hast auch wieder recht - zumal selbst die leiseren 2TB 2.5"
> Festplatten nicht besonders teuer sind.

Über 50 Tacken pro TByte -- 3,5" kriegt man für die Hälfte.

BTW: Ein Kunde von mir hat(te) in einen 2011 oder 2012 Mini zwei
WD20NPVT eingebaut, trotz 15 mm Bauhöhe. War angeblich mechanisch eine
Herausforderung (ohne Gewalt und leichte Verbeulung ging das Ding nicht
mehr zu) und anschl. wurde es ganz schön warm im Mini --> also eine von
den Dingern wieder rausgerissen und schon sah's thermisch besser aus.

Ich hab mir neulich ein UASP-fähiges USB3-Gehäuse geshoppt mit Ziel
"externe SSD" aber im Hinterkopf habend, dass da wohl irgendwann mal
dicke 2,5"-HDDs reinwandern werden. Das Praktische am IB-250StU3+BH15:
Kann nicht nur UASP und SAT (damit SMART auch im externen Gehäuse nutz-
bzw. auslesbar) sondern kommt mit 3 "Oberschalen", um 9,5/12,5/15 mm
Bauhöhe abdecken zu können. Die jetzt verbaute 7mm-SSD hält ein simpler
Filzgleiter in Position.

http://geizhals.at/de/raidsonic-icy-box-ib-250stu3-bh15-schwarz-20315-a992312.html

> Eine 3.5" 1TB FW800 (USB2, SATA) LaCie macht ganz schön Krach.

Ja mei, 3,5" und LaCie macht man ja auch nicht. Ich hab hier eine WD
Green mit 4 TByte, die quasi unhörbar ihren Dienst versieht (lüfterlos
betrieben und unterm Sofa). Allerdings sollte man WD Green vor dem
Einsatz in einem NAS und vor allem RAID unbedingt mit wdidle3.exe
behandeln sonst führt deren aggressives Schlafverhalten durch viel zu
viel Kopfparkzyklen (Load_Cycle_Count in SMART) zu frühem Tod.

Gruss,

Thomas

Markus Elsken

unread,
Aug 26, 2014, 9:53:47 AM8/26/14
to
Moin!

Am 26.08.14 um 14:10 schrieb Fritz:
> 2TB 2.5" sind schon gang und gᅵbe,

Aber leider nicht mit 9,5mm Hᅵhe, die WD 2TB ist 15mm dick.

mfg Markus

It is loading more messages.
0 new messages