#zpool create tank disco1
e questo crea il pool con un solo disco, ci copio sopra tutti i miei dati,
dopodiché con
#zpool attach tank disco1 disco2
viene creato il mirror e sincronizzati tutti i dati sul secondo disco.
Spero che almeno questo post inutile possa servire a qualcuno che incontra
il mio stesso problema :)
> #zpool create tank disco1
>
> #zpool attach tank disco1 disco2
>
> Spero che almeno questo post inutile possa servire a qualcuno che
> incontra il mio stesso problema :)
Infatti ci avevo già sbattuto il muso :-) ..Giusto per informazione..
Quanta ram hai sotto ?
Davide.
> Chiedo scusa a tutti. Googlando meglio ho scoperto la procedura. In realtà è
> semplicissimo, è solo che dovevo fregarmene del fatto che fosse FreeNAS e
> non usare l'interfaccia web.
Ciao.. Mi correggo in merito alla risposta postata stanotte.. In realtà
puoi farlo anche da interfaccia web.. Ma mi fermo qui perché siamo un
pochino OT e non vorrei esagerare.. :-)
Davide.
--
questo articolo e` stato inviato via web dal servizio gratuito
http://www.newsland.it/news segnala gli abusi ad ab...@newsland.it
Visto che ero su VMWare avevo una scelta abbastanza libera e ho messo un
gigabyte.
Ma dici usando la sezione Command che permette di eseguire comandi shell
direttamente dall'interfaccia web? O proprio nella sezione ZFS?
No.. attraverso il pannello grafico.. Il procedimento è un po' articolato
perché si deve prima far riconoscere il disco e prepararlo per il
filesystem "zfs pool storage".. Poi si va nella sezione zfs e da qui si
imposta il pool e tutte le personalizzazioni necessarie.. Scrivo a memoria
perché ora sono al lavoro.. Magari stasera riesco ad essere più preciso.
Ciao, Davide.
--
Il problema del capitalismo è che il padrone è troppo ingordo..
> Visto che ero su VMWare avevo una scelta abbastanza libera e ho messo un
> gigabyte.
Mi ero documentato e avevo letto che bastavano 512mb di ram per far andare
zfs, ma raccomandavano 1gb, e siccome io ne ho solo 512 avevo optato per
il raid1 ma ho avuto un grosso problema.. I dischi sono un wd10eacs e un
wd10ears e il secondo mi rallentava pazzescamente il sistema fino a
mandarmelo in freeze.. sullo schermo tutta una serie di avvisi
ad6:timeout... lba e un numero.. Avevo letto anche per ciò che riguarda il
problema di questi dischi per quel che riguarda il parcheggio testine..
Insomma.. fatto un po' di modifiche e tentativi vari ma senza riuscire a
far andare sto benedetto raid. Così l'ho smontato e ho azzardato con zfs
in modalità mirror.. Risultati.. nessun problema con i dischi, nessun
problema con i trasferimenti fra disco e storage e anche la velocità è
accettabile.. Ma aggiungerò altra ram fino a portarlo ad un giga..
wd10eacs e wd10ears... esattamente i due dischi che ho io -_-
> "ZioDave" <fa...@miei.it> ha scritto nel messaggio
>> I dischi sono un wd10eacs e un
>> wd10ears e il secondo mi rallentava pazzescamente il sistema fino a
>> mandarmelo in freeze..
Ema Nuele ha scritto:
> wd10eacs e wd10ears... esattamente i due dischi che ho io -_-
Cioč.. Al punto che qualcuno verrebbe da pensare che siamo la medesima
persona che si fa la domanda e si da la risposta... :-D
Aggiornamento.. Visto che sono di sperimentazioni, ho modificato il llc
timer sul wd10ears; l'ho portato a 30 secondi e ho rimesso il raid.. In
questo momento tutto fila liscio..
Anche a te avevano dato problemi messi assieme ?
Davide.
No, non li ho ancora messi insieme. Se leggi il mio primo post parlo di un
disco da 1TB formattato NTFS (wd10eacs) e un'altro identico (beh non proprio
identico :p) acquistato apposta per fare un mirroring. Per adesso il secondo
disco è in attesa. Appena posso mi compro l'hardware (qualche soluzione
mini-itx suppongo) e tiro su FreeNAS. Comunque dato che le prove su VMWare
sono andate bene credo al 99% che utilizzerò ZFS.
Preparati allora perch� saranno tempi duri.. I due dischi sono
apparentemente uguali e anche le dimensioni combaciano perfettamente..
La differenza � la dimensione dei settori che dai 512 byte standard, i
nuovi ears hanno una dimensione di 4096byte.. Sul sito della wd dicono
che a non soffrire di questo problema sono i nuovi s.o. microsoft
(vista, seven) e linux, ma smentisco categoricamente.. Con zfs (sono
riuscito a trovare 1gb di ram) il pool si installa e funziona senza
errori crc vari, ma � maledettamente lento.. Ho fatto un paio di test:
wd10eacs e wd10ears in zfs mirror.. trasferimento di un file da 700mb
circa da disco a pool impiega 1m06s circa..
2 wd10eavs nella medesima configurazione, lo stesso file impiega 29s
scarsi.. Mi sembra un po' troppa come differenza, anche per chi come me
non guarda tanto al fattore prestazionale..
Il mio hardware per completezza di informazioni �
mb asus p4pe-x
1gb ddr3200 400mhz
controller udma con attacco periferiche sata chipset via
Ciao, Davide.
>Il 11/12/2010 12:42, Ema Nuele ha scritto:
>>> Anche a te avevano dato problemi messi assieme ?
>>
>> No, non li ho ancora messi insieme...
>
>Preparati allora perché saranno tempi duri.. I due dischi sono
>apparentemente uguali e anche le dimensioni combaciano perfettamente..
>La differenza è la dimensione dei settori che dai 512 byte standard, i
>nuovi ears hanno una dimensione di 4096byte.. Sul sito della wd dicono
>che a non soffrire di questo problema sono i nuovi s.o. microsoft
>(vista, seven) e linux, ma smentisco categoricamente.. Con zfs (sono
>riuscito a trovare 1gb di ram) il pool si installa e funziona senza
>errori crc vari, ma è maledettamente lento..
Il troione deve essere partizionato con i settori allineati lungo il
coluro equinoziale, possibilmente di venerdi'.
http://article.gmane.org/gmane.linux.utilities.util-linux-ng/2926
In alternativa, fdisk -H ${HEADS} -S ${SECTORS} /dev/disk
dove SECTORS e' un numero divisibile per 8 (o quanti siano i settori
virtuali per settore reale: 4096/512 = 8, YMMV), HEADS e' divisibile
per 32. 256 sarebbe meraviglioso ma da' altri problemi ("otto bit e'
sufficiente per tutti" - cosa mi ricorda questa?), quindi 256-32=224
e' il second best. SECTORS, di nuovo, se regge 64 bene, ma con molta
probabilita' no, dunque 64-8 = 56.
Nel caso di "settori" da 2K, i valori sono 240 e 60.
Come sempre, garantisco freschezza ma non verita'.
Leonardo
P.S. e "Non soffre di problemi con Windows" la metterei accanto alle
sue compagne "Sono del Governo, e sono qui per aiutarla" e "Che
bel vestito, ti sta proprio bene"
<http://www.weird-websites.com/jokes/GreatestLies.htm>
--
Enough, enough! But, stranger, ere we part,
Glancing farewell to each nefarious bier,
This warning would I beg you take to heart:
There is an end to e'en the worst career!
> Il troione deve essere partizionato con i settori allineati lungo il
> coluro equinoziale, possibilmente di venerdi'.
>
> http://article.gmane.org/gmane.linux.utilities.util-linux-ng/2926
>
> In alternativa, fdisk -H ${HEADS} -S ${SECTORS} /dev/disk
>
> dove SECTORS e' un numero divisibile per 8 (o quanti siano i settori
> virtuali per settore reale: 4096/512 = 8, YMMV), HEADS e' divisibile
> per 32. 256 sarebbe meraviglioso ma da' altri problemi ("otto bit e'
> sufficiente per tutti" - cosa mi ricorda questa?), quindi 256-32=224
> e' il second best. SECTORS, di nuovo, se regge 64 bene, ma con molta
> probabilita' no, dunque 64-8 = 56.
>
> Nel caso di "settori" da 2K, i valori sono 240 e 60.
Allora.. Il "troione" è un osso molto duro.. Ciò che mi hai riportato
(giustamente) era quello che mi ero stampato googlando da tre giorni, ma
prima di metterlo in atto avevo fatto questo semplice ragionamento: se
io devo utilizzarlo sotto zfs, questi mi manda a donnone l'fdisk che
avevo preparato con cura.. e difatti facendo un fdisk -l sul device,
dopo aver messo il disco in pool zfs, mi risponde che non c'è una
partizione valida.. Quindi si deduce che tutto il discorso fatto sopra
vale soltanto se si deve installare il sistema sul suddetto disco, o
comunque se il filesystem da utilizzare sia ext3, ufs, ntfs eccetera..
tranne zfs.. A questo punto mi è andato l'occhio sull'etichetta del
disco che, riassumendo, dice che per utilizzarlo con xp c'è bisogno di
"appoggiargli" un jumperone tra il 7 e l'8 dei ponticelli.. Ok..
proviamo, mi sono detto, se così ora non và, male che và non andrà
nemmeno dopo.. e invece è andata :-)
Ci gode bene il troione col jumperone lì dietro... e inoltre.. senza lo
jumperone, fdisk -S 56 -H 224 /dev/sdd al disco gli fa un baffo al
quadrato, perché quando vai a creare la partizione, lui ti parte da un
cilindro a 4 cifre, mentre con il jumper il cilindro di partenza è il 7
(e qui ho impostato il 64)..
Comunque è grazie a te che mi hai aperto la strada giusta per la
soluzione.. Ti devo con piacere una birra :-)
Davide.
> P.S. e "Non soffre di problemi con Windows" la metterei accanto alle
> sue compagne "Sono del Governo, e sono qui per aiutarla" e "Che
> bel vestito, ti sta proprio bene"
> <http://www.weird-websites.com/jokes/GreatestLies.htm>
StraQuoto !! :-)
> P.S. e "Non soffre di problemi con Windows" la metterei accanto alle
> sue compagne "Sono del Governo, e sono qui per aiutarla" e "Che
> bel vestito, ti sta proprio bene"
> <http://www.weird-websites.com/jokes/GreatestLies.htm>
>
ma è bellissima :)
- To speak to a representative, press "9".
--
Wikipedia Admin: "wikipedia non è un blog"
Iosif Stalin: "i compagni hanno scambiato il partito per un circolo di
discussione"
Allora innanzi tutto Porca Troia! Mi son detto "vabbé l'EACS non esiste
più... l'EARS non sarà tanto diverso" e invece sticazzi questa cosa dei
settori proprio non la sapevo. Comunque mi sono perso un attimo nella tua
spiegazione... allora riassumendo l'EACS ha settori da 512 byte mentre
l'EARS li ha da 4096 e questo provoca molta lentezza nel mirror (dovuta
all'EACS e quindi l'EARS si adatta? oppure è proprio un discorso di
incompatibilità tra i due e quindi ad esempio l'EACS da solo va meglio?). La
tua soluzione consiste solo nel mettere quel jumper sull'EARS? Dopodiché
funziona tutto? Non ho capito fdisk cosa c'entra se io uso ZFS...
Scusa per la rottura di scatole ma prima di tirare su questo "nas" vorrei
essere certo di avere le idee chiare :)
ad6: WARNING - READ_DMA48 UDMA ICRC error (retrying request) LBA=734066048
ad6: FAILURE - READ_DMA48 status=51<READY,DSC,ERROR>
error=10<NID_NOT_FOUND> LBA=734066048
ad6: WARNING - READ_DMA48 UDMA ICRC error (retrying request) LBA=734067072
ad6: FAILURE - READ_DMA48 status=51<READY,DSC,ERROR>
error=10<NID_NOT_FOUND> LBA=734067072
Ma la causa sembra dipendere più dal controller che dal disco stesso
come spiegato da qui http://forums.freebsd.org/showthread.php?p=112389
ma sto ancora googlando :-)
--
Il più grande problema del capitalismo, è che il padrone è troppo ingordo.
> Scusa per la rottura di scatole ma prima di tirare su questo "nas"
> vorrei essere certo di avere le idee chiare :)
Mi scuso sin da ora per la lunghezza del post.
Ok.. Sono tre giorni e mezzo che ci sto sopra e credo che stavolta il
cerchio quadri del tutto..
Riassumendo: il wd10ears fa parte della famiglia dei settori a 4k, ma
può essere 'riallineato' (seppur in modo virtuale) mettendo un jumper
tra il 7 e 8 della serie di pin che si trovano dietro a fianco la presa
sata.. Senza questa operazione, qualora lo si voglia utilizzare per
partizionarlo e formattarlo nei vari formati imnpostando la dimensioni
dei settori a 512byte, non sarà possibile.. nemmeno avviando fdisk con
-S e -H impostati ad hoc.. Il comando, avviato in questa situazione, non
mostra alcun errore, ma quando si va a creare la partizione ci si
accorge che il cilindro di partenza è un numero a 4 cifre.
Di contro, utilizzando fdisk con il disco opportunamente ponticellato
sui jumper di cui sopra, PRIMA c'è da impartire fdisk con -H 224 -S 56,
dopodiché quando si crea la partizione, il primo cilindro disponibile
diventerà il numero 3.. Per motivi che adesso ignoro (ma che gli addetti
ai lavori conoscono benissimo, come il buon Leonardi Senni) il cilindro
iniziale deve essere un numero divisibile per 4.. Normalmente le
partizioni partono dal 63.. io ho messo 64 e tutto è andato bene..
Errori o imprecisioni di quanto esposto sono ben accette; sto scrivendo
soltanto in base alla mia esperienza. :-)
Ma.. così messo il disco non è detto che lavori bene, qualora debba
essere messo in unione con un altro hd differente, seppur della stessa
marca e della stessa dimensione, soprattutto se l'altro disco è della
vecchia generazione con i settori a 512byte. Cosa che è successa al
sottoscritto, già in possesso di un wd10eacs e che ne ho voluto
acquistare un altro per creare un raid o similare.. Qui le cose
cambiano.. fdisk non serve più, perché, non so in raid, ma in zfs è
completamente diverso dai filesystem abitudinari.. Utilizzando FreeNas
tramite interfaccia web, il sistema formatta il disco in zfs in modo
univoco senza fare fdisk.. e dando un fdisk al disco preparato in zfs,
il sistema non vede alcuna partizione.
La soluzione sta nel ponticellare il disco come spiegato sopra, e fare
attenzione che il disco non stia su un controller quale il chipset via
6421, ma anche qui va fatto un distinguo; perché ne ho alcune nello
scatolone di recupero.. alcune recenti e alcune un po' meno recenti, ma
vi assicuro tutte funzionanti.. Ebbene.. con alcuni controller il disco
non si comporta bene.. trasferisce correttamente verso dischi pata, ma
verso i suoi simili (sata) tira fuori una miriade di errori come postato
nel messaggio precedente
ad6: WARNING - READ_DMA48 UDMA ICRC error (retrying request) LBA=734066048
ad6: FAILURE - READ_DMA48 status=51<READY,DSC,ERROR>
error=10<NID_NOT_FOUND> LBA=734066048
ad6: WARNING - READ_DMA48 UDMA ICRC error (retrying request) LBA=734067072
ad6: FAILURE - READ_DMA48 status=51<READY,DSC,ERROR>
error=10<NID_NOT_FOUND> LBA=734067072
mentre con altri controller (mi pare quelli acquistati di recentissimo)
e sempre con lo stesso chipset, gli errori non compaiono e la velocità è
in linea con il suo "compagno" wd10eacs.
Quindi.. Ho creato il pool con zfs e ho provato a fare dei
trasferimenti.. Il file preso da esempio è un immagine di circa 700mb..
La prima copia si compie in circa 20 secondi e qui tutto è normale, ma
dal secondo in poi i tempi si alzano paurosamente fino a raddoppiarsi..
e anche qualcosina in più..
Quindi ho smontato il pool e ho creato un raid1 formattato con il
filesystem ufficiale di bsd.. ebbene.. qui i tempi rimangono in linea
con tutte le sessioni di copie..
Concludendo.. credo che zfs non sia ancora maturo per essere utilizzato
in modo principale su freenas (e d'altronde è anche specificato che è in
via sperimentale).. Quindi credo che se si vuole fare degli esperimenti
va bene, ma se si vuole archiviare al sicuro i propri dati, è il caso di
utilizzare ancora il raid..
Davide.
Bene! Grazie mille per le delucidazioni. A questo punto credo che seguirò il
tuo consiglio e per adesso mi limiterò ad un RAID1 in UFS.
> all'EACS e quindi l'EARS si adatta? oppure è proprio un discorso di
> incompatibilità tra i due e quindi ad esempio l'EACS da solo va meglio?). La
no il problema e' che i fliesystem per default hanno i blocchi logici
di 4k.
Ora, quando hai quelli fisici di 512 byte non succede niente perche'
tanto l'HD deve accedere a 8 fisici per ogni lettura/scrittura (4k
totali letti/scritti). Quando hai quelli fisici da 4k, se non sono
allineati a quelli logici per ogni scrittua/lettura devi accedere a 2
blocchi fisici quindi 8k => ci metti il doppio.
Quindi bisogna allinerali.
> tua soluzione consiste solo nel mettere quel jumper sull'EARS? Dopodiché
NOOOOO. quel jumper di merda serve (basta leggere le spiegazioni) per
win xp o precedenti, perche' di default mettono la partizione a
partire dal blocco fisico 31, che ovviamente non e' divisibile per 8,
e quindi sfasa i blocchi logici (4k) da quelli fisici (4k). Il jumper
fa un +1 all'indirizzo che arriva dal pc, mettendo cosi in fase i
blocchi fisici e logici.
Se non usi win non devi mettere il jumper.
Ciao Jack
> NOOOOO. quel jumper di merda serve (basta leggere le spiegazioni) per
> win xp o precedenti, perche' di default mettono la partizione a
> partire dal blocco fisico 31, che ovviamente non e' divisibile per 8,
> e quindi sfasa i blocchi logici (4k) da quelli fisici (4k). Il jumper
> fa un +1 all'indirizzo che arriva dal pc, mettendo cosi in fase i
> blocchi fisici e logici.
> Se non usi win non devi mettere il jumper.
Non contesto quanto riportato, ma ora, dopo aver ponticellato i due
piedini, il disco va come deve andare e sta in raid col wd10eacs in modo
corretto.. Che alla wd abbiano sviluppato qualche modifica alla funzione
del jumper ?
Tra l'altro.. Perché "fdisk -H$ -S$ /dev/disco" non ha alcun effetto senza
jumper e invece funziona a jumper inserito ?
ahh boh. giusto per capirci tu stai parlando del jumper sui piedini 7
e 8 vero?
>
> Tra l'altro.. Perch "fdisk -H$ -S$ /dev/disco" non ha alcun effetto senza
> jumper e invece funziona a jumper inserito ?
nessuna idea.
tra l'altro avevo letto (forse proprio qua su icols) che gli ears
avevano problemi con i raid per via del risparmio energetico.
Cerca nei post vecchi, c'era qualcuno che ha fatto dei test estensivi
su questi dischi.
Ciao Jack
>> Non contesto quanto riportato, ma ora, dopo aver ponticellato i due
>> piedini, il disco va come deve andare e sta in raid col wd10eacs in modo
>> corretto.. Che alla wd abbiano sviluppato qualche modifica alla funzione
>> del jumper ?
>
> ahh boh. giusto per capirci tu stai parlando del jumper sui piedini 7
> e 8 vero?
Esattamente.. e per essere più pratici quelli più vicini alla presa sata..
>>
>> Tra l'altro.. Perch "fdisk -H$ -S$ /dev/disco" non ha alcun effetto senza
>> jumper e invece funziona a jumper inserito ?
>
> nessuna idea.
>
> tra l'altro avevo letto (forse proprio qua su icols) che gli ears
> avevano problemi con i raid per via del risparmio energetico.
>
> Cerca nei post vecchi, c'era qualcuno che ha fatto dei test estensivi
> su questi dischi.
Infatti è la prima cosa che ho fatto non appena mi è arrivato l'hd.. E'
una discussione di febbraio e lì il problema era dovuto al llc del disco
che parcheggiava le testine dopo 8 secondi di inattività.. Ho scaricato
il tool wdidle3 ed ho modificato il tempo da 8 a 30 secondi, però qui è
sorto un altro problema.. e cioè unire due dischi di geometrie diverse
ma della stessa dimensione.. ed ora impostato così lavora bene..
Davide.
> Concludendo.. credo chezfsnon sia ancora maturo per essere utilizzato
> in modo principale sufreenas(e d'altronde è anche specificato che è in
> via sperimentale).. Quindi credo che se si vuole fare degli esperimenti
> va bene, ma se si vuole archiviare al sicuro i propri dati, è il caso di
> utilizzare ancora il raid..
ciao,
riattivo il thread perche' sto per farlo anch'io e non so se mettere
un raid5 o zfs.
Alla fine hai lasciato perdere zfs o ce l'hai fatta?
Ciao Jack
no, l'hanno spedita ieri, quindi oggi o piu' probabilmente domani. :)
Cmq pensavo a Freenas, anche se la tentatione di metterci su archlinux
e mettere in pensione Giskard (la mia attuale linuxbox) e' grande.
Mah faro' un po' di prove.
> Io comunque lascerei perdere zfs perche' incide parecchio a livello
> computazionale e andrei di raid5 sopratutto se l'uso e' casalingo.
>
> Qui ci sono alcune riflessioni sulla macchina, il thread e' lungo ma ne
> vale la pena, ci sono molte prove su strada di utenti, compreso chi ha
> provato zfs:
>
> http://hardforum.com/showthread.php?t=1555868&highlight=microserver
letto, grazie.
Ti faro' sapere.
Ciao Jack
> ciao,
> riattivo il thread perche' sto per farlo anch'io e non so se mettere
> un raid5 o zfs.
> Alla fine hai lasciato perdere zfs o ce l'hai fatta?
Ciao, per avercela fatta, si.. ci sono riuscito; il problema sono le
prestazioni veramente scadenti.. Non so se dipende dall'hardware, o dal
fatto che è ancora in via sperimentale (come peraltro dichiarato dai
messaggi di avvio del s.o.); il primo trasferimento che si fà verso lo
storage va in modo ottimale, ma i successivi rallentano paurosamente fino
al 50% in meno.. Alla fine ho ripiegato sul raid..
Ciao, Davide.
> Ciao, per avercela fatta, si.. ci sono riuscito; il problema sono le
> prestazioni veramente scadenti.. Non so se dipende dall'hardware, o dal
> fatto che è ancora in via sperimentale (come peraltro dichiarato dai
> messaggi di avvio del s.o.); il primo trasferimento che si fà verso lo
> storage va in modo ottimale, ma i successivi rallentano paurosamente fino
> al 50% in meno.. Alla fine ho ripiegato sul raid..
Ok grazie. Come detto a SAP, faro' un po' di prove e poi vi faccio
sapere.
Certo che sto Advanced Format al momento crea piu' casini che altro.
Ciao Jack
> Cmq pensavo a Freenas, anche se la tentatione di metterci su archlinux e
> mettere in pensione Giskard (la mia attuale linuxbox) e' grande.
Se devi mettere FreeNAS, allora tanto vale che tu metta FreeBSD (che si
trova in uno stato di aggiornamento piu` avanzato di FreeNAS) oppure
Debian/kFreeBSD. Questo se vuoi usare ZFS, altrimenti tanto vale che vai
con una distribuzione Linux a tua scelta. L'unico vantaggio di FreeNAS
rispetto ad una distribuzione generica e` dato dall'interfaccia web, cosa
che puoi ottenere anche installando Webmin sul sistema
Enrico
si uso Mac :)
ieri sera ho fatto un po' di prove con freenas/zfs via virtualbox e
l'unico problema che ho (ma che non ha soluzione facile) e' che non e'
possibile aggiungere dischi a un vdev in raidz.
Cosa brutta perche' ho gia' in casa 2 dischi che vorrei mettere nel
NAS ma sono parzialmente pieni e non ho modo spostare la roba che c'e'
dentro da qualche parte per poterli aggiungere al raidz dall'inizio.
Boh, vedro'. Oggi arriva (era gia' arrivato ieri, ma ovviamente non
ero a casa). Poi vi faccio sapere cosa ho fatto (e come l'ho fatto).
Specialmente per via degli EARS, che hanno problemi con zfs perche'
sti stronzi della WD fan dire bugie al disco. Da quanto ho letto la
soluzione sarebbe di forzare zfs ad usare blocchi da 4K come blocchi
piu' piccoli (visto che usa blocchi di dimensione variabile per
ottimizzare, se pensa che il disco ha settori da 512B, il blocco piu'
piccolo che puo' usare e' 512B) usando gnop (non chiedetemi cosa sia).
Ciao Jack
> Ma l'interfaccia di FreeNas rispetto a quella di Webmin e' anni luce
> avanti come usabilità e chiarezza...
Vero, pero` FreeNAS ha un grosso difetto rispetto a FreeBSD liscio: e`
fermo alla versione 7.x di FreeBSD. Di conseguenza, funzionalita` come
ZFS (che sono quelle che interessano all'OP) sono o in modalita`
sperimentale, o mancanti (e.g. zpool su FreeBSD 7 e` fermo alla versione
13, mentre su FreeBSD 8.1 e` alla 14 con supporto alle ACL NFSv4). A
questo punto, se proprio non si vuole rinunciare ad una interfaccia web
per la gestione remota, ritengo piu` proficuo utilizzare NextentaStor o
(per tornare in topic) Openfiler
> Inoltre Freenas ha il supporto di
> AFP out of the box cosa che per Jack che se non ricordo male usa anche
> Mac, potrebbe essere un plus.
Non lo vedo un grosso problema, sia per il fatto che OS X supporta di
sicuro NFS e CIFS, sia per il fatto che dovrebbe essere decisamente
semplice installarlo (e configurarlo)
Enrico
..CUT..
> ritengo piu` proficuo utilizzare NextentaStor o
> (per tornare in topic) Openfiler
Questa non la sapevo.. Grazie.. Scarico subito ;-)
Riguardo a openfiler, quello che mi ha fatto cadere la scelta su di lui
sono le richieste hardware superiori a freenas..
> Questa non la sapevo.. Grazie.. Scarico subito ;-)
Occhio che NexentaStor ha un "piccolo" difetto: per usi gratuiti non
permette di gestire array piu` grossi di 18TiB (limite accettabile in
molti casi)
> Riguardo a openfiler, quello che mi ha fatto cadere la scelta su di lui
> sono le richieste hardware superiori a freenas..
Personalmente non ne so molto, in quanto non l'ho mai usata, ma dovrebbe
richiedere le stesse risorse del kernel Linux piu` quelle per far girare
il web server utilizzato
Enrico
Bom, arrivato :)
Ho trovato un altro paio di HD (piu' piccoli) cosi posso fare il vdev di
5 dischi, inizio a copiare su roba e poi faccio il replace man mano che
vuoto gli altri due.
Quindi alla fine ci saranno 3 Seagate Barracuda 5900 da 2TB e 2 WD EACS
da 1.5TB.
Gli EARS li ho lasciati perdere.
Ora il piccolo e' su, con Freenas 0.7.2, con un bel pool zfs da 5 dischi
in raidz che sta copiando roba.
Purtroppo non ho un pc con la GB per provare a caricarlo bene con
l'I/O...
Daro' piu' dettagli quando avro' modo di stressarlo un po'.
Ciao Jack
--
Yoda of Borg am I! Assimilated shall you be! Futile resistance is, hmm?