#すみません、fj.comp.dev.disk,fj.sys.ibmpc,fj.os.linuxにクロスポストしてます。
#問題等ありましたらご指摘下さい。
おしえて君で申しわけないのですが、ご存じの方いらっしゃいましたら教えてください。
[Q] 自分の知人の間での謎な噂で
・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
・SCSIのHDDは壊れにくい
というのがあります。自分も何故か上の内容には同意しているのですが、
ただ科学的な根拠を問われても正直困っているありさまです。また自分で
比較実験等するわけにもいかず正直なんともいえません。
通常SCSIシステムは多少でも高額製品だったりするのでこの噂は本当なのか
を知りたいところです。何かご存じの方はいらっしゃいますでしょうか?
ネット位は調べまくったのですが、上の内容を根拠づけるような情報もみあたら
ないので困ってます。
私としてはサーバとしてSCSIが良いと思われる点は、
・ストライピングなどでI/O速度をあげることができる。
・テープドライブの選択が容易。
と言う話が一番です。
で、「壊れにくい」と言う話は、
・値段が高くできるので、良い部品を使っている可能性がある。
という意味ではそうかなぁと。
--
___ わしは、山吹色のかすてーらが大好きでのぅ
[[o o]] ふぉっふぉっふぉ
'J' 森下 お代官様 MaNMOS 英夫@ステラクラフト
PGP Finger = CD EA D5 A8 AD B2 FE 7D 02 74 87 52 7C B7 39 37
> で、「壊れにくい」と言う話は、
>
> ・値段が高くできるので、良い部品を使っている可能性がある。
カタログスペック上でSCSIのほうが
MTBFが長時間のものが多かったと思います。
特にサーバ用のものは。
--
かしわぎともみ kash...@cup.com
man...@stellar.co.jp (Hideo "Sir MaNMOS" Morishita) writes:
> > [Q] 自分の知人の間での謎な噂で
> >
> > ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
> >
> > ・SCSIのHDDは壊れにくい
...中略...
> 私としてはサーバとしてSCSIが良いと思われる点は、
>
> ・ストライピングなどでI/O速度をあげることができる。
> ・テープドライブの選択が容易。
>
> と言う話が一番です。
>
>
> で、「壊れにくい」と言う話は、
>
> ・値段が高くできるので、良い部品を使っている可能性がある。
>
> という意味ではそうかなぁと。
自分のSCSIが良いかなぁとあえて思う理由は以下のとおりです。
・SCSI搭載サーバの値段が元々高いので
高い物==良い物
であるという「気がする」。
・自分が遭遇している壊れるIDEシステムはサーバ製品じゃなかったりしてる。
でもこのサーバ製品じゃないPCが壊れていく様をよく見掛けるので、
サーバ製品でIDEってイメージが悪くて(根拠無根)それだけでなんとなく
買わない
・何故かOS側のIDEのドライバのバグばかり大きくマスコミに取り上げられたり
CHANGE LOGの上位にかかれたりしてとにかく気になる。
・目の前のPCがIDEでできていて良く壊れる。
(断っておきますが、中古PCなので比較になりません。)
等々...
ただ、
「サーバ用途といわれてPC選定する場合は結構プレッシャーがかかり、
ちょっとでも悪い予感がするものは無意識に選ばない」
という誠に非合理な判断を自分がしてしまうので困ってます。
ニュースシステムに SCSI の RAID を使ってますが、7年くらい壊
れないで動いています。IDE は、昨日も1個死にました。買い置き
してあるので交替しました。
In article <m38yj1m...@nightmare.hm.taito.co.jp>
Takahide Nojima <noj...@taito.co.jp> writes:
> [Q] 自分の知人の間での謎な噂で
> ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
> ・SCSIのHDDは壊れにくい
> というのがあります。自分も何故か上の内容には同意しているのですが、
> ただ科学的な根拠を問われても正直困っているありさまです。また自分で
> 比較実験等するわけにもいかず正直なんともいえません。
Linux って、SCSI ディスクを電源入れたまま抜き差しできましたっけ?
Sun は、できます。サーバ機なら、ディスクの増設でも止めたくな
いので、そういう機能が求められるのでは。
あと回転数が、SCSI だったら 10000 rpm くらいなので、回転待ち
時間が短いはずです。IDE だと 7200 くらい。
大容量 IDE で、回転数が遅いのありますよね。あれは、どのくら
い利いているんでしょう。
SCSI は気になるけれど、ファイバ・チャネルと IEEE 1394 も気に
なります。Sun Blade 1000 とか 2000 ならファイバ・チャネルと
IEEE 1394 を持っているのですが、それがどのくらい速いのか遅い
のか、何か情報はありませんか。
\\ 新城 靖 (しんじょう やすし) \\
\\ 筑波大学 電子・情報 \\
> ・SCSIのHDDは壊れにくい
ものに依ると思いますが、昔EmpireやFireballシリーズはMTBFが
ATA 5万時間
SCSI 8万時間
でした。RAIDなんかで台数が増えると、MTBFが効いてきます。
--
中村和志@神戸 <mailto:k...@kobe1995.net>
NAKAMURA Kazushi@KOBE <http://kobe1995.net/>
- Break the hate chain. No more kill!
administrator@127.1
壊れやすいというのに関しては下記のようなのもありました
http://www.skytown.ne.jp/nt/hardware_ide_scsi.shtml
"NAKAMURA Kazushi" <k...@kobe1995.net> wrote in message news:0402181340...@ns.kobe1995.net...
CPUへの負担がSCSIの方が少ない....と、よく聞きます。
どれくらい負担が少ないのかは、わたしにはわかりませんが....。
理由はSCSIコントローラーが独立して処理するため、だとか?
# 間違ってたらごめんなさい。
--
ほり <vg3...@moat.net>
データの信頼性という点では、絶対SCSI HDDがお勧めです。
Unreccovered Read Error の発生率は、SCSI HDDはIDE HDDのだいたい
1/10以下です。
すさまじく単純化して言うと、IDE HDDはSCSI HDDより、約10倍リード
エラーが発生しやすいということです (^^ゞ
--
ふにゃふにゃ
その10倍の差はどこから発生するのでしょうか?
「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基板が違う」と
聞いた事があるのですが、これはガセネタだったのでしょうか?
> Unreccovered Read Error の発生率は、SCSI HDDはIDE HDDのだいたい
> 1/10以下です。
> すさまじく単純化して言うと、IDE HDDはSCSI HDDより、約10倍リード
> エラーが発生しやすいということです (^^ゞ
なぜ、そのような大きな違いが存在するのでしょう? 久野
P.S. すさまじい? すざまじい? ずざまじい ^_^ なんか気になる…
ちょっとウェブをうろうろとしていると、こんな記事がありました。
http://searchstorage.techtarget.com/ateQuestionNResponse/
0,289625,sid5_cid487361_tax286192,00.html
(改行入っていますが、実際には繋がってます....)
記事が2002年の8月に書かれたものなので、若干古いですが、サーバ用途に
SCSIを使う理由として、Disk I/O で発生するCPU負荷の事も書かれていま
した。
スピード的には、現在SATAがあるので、かなりSCSIに近いかも、と思って
いますが、実際にわたしは比べたことはありません....。
# どこかにベンチマーク結果が落ちてないかな.....
--
ほり <vg3...@moat.net>
1セクタずつに付加されているECCの長さの違いです。
SCSI HDD は容量を犠牲にして、長いECCをつけているのです。
まあ、10倍のエラー発生率と言っても、
IDEの場合: 1/10^14
と
SCSIの場合: 1/10^15
との比較だから、大差ないと思えば大差ないかもしれない。
(この値は、最近のSeagateのHDDの場合です)
--
ふにゃふにゃ
ということで....
http://www20.tomshardware.com/storage/20031114/raidcore-24.html
故障率、となると冗長性を持たせる事でカバーできそうな気がします。
となると、あとはコストなのですが、SCSIよりもIDE(っていうかSATA)
の方がやはり安いです。他に気になるところでサーバ用途ですとスピー
ドですが、このベンチマークを見る限り、IDEも悪くないです。
(もちろん、利用環境下の違いで、色々と変わってくるでしょうし、
単純には比較できないかとは思いますが....)
--
ほり <vg3...@moat.net>
ke...@vanilla.freemail.ne.jpさん:
> 「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基
> 板が違う」と聞いた事があるのですが、これはガセネタだったのでしょ
> うか?
もしかして「そっと動かす」とか(だったらのろいはずか…)
もしかして「媒体をゆるく使う」とか(だったら容量が小さい?)
もしかして「個体差を計測していいやつをSCSIにつける」とか(ありそう?)
予想するのもなかなか楽しい 久野
In article <c0v0ei$1bho$1...@news0.katch.ne.jp>, ke...@vanilla.freemail.ne.jp (KOO) writes
> 「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基板が違う」と
> 聞いた事があるのですが、これはガセネタだったのでしょうか?
SCSIでも、安い奴はそうなんだと思います。IDE/SCSI変換がはいっ
ているとか。
IDE RAID でもいいんだけど、元のHDDの信頼性が低いとやっぱり
だめなんだよね。交換のために抜くとそれで壊れたりするし。
一方で、高い金を取るStorage もあるじゃないですか。そういう
のは、さらに選別しているんだってのを聞いたことがあります。
でも、使う方から見ると、値段で信頼性を選べた方が便利だと思う。
ので、そういう風にして欲しい。
---
Shinji KONO @ Information Engineering, University of the Ryukyus
河野真治 @ 琉球大学工学部情報工学科
#Sunのドライバもいっしょに書いてたんだけど。
In article <c0utfm$1jep$1...@news.moat.net>,
SCSIはintiaterがselectして、commandを出した後、(message inやoutがあっ
たりして)targetがデータの用意ができるまで、一度target側からbusを解放し
て、データの準備ができ次第今度はtarget側からreselectをかけてbusを確保
するというarbitrationを行います。その間、ほかのtargetとのデータ入出力
を行うことができます。そのデータ入出力は完全にSCSIコントローラが行いま
す。
IDEは一度データのやり取りが始まるとデータ入出力が終了するまで、BUSを確
保します。昔はそれをCPUが支配して行っていましたがさすがにPCIになってか
らはCPUがじかにはやってないと思います。
ただ、Masterが動いている間はSlaveは動けない。(逆もそうですが)IDEハード
ウエア遅いと、その速度に左右されるわけですが、SCSIだと、ストライピング
などで、うまくやると、BUSの能力文だけ速度が上がる可能性があるのがよろ
しい。と。
情報ありがとうございます。
"JR K Yoshikawa" <yosh...@ameritech.net> writes:
> SCSIのほうがCPUにかかる負荷が低いという話はよく聞きますが、
> (A+の教本でもそういっていますね)
たしかに良く聞くのですが、実際の利用で差が実感できる状況に
あったことないのでなんとも...
> 壊れやすいというのに関しては下記のようなのもありました
>
> http://www.skytown.ne.jp/nt/hardware_ide_scsi.shtml
これは面白いレポートです。ありがとうございます。
ただ、自分に信じられないのが上のURL中の次の文章で、
>複数のサービスで同時書き込み・読み出しが多いシステムには、あまり適して
>おりません。サーバ用途のハードディスクと言えども同時の作業が多ければ、
>書き込みエラーなどでファイルシステムの障害確率は多少なりとも高くなりま
>す
って、Linuxの場合キャッシュやらなんやらでIDEでもSCSIでも結局ちゃんと
シーケンシャルにディスク操作が常々行われるんじゃないんでしょうか?
だから自分の推論ではIDEもSCSIも
・寿命は一緒になるし、
・データのエラーレートも対してかわらんのでは?
と思ってるんですが、どうもSCSI/IDEではデータの破損のしやすさが
違うような気がして...
ke...@vanilla.freemail.ne.jp (KOO) writes:
> >Unreccovered Read Error の発生率は、SCSI HDDはIDE HDDのだいたい
> >1/10以下です。
> >すさまじく単純化して言うと、IDE HDDはSCSI HDDより、約10倍リード
> >エラーが発生しやすいということです (^^ゞ
>
> その10倍の差はどこから発生するのでしょうか?
>
> 「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基板が違う」と
> 聞いた事があるのですが、これはガセネタだったのでしょうか?
もしかして、SCSIのコントロール基板の方が結局HDDの使い方が上手とか?
# つまりレーサーの腕次第で同じレースマシンの壊れ易さも大きく違うとかの
#状況と一緒でしょうか?
<c0v458$2c...@utogw.gssm.otsuka.tsukuba.ac.jp>の記事において
ku...@gssm.otsuka.tsukuba.ac.jpさんは書きました。
kuno> > 「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基
kuno> > 板が違う」と聞いた事があるのですが、これはガセネタだったのでしょ
kuno> > うか?
kuno> もしかして「媒体をゆるく使う」とか(だったら容量が小さい?)
これはあると思います.
IDE (7200rpm) だと 80GB~100GB/platter ですけど, SCSI (10000rpm)
は 36GB/platter となっています.
WD の Raptor (10000rpm SATA) も 36GB/platter のはず.
--
名古屋大学大学院 情報科学研究科 計算機数理科学専攻
小野 孝男
<m38yj1m...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
> nojimaです。
> ・SCSIのHDDは壊れにくい
SCSI の方が熱に強いと聞いた事あります。SCSI だと隣り合わせで置いても壊
れないが、IDE だと隣り合わせで置くと熱で直ぐ壊れるとか。
#私は HDD は前面吸気ファンの直後に置いて、冷やすようにしています。
--
┏━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ 村上 智一 ( TomOne ) 鎌倉市在住 ┠┐
┃ URI: http://kikyou.sakura.ne.jp/~tomone/ ┃│
┃ E-Mail: tom...@kikyou.sakura.ne.jp (main) ┃│
┃ E-Mail: mrkm...@mtd.biglobe.ne.jp (sub) ┃│
┗┯━━━━━━━━━━━━━━━━━━━━━━━┛│
└────────────────────────┘
例えば、http://www.hgst.com/japanese/products/index.html から辿れるHDD
のGeneral Specification Informationを見てみると以下のようになってま
す。(機種が沢山あるので適当に選びました)
機種 Non-Recobable Error Rate
----------------------------------------
3.5 SCSI 1/10e16 bits transferred
3.5 IDE 1/10e14 bits transferred
2.5 IDE 1/10e13 bits transferred
MTBFは探せませんでしたが、これだけでも
> ・SCSIのHDDは壊れにくい
は言えると思います。
--
Mochizuki Wataru mailto:w-m...@hm.scn-net.ne.jp
In article <squoerw...@stellar.co.jp>, Hideo "Sir MaNMOS" Morishita wrote:
>IDEは一度データのやり取りが始まるとデータ入出力が終了するまで、BUSを確
>保します。昔はそれをCPUが支配して行っていましたがさすがにPCIになってか
>らはCPUがじかにはやってないと思います。
IDE の HDD で自動パワーオフを設定している場合,オフのデバイスにアク
セスすると実際に立ち上がるまで,画面の更新やネットワークアクセスは止
まります.推測になりますが,CPU も完全に占有されているのではないか
と.
#Windows ME.
#オンボードの IDE,PCI の ATA100 カード (Promise) のどちらも同じ.
--
Hideki Kato <mailto:ka...@pop12.odn.ne.jp>
----== Posted via Newsfeed.Com - Unlimited-Uncensored-Secure Usenet News==----
http://www.newsfeed.com The #1 Newsgroup Service in the World! >100,000 Newsgroups
---= 19 East/West-Coast Specialized Servers - Total Privacy via Encryption =---
と書かれると、「なぜSCSIの方が熱に強いのか」聞きたくなってしまいます:-)
Mochizuki Wataru <w-m...@hm.scn-net.ne.jp> writes:
> 例えば、http://www.hgst.com/japanese/products/index.html から辿れるHDD
> のGeneral Specification Informationを見てみると以下のようになってま
> す。(機種が沢山あるので適当に選びました)
>
> 機種 Non-Recobable Error Rate
> ----------------------------------------
> 3.5 SCSI 1/10e16 bits transferred
> 3.5 IDE 1/10e14 bits transferred
> 2.5 IDE 1/10e13 bits transferred
>
> MTBFは探せませんでしたが、これだけでも
> > ・SCSIのHDDは壊れにくい
>
> は言えると思います。
自分も上のURLを見てみたのですが、上の情報を導きだせる結果をどうしても
みつけることができませんでした。(自分のブラウザはMozzila 1.2.1使用)
選んだ機種は具体的には何と何でしょう?よかったら教えてください。
Takahide Nojima <noj...@taito.co.jp> writes:
> って、Linuxの場合キャッシュやらなんやらでIDEでもSCSIでも結局ちゃんと
> シーケンシャルにディスク操作が常々行われるんじゃないんでしょうか?
>
> だから自分の推論ではIDEもSCSIも
>
> ・寿命は一緒になるし、
> ・データのエラーレートも対してかわらんのでは?
>
> と思ってるんですが、どうもSCSI/IDEではデータの破損のしやすさが
> 違うような気がして...
なんとなくですが、
・IDE製品はDesktop向けに開発されたものを利用するため、
安価だが、MTBFが低く/エラーレートが高いものが多い
・SCSI製品はServer向けに開発されたものを利用するため、
高価だが、MTBFが高く/エラーレートが低いものが多い
という図式なのでしょうか?
nojima さんではありませんが,取り敢えず2機種ほど私が代表的と思うも
のを調べたら:
36Z15 10 in 10E16 (HGSTUltrastar36Z15.pdf)
7K250 1 in 10E14 (HGSTDeskstar7K250finalds.pdf)
とありました.
#Non-recoverable error rate
KOO wrote:
> 「最近のIDE用HDDはSCSI用HDDと素材的には同じで、コントロール基板が違う」と
> 聞いた事があるのですが、これはガセネタだったのでしょうか?
ガセとまではいえませんが、話を広げすぎ。
「そういうHDD機種もある(あった)」のは真実です.
4GBとか9GBの時代かなぁ
今では
IDEモデルしかないHDDとか、逆にSCSI/FCモデルのみで
IDEモデルが存在しない機種も多く存在します.
IDEと(スピンドルユニット)共用の安価なモデルのSCSI HDDは
ほぼ絶滅して、今はサーバ/ワークステーション用高級モデルし
かSCSI HDDはないというのが実情では?
on Wed, 18 Feb 2004 17:14:40 +0900
ta...@hirata.nuee.nagoya-u.ac.jp (Takao Ono) wrote
in【Re: 何故 SCSI 製品?】
<0402181714...@flame.hirata.nuee.nagoya-u.ac.jp>
>kuno> もしかして「媒体をゆるく使う」とか(だったら容量が小さい?)
>これはあると思います.
>
>IDE (7200rpm) だと 80GB~100GB/platter ですけど, SCSI (10000rpm)
>は 36GB/platter となっています.
>
>WD の Raptor (10000rpm SATA) も 36GB/platter のはず.
10000rpmクラスのHDDって,HDD自体は3.5インチでもプラッタはもっと小さい
はずなので,単純に1プラッタ当たりの容量が小さいから「媒体をゆるく使
う」とは言えないと思います。
--
// 北川 博文 (キタガワ ヒロフミ) //
// mailto:hi...@nerv.office.ne.jp //
// Fromへのメールは読みません //
<4034914b.7766%tow...@mail.goo.ne.jp>の記事において
tow...@mail.goo.ne.jpさんは書きました。
townes> >IDE (7200rpm) だと 80GB~100GB/platter ですけど, SCSI (10000rpm)
townes> >は 36GB/platter となっています.
townes> 10000rpmクラスのHDDって,HDD自体は3.5インチでもプラッタはもっと小さい
townes> はずなので,単純に1プラッタ当たりの容量が小さいから「媒体をゆるく使
townes> う」とは言えないと思います。
確かにその通りです... で終わってはしょうがないのでっと.
Seagate のディスクについてちょっと調べてみました.
トラック密度は
Cheetah 15K.3: 64,000tpi
Cheetah 10K.6 (ST-336607LW): 64,000tpi
Brracuda 7200.7 (ST-380013AS): 94,600tpi
1in^2 あたりのビット数で
Cheetah 15K.3: 不明
Cheetah 10K.6: 36,000Mbits/in^2
Barracuda 7200.7: 56.3Gbit/in^2
# マニュアルには Mbits/in^2 max と書いてあるが明らかにおかしい)
この数字からは「媒体をゆるく使っている」と言ってもいいのではない
でしょうか.
まず訂正から。
SCSI機のエラーレートが間違ってました。ゴメンナサイ。
別記事で加藤さんがおっしゃっていた、10 in 10E16 ≒ 1/10e15 でした。
>自分も上のURLを見てみたのですが、上の情報を導きだせる結果をどうしても
>みつけることができませんでした。(自分のブラウザはMozzila 1.2.1使用)
自分はOperaを使ってます。
以下のEnglish Pageからだと見つけやすいかも知れません。
(URLが長いので改行入れてます。)
http://www.hgst.com/portal/site/hgst/?epi_menuItemID=f3422d6ea3268f8
d5f5a530560e4f0a0&epi_menuID=22f0deefa8f3967dafa0466460e4f0a0&epi_ba
seMenuID=22f0deefa8f3967dafa0466460e4f0a0
> 選んだ機種は具体的には何と何でしょう?よかったら教えてください。
多分、これだと思います。
http://www.hgst.com/hdd/support/146z10/146z10.htm
http://www.hgst.com/hdd/support/d7k250/d7k250.htm
http://www.hgst.com/hdd/support/5k80/5k80.htm
上記を選んだ理由は、
1) 現在それぞれ主流と思われる回転数で、
(3.5SCSI/3.5IDE/2.5IDE = 10000/7200/5400)
2) 資料がPDFでは無かったもの
です。
http://www.acc.umu.se/~sagge/scsi_ide/#comparison
"KOO" <ke...@vanilla.freemail.ne.jp> wrote in message news:c10q2n$ggh$1...@news0.katch.ne.jp...
なるほど、「昔はそういう機器もあったが今は違う」という事ですね。
んー、例えば「SCSI用HDDにはIDE用HDDよりも“熱に強いデバイス”を選んで使っている」という
話だったら納得できるのですが…(^^;)
情報ありがとうございました。
Mochizuki Wataru <w-m...@hm.scn-net.ne.jp> writes:
> > 選んだ機種は具体的には何と何でしょう?よかったら教えてください。
>
> 多分、これだと思います。
>
> http://www.hgst.com/hdd/support/146z10/146z10.htm
> http://www.hgst.com/hdd/support/d7k250/d7k250.htm
> http://www.hgst.com/hdd/support/5k80/5k80.htm
>
>
> 上記を選んだ理由は、
> 1) 現在それぞれ主流と思われる回転数で、
> (3.5SCSI/3.5IDE/2.5IDE = 10000/7200/5400)
> 2) 資料がPDFでは無かったもの
> です。
上のスペックシートみました。確かに
・SCSIインターフェースの製品がエラーに強く出来ている
ということのようです。ただ、回転数も記録密度もインターフェース毎に
違う為、あくまで自分の印象ですが、
・インターフェースによらないHDD本体の信頼性が高くしてあるものは
SCSIインターフェースにして売り、
・インターフェースによらないHDD本体の信頼性が低いものは
ATA/SATAインターフェースにして売る
傾向があるような....
SCSI/IDEの技術的な理由よりは、ビジネス的理由(販売チャネルの理由)
により
・高信頼性製品 ---> SCSIにしてサーバ用途にすると売れる
・低信頼性製品 ---> ATA/SATAにして値段下げて売る。
というのが見えかくれ...
というわけで、サーバ製品にIDEが普通にのるようになると高信頼性HDDに
ATA/SATAインターフェースを載っけた製品が出てくる可能性があるという
ことなんですね?きっと。
HDDの信頼性を知りたければインターフェースで比較するんじゃなく
部品スペック見てHDDの信頼性のデータを見て決めた方がよさそうです。
あとは、Linuxのドライバのバグの在り無し/ドライバソフトの都合による
事故の起き易さ/ドライバソフトの性能の傾向が、
IDE/SCSIの間ではっきりすれば合理的な購入判断ができそうです。
LinuxのHDDドライバは信頼性としてはどうなんでしょ?
自分としてはHDDハンドリングの簡単な方が信頼性は高いように思っているのですが
(技術リスクは少ない)IDEインターフェースのドライブの仕方とSCSIのドライブの
仕方について探ってみることにします。
vg3...@moat.net (Hidenori HoRi) writes:
> ちょっとウェブをうろうろとしていると、こんな記事がありました。
>
> http://searchstorage.techtarget.com/ateQuestionNResponse/
> 0,289625,sid5_cid487361_tax286192,00.html
> (改行入っていますが、実際には繋がってます....)
>
> 記事が2002年の8月に書かれたものなので、若干古いですが、サーバ用途に
> SCSIを使う理由として、Disk I/O で発生するCPU負荷の事も書かれていま
> した。
こちらなのですが、今時のIDEチップセットって未だCPUに負荷かけるように
出来てるんでしょうか?Linuxが行うチップセットの実際のドライブの仕方
も見てみます。
IDEチップセットもどんどんインテリジェントになり、コマンドとメモリ
番地だけわたしてトリガをキックすればあとは全自動でディスクに読み書き
してくれたりはしないのかなぁ?
また、IDEチップセットは数が出るので少々インテリジェント(チップの技術
的には困難なためビジネス的にはハイリスク)なことしても値段が下げられる
とかの理由で、少々危なっかしいがドライバ性能/ドライバの信頼性上
いろいろと有利とかっていう話はないのでしょうか?
...只今推論中...
Takahide Nojima <noj...@taito.co.jp> writes:
> こちらなのですが、今時のIDEチップセットって未だCPUに負荷かけるように
> 出来てるんでしょうか?Linuxが行うチップセットの実際のドライブの仕方
> も見てみます。
>
> IDEチップセットもどんどんインテリジェントになり、コマンドとメモリ
> 番地だけわたしてトリガをキックすればあとは全自動でディスクに読み書き
> してくれたりはしないのかなぁ?
>
> また、IDEチップセットは数が出るので少々インテリジェント(チップの技術
> 的には困難なためビジネス的にはハイリスク)なことしても値段が下げられる
> とかの理由で、少々危なっかしいがドライバ性能/ドライバの信頼性上
> いろいろと有利とかっていう話はないのでしょうか?
もしかしてSCSI製品が信頼性が高いとゆーのは、
[1] HDDメーカーのビジネス的都合で
高信頼性HDD---> SCSIインターフェースにしてサーバ用途で売る
低信頼性HDD---> IDE/SATAインターフェースにしてサーバ用途で売る
[2] マザーボード上チップセットの技術案件について
SCSI --> 技術的に枯れてる?ので技術リスク低い
IDE/SATA -> SCSIに比べて技術的には進化しまくりなので技術リスク高い
[3] SCSI/IDE/SATAのLinux側ドライバにおいて
SCSI --> 技術的に枯れている上にチップのドライブが簡単。
だからプログラムも単純な設計がし易いので安定しやすく
バグも少ない。
IDE/SATA --> SCSIに比べて複雑かつ変遷が激しい。したがって
バグが混入しやすい
以上より
[1]による信頼性ファクタ x [2]による信頼性ファクタ x [3]による信頼性ファクタ
から信頼性についてSCSIが有利となるのでしょうか?
修正です。
Takahide Nojima <noj...@taito.co.jp> writes:
> [1] HDDメーカーのビジネス的都合で
>
> 高信頼性HDD---> SCSIインターフェースにしてサーバ用途で売る
> 低信頼性HDD---> IDE/SATAインターフェースにしてサーバ用途で売る
正>
低信頼性HDD---> IDE/SATAインターフェースにしてディスクトップPC用途で売る
<m3d68ap...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
> nojimaです。
> というわけで、サーバ製品にIDEが普通にのるようになると高信頼性HDDに
> ATA/SATAインターフェースを載っけた製品が出てくる可能性があるという
> ことなんですね?きっと。
雑誌広告見てみると、ATA ドライブで RAID 組んだものが売ってますね。
逆に元々 SCSI 用のドライブで SATA にしたのが、WD Raptor
http://www.westerndigital.com/jp/products/WD360GD.asp?Language=jp
<m34qtmp...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
> nojimaです。
> > こちらなのですが、今時のIDEチップセットって未だCPUに負荷かけるように
> > 出来てるんでしょうか?Linuxが行うチップセットの実際のドライブの仕方
> > も見てみます。
今の IDE は DMA 使ってるので、そんなに CPU を占領しないようです。少な
くとも家庭で使う程度では体感できないでしょう。
> > IDEチップセットもどんどんインテリジェントになり、コマンドとメモリ
> > 番地だけわたしてトリガをキックすればあとは全自動でディスクに読み書き
> > してくれたりはしないのかなぁ?
それが DMA だと思うのですが。
インテリジェントだと、コマンドの入れ替えをやっているドライブはあります
ね。SATA の方だと規格としても盛り込まれていた筈です。勿論 SCSI 程キュー
は多くないですけど。
> もしかしてSCSI製品が信頼性が高いとゆーのは、
>
> [1] HDDメーカーのビジネス的都合で
> 高信頼性HDD---> SCSIインターフェースにしてサーバ用途で売る
> 低信頼性HDD---> IDE/SATAインターフェースにしてサーバ用途で売る
ビジネス用(特にデータベース用)だと、値段は高くても信頼性が高い方が良い、
高速な方が良い。冷房が効いて人もいないサーバー室にあるので、15000rpm
の高熱・騒音(送風ファンの音も含む)でも問題無い。
一般家庭用だと、ひたすら安くて静かな方が良い。
この違いだと思います。
> [2] マザーボード上チップセットの技術案件について
> SCSI --> 技術的に枯れてる?ので技術リスク低い
> IDE/SATA -> SCSIに比べて技術的には進化しまくりなので技術リスク高い
SCSI も新規格がどんどん発表されているので、枯れてるとも言いがたいよう
な。
> [3] SCSI/IDE/SATAのLinux側ドライバにおいて
>
> SCSI --> 技術的に枯れている上にチップのドライブが簡単。
> だからプログラムも単純な設計がし易いので安定しやすく
> バグも少ない。
> IDE/SATA --> SCSIに比べて複雑かつ変遷が激しい。したがって
> バグが混入しやすい
むしろユーザーの多い IDE の方がデバッグされてるような(SATA は除く)。
SCSI だと新ボードも出てくるし。
インターフェース自体にもデータの信頼性が関係するような。
SCSI I/Fはデータバスパリティあるけど、IDE I/Fはデータバスパリティ
ないし。
SATAは、なにかしらチェックしていると思うけど調べてないです。
--
ふにゃふにゃ
要は「品質(*1)/性能{*2)」と「価格」のトレードオフで、サーバ用途の方が
コンシューマ向けより「品質/性能」にウェイトを置いているということだと
思います。
*1) MTBFやエラーレート等。(良くしようとすれば値段が上がる)
*2) ハード的には回転数やシーク速度等。(これも良くすれば値段が上がる)
インタフェース的には多数台接続時のI/O性能等。(SCSI有利)
なので現状では必然的に
Takahide Nojimaさんの<m3d68ap...@nightmare.hm.taito.co.jp>から
> SCSI/IDEの技術的な理由よりは、ビジネス的理由(販売チャネルの理由)
>により
>
> ・高信頼性製品 ---> SCSIにしてサーバ用途にすると売れる
>
> ・低信頼性製品 ---> ATA/SATAにして値段下げて売る。
>
>というのが見えかくれ...
となっているかと。
> というわけで、サーバ製品にIDEが普通にのるようになると高信頼性HDDに
>ATA/SATAインターフェースを載っけた製品が出てくる可能性があるという
>ことなんですね?きっと。
ATAは多数台接続が無理なので、SATAからならその可能性はあると思います。
> あとは、Linuxのドライバのバグの在り無し/ドライバソフトの都合による
>事故の起き易さ/ドライバソフトの性能の傾向が、
>IDE/SCSIの間ではっきりすれば合理的な購入判断ができそうです。
性能を考えるには上記の理由から構築するサーバの構成(多数台接続なのかど
うか)も考慮対象になると思います。
以下は根拠ありません。おもいっきり主観です。
> LinuxのHDDドライバは信頼性としてはどうなんでしょ?
>
> 自分としてはHDDハンドリングの簡単な方が信頼性は高いように思っているのですが
>(技術リスクは少ない)IDEインターフェースのドライブの仕方とSCSIのドライブの
>仕方について探ってみることにします。
信頼性に関してはどちらも変わらないのではないでしょうか?
むしろ性能の性能のほうに効いてくるのでは?
HDD で一番壊れ易いのは軸受けですが,これはメカなので,熱に強い/それ
ほどでもない,という事は有ると思います.より正確に言えば,元々高温に
強い&元々寿命が長い,と言うことになりましょうか.これは材料などにも
依存し,価格も高くなるでしょうし,騒音のレベルと寿命のトレードオフも
あるでしょう.また,ビット密度は軸受けのガタの許容範囲に直結しますか
ら,これも寿命とのトレードオフがあります.
どなたかがメーカーの営業戦略と言われてましたが,そもそも価格や信頼
性,ビット密度,騒音レベル等はあちらを立てればこちらが立たずという性
質のものですから,メーカーとしては単にユーザーのニーズ(高価でも信頼
性が高い物 = SCSI,できるだけ低価格なもの = IDE)に対応した製品のラ
インナップを用意しているというだけの事です.
したがって,デバイスと選んでいるというのではなく,商品企画/設計段階
から別物です.
"ふにゃふにゃ" <funya...@jcom.home.ne.jp> wrote in message
news:c14rvc$a0g$1...@caraway.media.kyoto-u.ac.jp...
> インターフェース自体にもデータの信頼性が関係するような。
> SCSI I/Fはデータバスパリティあるけど、IDE I/Fはデータバスパリティ
> ないし。
パリティはありませんが、ATA-4から転送データに対し、
CRCによるエラーチェックが入ったそうです。
http://pc.watch.impress.co.jp/docs/article/990114/key60.htm#ATA_4
> SATAは、なにかしらチェックしていると思うけど調べてないです。
SATAでは、データ/コマンド共にCRCによるエラーチェックを行っているそうです。
http://www.serialata.org/about/pdf/Serialata%20-%20a%20comparison%20with%20Ultra%20ATA%20Technology.pdf
(6~7ページ目のAdded Features)
=> [2] マザーボード上チップセットの技術案件について
=>
=> SCSI --> 技術的に枯れてる?ので技術リスク低い
=> IDE/SATA -> SCSIに比べて技術的には進化しまくりなので技術リスク高いチップセットの事ではありませんが,SCSIはSCSIコマンド(だったか?)で
OSの力を借りずに直接読み書きやformatができます。
昔はこれで物理formatして,format途中でトラブルを起こしたHDDを救っていました。
今はHDDの値段も安くなって使い捨てになってしまいましたが,以前はこれで
ジャンクHDDを生き返らせた方もいたのではないでしょうか。
■ Taku mailto:t...@SoftHome.net
□■ powered by AMD K6-2-300 on ASUS SP98AGP-X
In article <m38yiyp...@nightmare.hm.taito.co.jp>
noj...@taito.co.jp writes:
>> 記事が2002年の8月に書かれたものなので、若干古いですが、サーバ用途に
>> SCSIを使う理由として、Disk I/O で発生するCPU負荷の事も書かれていま
>> した。
>
>こちらなのですが、今時のIDEチップセットって未だCPUに負荷かけるように
>出来てるんでしょうか?Linuxが行うチップセットの実際のドライブの仕方
>も見てみます。
>
> IDEチップセットもどんどんインテリジェントになり、コマンドとメモリ
>番地だけわたしてトリガをキックすればあとは全自動でディスクに読み書き
>してくれたりはしないのかなぁ?
DMAはいわゆるATA33から対応しています。PIOモードと違って、CPU
を使わずにATA33以上のコントローラで転送出来ます。
また、最近のIBMのdiskの一部には、タグド・コマンド・キューイングに
対応したものも有り、コマンドの先行投機が可能になっています。しかし、
ファームウェアにバグが有る為、事実上使いものになりません。無理に
enableにすると、データがボロボロ壊れます。
致命的なのは、まだSCSIの様にDISCONNECT/RECONNECTが無い事でしょうか。
機械的な回転待ちの生ずるdiskでは、バスの占有時間が長くて損だと
思います。最近のPCでは省エネの為、暫くidle時間が有るとdiskの回転を
止めるようになっていたりするのですが、そういう停止しているdisk
にアクセスに行くと、diskの再始動→回転安定→シークの間、待たされる
ことになります。それがこのスレッドでも登場した一瞬フリーズしたように
なる、という現象ではないでしょうか。
> また、IDEチップセットは数が出るので少々インテリジェント(チップの技術
>的には困難なためビジネス的にはハイリスク)なことしても値段が下げられる
>とかの理由で、少々危なっかしいがドライバ性能/ドライバの信頼性上
>いろいろと有利とかっていう話はないのでしょうか?
SCSIもIDA/ATA同様、技術革新も有れば、バージョンアップも有ります。
しかし、常に上位互換を保つように設計・制定されている点が異なります。
IDE/ATAみたいに504MB,1GB,2GB,4GB,8.4GB,32GB,128GBといった壁に次々
ぶち当たる、なんてことは無いです。昔のSCSI-1 I/Fに最近の巨大なdisk
を繋いでも、ちゃんと認識しますし、転送速度が遅い方に制限されるだけ
で問題無く使えます。ハードウェア的に繋がる限り。
--
中村和志@神戸 <mailto:k...@kobe1995.net>
NAKAMURA Kazushi@KOBE <http://kobe1995.net/>
- Break the hate chain. No more kill!
administrator@127.1
様々な方々に情報を頂きました。ありがとうございました。
収束したかなぁ?と思いましたので、以下にサマリを載せます。
Takahide Nojima <noj...@taito.co.jp> writes:
> [Q] 自分の知人の間での謎な噂で
>
> ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
>
> ・SCSIのHDDは壊れにくい
>
> というのがあります。自分も何故か上の内容には同意しているのですが、
> ただ科学的な根拠を問われても正直困っているありさまです。また自分で
> 比較実験等するわけにもいかず正直なんともいえません。
>
> 通常SCSIシステムは多少でも高額製品だったりするのでこの噂は本当なのか
> を知りたいところです。何かご存じの方はいらっしゃいますでしょうか?
>
> ネット位は調べまくったのですが、上の内容を根拠づけるような情報もみあたら
> ないので困ってます。
[A] 以下の理由により信頼性でいくとSCSI製品に今のところ軍配があがる?
理由:
[I]. インターフェース方式を除いたHDDそのものの信頼性
メーカーの営業戦略により、企画段階からHDDは、
i) サーバ用途
設計方針:
・高いMTBF,
・低いエラーレート、
・高い回転数、
・高品質(ファーム等)
・多接続
代償:
・発熱
・消音
・記録密度
・コスト
ii) 家庭用途
設計方針:
・コスト
・発熱
・消音
・記録密度
代償:
・MTBF
・低いエラーレート
・高回転数(発熱に直結)
・高品質(ファーム等)
・多接続
にわけて企画される。その為、サーバ用途か家庭用途かで
インターフェースによらないHDDそのものの信頼性に差がつく。
[II]. インターフェース方式の向き不向き
サーバ用途の場合、
・多接続ができるかとか、
・古い機器に繋げて普通に利用される可能も多々あるため(?)、
常に上位互換を保つように設計・制定されているか、とか、
(IDE/ATAみたいに504MB,1GB,2GB,4GB,8.4GB,32GB,128GBといった
壁に次々ぶち当たるということが無い)
・DISCONNECT/RECONNECTが機能としてあるか、とか、
・ストライピングなどで上手くやると、BUSの能力分だけ速度が
上がる可能性が残されていたりとか、
の理由により、SCSIインターフェースがサーバ用途に有利な為
SCSIインターフェースが選択される。
一方、家庭用途にはIDEがすでにかなりの量普及してしまったため、
家庭用にはIDE/ATAインターフェースが採択される。
[III]. OS/インターフェースチップセットの信頼性
・OSのドライバの信頼性、
・IDE/ATA(SATA)あるいはSCSIチップセットの信頼性
は今では同程度と思われる。
以上[I]~[III]を総合すると見かけ上、SCSIのHDDは壊れにくいという噂になる。
[正しいHDDの選定の方法]
上の[I]~[III]の理由から、「インターフェース方式で比較するのではなく、
本当はHDDそのものの仕様を調査して信頼性を見るべき」となる。
In article <0402220132...@ns.kobe1995.net>,
k...@kobe1995.net wrote:
> DMAはいわゆるATA33から対応しています。PIOモードと違って、CPU
> を使わずにATA33以上のコントローラで転送出来ます。
えっと、ATA33(UDMA Mode2)以前からDMA対応は行なわれていたはずです。
MAX16MB/secなATA(E-IDEか?)のDMA転送規格(DMA mode0~mode2)がありますよ
ね?
#UDMA Mode0も16MB/secだったはず。
ATA33が出てきたのって430TXあたりのチップセットからだったと思いますが、
その前の430VX/HXあたりでもATAのDMA転送はサポートしていました。当時の私
が使っていた430HXでもDMA Mode2とか使えたはずなんですけど、IDE/ATA系は
使っておらずSCSI構成で組んでいたので恩恵に与ることは全くありませんでし
たが…。
> ぶち当たる、なんてことは無いです。昔のSCSI-1 I/Fに最近の巨大なdisk
> を繋いでも、ちゃんと認識しますし、転送速度が遅い方に制限されるだけ
> で問題無く使えます。ハードウェア的に繋がる限り。
そーでもないかも。古のPC-9821での話ですが、SCSIで1GBの壁にぶち当たっ
た事があります。
型番忘れたのですが、LogitecのPC-9801F/PC-9821AシリーズのSCSI-IF専用
スロット用の55互換タイプのHBAだったと思いますが、DPES-31080だったか
DORS-32160だったかを繋いだら容量の認識がおかしくなっていました。
当時電話でサポートセンターに問い合わせた時のおぼろげな記憶では、HBA
のBIOSの問題だそうで、BIOS更新の予定も無いということで、このHBAを使う
のを諦めたのでした。;-(
#当時まだMS-DOS 5.0A-Hでしか使っていなかったので、FreeBSDとかBIOSに依
#存しすぎないOSを使えば無理矢理使えたのかもしれませんが…。
結局、1GB対応版のPC-9821A-E10に買い替え、その後FreeBSDを使うようになっ
てからはノーマルDMA/PIO転送の速度に限界を感じてバスマスタDMAなHBAに乗
り換えて、その後Cバスの空きがなくなって、結局またE10に戻るなんて事を繰
り返していたのも今となっては懐かしい思い出です。(^^;
---
Koichi Soraku
Tachikawa-shi TOKYO JAPAN
e-mail:SGU0...@nifty.ne.jp
jg4...@ja6ybr.org
-- Powered by FreeBSD & FreeBSD(98) --
『人型は人の幸せのために造られるんだよー!』
<c1dd85$kn1$2...@news511.nifty.com>の記事において
SGU0...@nifty.ne.jpさんは書きました。
SGU03026> > DMAはいわゆるATA33から対応しています。PIOモードと違って、CPU
SGU03026> > を使わずにATA33以上のコントローラで転送出来ます。
SGU03026> えっと、ATA33(UDMA Mode2)以前からDMA対応は行なわれていたはずです。
SGU03026> MAX16MB/secなATA(E-IDEか?)のDMA転送規格(DMA mode0~mode2)がありますよ
SGU03026> ね?
むしろ, 転送モードの変遷としては
DMA → PIO → UDMA
じゃないですかね?
もともと ATA の頃から DMA 転送していたんだけど, CPU が高速になっ
たわりに DMA は全然変わらなかったので, 286 くらいの時代だと「DMA
使うより CPU 使った方が速い」という状況だったんじゃないでしょうか.
その後, もっと速い DMA 使った転送モード (UDMA) ができたわけで.
SGU03026> そーでもないかも。古のPC-9821での話ですが、SCSIで1GBの壁にぶち当たっ
SGU03026> た事があります。
そもそも PC-9821 だと SCSI にも 32GB 付近に壁があったような....
# まあ BIOS の話であって「SCSI 云々」とはちょっと違いますが.
Linuxだからと言うことはないと思います。OSがなんであれ、サーバーだからでは?
で、SCSIの理由はみなさんと同じです。サーバーですからデータアクセスが速い、安全性、保全性等からSCSIでしょう。もちろんRAIDも考慮の内です。
> ・SCSIのHDDは壊れにくい
これは動かなと思いますが。SCSIかどうかではなくザーバー用かそうでないかなんです。
というわけで
>・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
>・SCSIのHDDは壊れにくい
は実際の疑問点なのでしょうが実は微妙に着眼点がずれていると思います。
gel...@hotmail.com (gel987) writes:
> > ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
>
> Linuxだからと言うことはないと思います。OSがなんであれ、サーバーだからでは?
まあ、各OS実装違うのでなんとも。
> で、SCSIの理由はみなさんと同じです。サーバーですからデータアクセスが速い、安全性、保全性等からSCSIでしょう。もちろんRAIDも考慮の内です。
>
まあ、RAIDも玉が頻繁に故障すれば運用の手間かかるのでなんとも。
> > ・SCSIのHDDは壊れにくい
>
> これは動かなと思いますが。SCSIかどうかではなくザーバー用かそうでないかなんです。
>
IDE/ATA(SATA)で高信頼性(サーバ用途)のものがあれば良いのですが、
どんなもんでしょ?
そもそもサーバ用途HDDとそうじゃない用途HDDってメーカーが区別して
売ってくれればわかりやすいのですが。
#IDE/ATA(SATA)インターフェース搭載の高信頼性スピンドル搭載のHDDとかないかなぁ
<m3eksi8...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
> nojimaです。
> IDE/ATA(SATA)で高信頼性(サーバ用途)のものがあれば良いのですが、
> どんなもんでしょ?
> #IDE/ATA(SATA)インターフェース搭載の高信頼性スピンドル搭載のHDDとかないかなぁ
>
それはまさしく WD Raptor でしょう。
http://www.westerndigital.com/jp/products/WD360GD.asp?Language=jp
情報ありがとうございます。
MURAKAMI Tomokazu <mrkm...@mtd.biglobe.ne.jp> writes:
> > nojimaです。
>
> > IDE/ATA(SATA)で高信頼性(サーバ用途)のものがあれば良いのですが、
> > どんなもんでしょ?
> > #IDE/ATA(SATA)インターフェース搭載の高信頼性スピンドル搭載のHDDとかないかなぁ
> >
>
> それはまさしく WD Raptor でしょう。
>
> http://www.westerndigital.com/jp/products/WD360GD.asp?Language=jp
なるほどです。MTBF=1,200,000時間というのが凄過ぎます。
修復不能エラーレートは1x10^14Bitsに1以内みたいです。
Takahide Nojima <noj...@taito.co.jp> wrote in message
> ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
これですが、その昔(1992年頃)、SCSI I/F カードである AHA-1542 を
当の Linus 自身が使っていたので Linux には SCSI がいいと言うような
話があったような気がするのですが、どうでしたっけ?>詳しい人
そこから発展して、「Linux はサーバーむきである」とか
「ディスクがたくさん付くのでサーバーには SCSI がよい」とかいう
話が混合してきて結果として、
>・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
という話ができ上がったのではないかと想像します。
Solarisであろうが、サーバ用途にはSCISがよいです。Sun Fire V100などの廉
価ものはATAですが、V120以上のものをSCSIを選びます。また、
DiskSuite(SolarisのSoft RAID)ではATAだとRAID5が組めません。
--
___ わしは、山吹色のかすてーらが大好きでのぅ
[[o o]] ふぉっふぉっふぉ
'J' 森下 お代官様 MaNMOS 英夫@ステラクラフト
PGP Finger = CD EA D5 A8 AD B2 FE 7D 02 74 87 52 7C B7 39 37
> Solarisであろうが、サーバ用途にはSCISがよいです。Sun Fire V100などの廉
> 価ものはATAですが、V120以上のものをSCSIを選びます。また、
> DiskSuite(SolarisのSoft RAID)ではATAだとRAID5が組めません。
ATA100(Silicon Image649)塔載のカードを大量に用意すれば
RAID5も可能ではないかと思われます。
例えば、ATAカード3枚にHDD 6個とかです。
匡体内に内蔵できるかといわれるとこれはまた別の問題ですが。
#1枚しか入れてないので、2個のATA ディスクでRAID0で動かしておりますが。
SunでのSCSIのメリットはSCAにあるのではないでしょうか。
電源入れたままHDDの交換が可能ですから。
また上位機種ではFiber channelのHDDになっています。
MasterとSlaveを両方ともHDDをつないだマシンをサーバにはしたくないですね。
パフォーマンス悪そう。
> SunでのSCSIのメリットはSCAにあるのではないでしょうか。
> 電源入れたままHDDの交換が可能ですから。
> また上位機種ではFiber channelのHDDになっています。
まあ、コマンド的にはFiber ChannelはSCSI 3だから…
man...@stellar.co.jp (Hideo "Sir MaNMOS" Morishita) writes:
> > ATA100(Silicon Image649)塔載のカードを大量に用意すれば
> > RAID5も可能ではないかと思われます。
> > 例えば、ATAカード3枚にHDD 6個とかです。
>
> MasterとSlaveを両方ともHDDをつないだマシンをサーバにはしたくないですね。
> パフォーマンス悪そう。
通常1枚のATA100のカードには2個のコネクタが出ていますので、
当然のことながら全てマスター接続です。
Ultra60に内蔵してある2個のHDDは両方ともマスター接続で、RAID 0ですが、
1GBをwriteするのに24秒程度でした。(約40MByte/secですか)
これを良いとみるか、悪いとみるか...
<l...@uni.sony.co.jp> wrote in message
news:x7smgw7...@maiorica.uni.sony.co.jp...
> > > ATA100(Silicon Image649)塔載のカードを大量に用意すれば
> > > RAID5も可能ではないかと思われます。
>
> 通常1枚のATA100のカードには2個のコネクタが出ていますので、
> 当然のことながら全てマスター接続です。
>
> Ultra60に内蔵してある2個のHDDは両方ともマスター接続で、RAID 0ですが、
> 1GBをwriteするのに24秒程度でした。(約40MByte/secですか)
>
> これを良いとみるか、悪いとみるか...
32bit/33MHzのPCIに繋がったカードだと、
良くも悪くもその位が限界なのでは?
NEWTECHのサイトに記事があったのでご参考まで
http://www.newtech.co.jp/tech/Column/Column13-04/#03
PCだと、PCIレイテンシタイマいじるとかして
もう少し改善できそうですが…。
"SCSI だから良い",んじゃなくて "SCSI 用には良いものを出している",
というだけなんですけどねぇ.
<m3eksi8...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
> IDE/ATA(SATA)で高信頼性(サーバ用途)のものがあれば良いのですが、
> どんなもんでしょ?
Maxtor MaxLinePlusII 他.
基準その他が一般の SCSI HDD と同等であるとは言いませんが,
一応サーバー用途を考慮していると言えるでしょう.
> そもそもサーバ用途HDDとそうじゃない用途HDDってメーカーが区別して
> 売ってくれればわかりやすいのですが。
一応区別されて売られていると思いますが...
datasheet 他を見れば分かるはず.
> #IDE/ATA(SATA)インターフェース搭載の高信頼性スピンドル搭載のHDDとかないかなぁ
* 速度も同等を求めると:
SCSI HDD と同じ価格になると思いますが,
それでも欲しいか,
* 速度は低くてもいい:
(たぶん)メーカー側で採算に合うマーケットがないと判断された
== あまり客がいないのでしょう
(速度の項目を捨ててもたいしてやすくなる訳ではないのでしょう)
ということでしょう.
# SATA はサーバーやら RAID ユニットとかにも進出が
# 期待されている(たぶん)ので,そのときに SAS なども
# 入り交じっての攻防がどうでるかでしょうね.
--
∧∧
Zzz.. (- - )⌒⌒⊇~ 川口 銀河
############## ginga-fj-s...@ginganet.org
そのころだと 「linux ならフツーBUSLOGICだ」とか言ってませんでしたっけ?
# ISA のBusMasterなんて極悪非道な事には変りありませんが。
ギガオーダーの「大容量」ドライブがSCSIしかなかったし、遅くて拡張性
なしでしたから。EIDEになって「8GBover」でfdiskやliloですったもんだする
のはその後じゃなかったかと。
k...@kobe1995.net (NAKAMURA Kazushi) writes:
> In article <m38yj1m...@nightmare.hm.taito.co.jp>
> noj...@taito.co.jp writes:
> > ・Linuxのサーバ用途にはSCSIのサーバ用PCがいい
> Linuxでなくても、SCSIの方が沢山繋げられて有利ですね。ATAだと
> 1ch当たり2台しか繋げられない。
>
> > ・SCSIのHDDは壊れにくい
> ものに依ると思いますが、昔EmpireやFireballシリーズはMTBFが
> ATA 5万時間
> SCSI 8万時間
> でした。RAIDなんかで台数が増えると、MTBFが効いてきます。
ある人から、コンシューマ向けのHDDの最近のもの(160or80GB/7200RPM/UATA-100)だと、
http://www.seagate.com/support/disc/specs/sata/st3160023as.html
http://www.seagate.com/support/disc/specs/ata/st380021a.html
より、フツーにMTBF60万時間だそうで。
これだけMTBFあれば、IDE/ATAでも相当の台数ないと故障率は体感できない
ような???
昔のサーバ用途は今のコンシューマ用途と同レベルになってきているということな
のでしょうか?
> ある人から、コンシューマ向けのHDDの最近のもの(160or80GB/7200RPM/UATA-100)
だと、
>
> http://www.seagate.com/support/disc/specs/sata/st3160023as.html
> http://www.seagate.com/support/disc/specs/ata/st380021a.html
>
> より、フツーにMTBF60万時間だそうで。
Server向けのだと6年前に買ったbarracuda4XL(2.2GB/7200RPM/U-SCSI)でも
http://www.seagate.com/support/disc/specs/scsi/st32272n.html
MTBF100万時間です。最近は容量不足ですが元気に動いています。
初期のBarracudaだと80万時間というのもありましたが、
Server用は100万時間以上あるのが普通みたいです。
--
かしわぎともみ kash...@cup.com
Takahide Nojima <noj...@taito.co.jp> writes:
> > Maxtor MaxLinePlusII 他.
> > 基準その他が一般の SCSI HDD と同等であるとは言いませんが,
> > 一応サーバー用途を考慮していると言えるでしょう.
>
> これ
>
> ・市場価格異常に安いし、
> ・発熱もdesktop用途並み
>
> とか聞きましたんですけど、実際どうなんでしょ?
>
> カタログスペックやら、うたい文句は、
>
> ニヤライン用途でMTBF 1Megahours
> Non-Recoverable Error Rate 1x10^-15
>
> というSCSI I/Fのサーバ用途HDD並みという信頼性です。
さらに容量もでかい。こういうのがサーバ用途とかで普及するんでしょうね。
# follow-up-toに従います。
ginga-fj-s...@ginganet.org (Kawaguti Ginga) writes:
> <m3eksi8...@nightmare.hm.taito.co.jp>の記事において
> noj...@taito.co.jpさんは書きました。
> > IDE/ATA(SATA)で高信頼性(サーバ用途)のものがあれば良いのですが、
> > どんなもんでしょ?
>
> Maxtor MaxLinePlusII 他.
> 基準その他が一般の SCSI HDD と同等であるとは言いませんが,
> 一応サーバー用途を考慮していると言えるでしょう.
これ
さらに調べてSummary変更です。
Takahide Nojima <noj...@taito.co.jp> writes:
[A] 以下の理由により信頼性でいくとSCSI製品に今のところ軍配があがる?
理由:
[I]. インターフェース方式を除いたHDDそのものの信頼性
メーカーの営業戦略により、企画段階からHDDは、
i) サーバ用途
設計方針:
ii) 家庭用途
設計方針:
・コスト
・発熱
・消音
・記録密度
にわけて企画される。その為、サーバ用途か家庭用途かで
インターフェースによらないHDDそのものの信頼性に差がつく。
[II]. インターフェース方式の向き不向き
サーバ用途の場合、
・多接続ができるかとか、
・DISCONNECT/RECONNECTが機能としてあるか、とか、
・ストライピングなどで上手くやると、BUSの能力分だけ速度が
上がる可能性が残されていたりとか、
の理由により、SCSIインターフェースがサーバ用途に有利な為
SCSIインターフェースが選択される。
一方、家庭用途にはIDEがすでにかなりの量普及してしまったため、
家庭用にはIDE/ATAインターフェースが採択される。
[III]. OS/インターフェースチップセットの信頼性
・OSのドライバの信頼性、
・IDE/ATA(SATA)あるいはSCSIチップセットの信頼性
は今では同程度と思われる。
[正しいHDDの選定の方法]
[NEW!] [補足]
典型的なHDDのカタログスペック上の信頼度
機種 Non-Recobable Error Rate
----------------------------------------
サーバ用途 1/10e15 bits transferred
コンシューマ用途 1/10e14 bits transferred
MTBF
サーバ用途 100万時間以上
コンシューマ用途 80~60万時間程度
[IDE/ATAなのに高信頼HDD]
1. Maxtor MaxLine Plus IIシリーズ
2. WD Raptorシリーズ
http://www.westerndigital.com/jp/products/WD360GD.asp?Language=jp
In article <m38yijjq...@nightmare.hm.taito.co.jp>, Takahide Nojima <noj...@taito.co.jp> writes
> より、フツーにMTBF60万時間だそうで。
> これだけMTBFあれば、IDE/ATAでも相当の台数ないと故障率は体感できない
> ような???
それは自分の経験とは少し異なるんだよな... 60万時間でも1年に70
台に一つは壊れるってな感じですよね。
例の突然死事件とか軸受けとかがあったせいかも知れないけど、こ
こ数年は、年間5%-10%がHDDの故障率だったと思います。とすると、
10万時間以下ですね。
SCSI/ATAで差があったかと言うと、それはあったと思う。
---
Shinji KONO @ Information Engineering, University of the Ryukyus
河野真治 @ 琉球大学工学部情報工学科
ko...@ie.u-ryukyu.ac.jp (Shinji KONO) writes:
> In article <m38yijjq...@nightmare.hm.taito.co.jp>, Takahide Nojima <noj...@taito.co.jp> writes
> > より、フツーにMTBF60万時間だそうで。
> > これだけMTBFあれば、IDE/ATAでも相当の台数ないと故障率は体感できない
> > ような???
>
> それは自分の経験とは少し異なるんだよな... 60万時間でも1年に70
> 台に一つは壊れるってな感じですよね。
まあ、今までの議論からメーカのカタログスペックをただ信じるしかデータが
無いので、
・温度、環境、電源電圧等が製品の試験環境と異ったとか、
・壊れたHDDは実はMTBF 60万時間程は無いHDDだったとか
・メーカー/型番混在状態だったとか
でしょうか?メーカーによっては不良率をうたったものもあった模様で、
そういうメーカは1年以内に壊れる確率がコンシューマ向けでも1%未満といっている
ところがほとんどだったような...
> 例の突然死事件とか軸受けとかがあったせいかも知れないけど、こ
> こ数年は、年間5%-10%がHDDの故障率だったと思います。とすると、
> 10万時間以下ですね。
...実は6台以上で利用してたとか...
(60万時間/6=10万時間。6台が全部動いていないと困る場合のMTBFでしょうか?)
> SCSI/ATAで差があったかと言うと、それはあったと思う。
自分の経験では、差が微妙でなんとも...
<m3d67uf...@nightmare.hm.taito.co.jp>の記事において
noj...@taito.co.jpさんは書きました。
nojima> > それは自分の経験とは少し異なるんだよな... 60万時間でも1年に70
nojima> > 台に一つは壊れるってな感じですよね。
nojima> まあ、今までの議論からメーカのカタログスペックをただ信じるしかデータが
nojima> 無いので、
nojima> ・温度、環境、電源電圧等が製品の試験環境と異ったとか、
nojima> ・壊れたHDDは実はMTBF 60万時間程は無いHDDだったとか
nojima> ・メーカー/型番混在状態だったとか
nojima> でしょうか?
24 × 365 × 70 = 613200 ですから, 70台のハードディスクを 1年中ず~
と動かし続ければ合計で 60万時間越えちゃいます.
ta...@hirata.nuee.nagoya-u.ac.jp (Takao Ono) writes:
> <m3d67uf...@nightmare.hm.taito.co.jp>の記事において
> noj...@taito.co.jpさんは書きました。
> nojima> > それは自分の経験とは少し異なるんだよな... 60万時間でも1年に70
> nojima> > 台に一つは壊れるってな感じですよね。
> nojima> まあ、今までの議論からメーカのカタログスペックをただ信じるしかデータが
> nojima> 無いので、
> nojima> ・温度、環境、電源電圧等が製品の試験環境と異ったとか、
> nojima> ・壊れたHDDは実はMTBF 60万時間程は無いHDDだったとか
> nojima> ・メーカー/型番混在状態だったとか
> nojima> でしょうか?
> 24 × 365 × 70 = 613200 ですから, 70台のハードディスクを 1年中ず~
> と動かし続ければ合計で 60万時間越えちゃいます.
なるほど、カタログスペック通りだったようで。
というか、故障したら修理に出して使い続けてる割合ってどれくらい
あるのかなぁ?故障の内容にもよるだろうけど、クラッシュなんか
されたら修理と言っても新品と交換しか手は無いような気が。
すると、1度故障してから次に故障するまでの平均時間よりも、
最初に故障するまでの平均時間の方を知りたいような・・・。
> >>MTBF は、Mean Time Between Failue の略で、故障してから次に故障する
> >>までの平均時間です。故障したことのないものが最初に故障するまでの時
> >>間ではありません。
MTBF はアイテムが故障していない時間の平均値で、最初の故障
までの時間も含められます。
非修理系 (故障したものは修理しない場合) においては、最初の
故障までの時間以外に平均の対象となるものが存在しないため、
MTBF の値は最初の故障までの時間の平均値 (平均寿命) という
ことになります。
> > なるほど。ハードディスクの場合は、最初に故障するまでの
> > 時間は短いが、一旦故障すれば、60万時間とか大丈夫なわ
> > けですか。勉強になりました。
ハードディスクを修理しながら使うことを考えているのかどうか
はわかりませんが、最初の故障までの時間が短いというわけでは
ないでしょう。
なお、いずれにしても、MTBF の時間まで大丈夫だというわけでは
ありません。
http://www.seagate.com/support/disc/specs/sata/st3160023as.html
と、そのマニュアルを見てみたのですが、次のような点が少し
気になりました:
- MTBF が「power-on hours」であると書かれている。
(電源が投入されているというだけで、動作状態がはっきりしない)
- MTBF 以外に、「Contact start-stop cycles 50,000 cycles」
という項目も含まれている。
(10分ごとに start/stop させた場合、1年でその値に達してしまう)
------------------------------------------------------------
Tomonori Sato <VEF0...@nifty.ne.jp>
URL: http://homepage3.nifty.com/tsato/
― xfig / xvkbd / 電気製品の EMC/安全適合性、他
# New - URL が変わりました
------------------------------------------------------------
名称不定 wrote:
>
> というか、故障したら修理に出して使い続けてる割合ってどれくらい
> あるのかなぁ?故障の内容にもよるだろうけど、クラッシュなんか
> されたら修理と言っても新品と交換しか手は無いような気が。
> すると、1度故障してから次に故障するまでの平均時間よりも、
> 最初に故障するまでの平均時間の方を知りたいような・・・。
>
なんか、まじめな話にふられちゃったんで、私の認識を
書いときます。
1)始めに、fj.jokes に書いたものはあくまで冗談なので、
本気にしないでください。
2)一般的に、経年劣化によるもの以外では、初期不良とい
うのが一番の修理対象になることは、わかっています。
3)あと、故障と言うのと、MTBFで言うところのフェイラー
(以下、障害と記します)とは、異なる場合があります。
これは、以下のように考えてくださればわかって頂ける
かと。
一)アプリケーションから見た場合は、errno に EIO が
返された場合が障害になります。この場合、オペレー
タの介入が必要になったりとか、一般に言う故障に
なります。
二)OSから見た場合、大雑把に言うと、コントローラ
にコマンドを投げて、正常以外のステータスが返さ
れたか、一定時間経ってもステータスが返されない
場合、投げたコマンドや、ステータスによって再試
行等の処理を行いますが、このときに、必要に応じ
て、障害とカウントします。ただし、再試行などで
復帰した場合は、アプリケーションには障害は通知
されないことに注意してください。
三)ディスク自体でも、最近のものでは、ECC(?)による自動
データ修正や、書き込み障害時に自動でセクターの
再マッピングを行うものもあるそうです。この場合、
OSには、障害は通知されません。
4)今回の話のもとのWEBページを見た限り、何らかのシステ
ムに組み込んで、連続して入出力を行った上での、シス
テム(OS)が認識する障害間隔では無いようでしたので、
ディスクをただ回し続けて、ディスクが障害を認識する
間隔の話のように思えました。
5)上記の話は、それはそれとして意味のある話なのですが、
ディスクの平均障害間隔が60万時間(=60年以上)
というのは、実際にマシン室の管理やった人間には笑い
話としかおもえなかったので、fj.jokes にふってみた
しだい。
6)なお、ディスクは修理は普通しないんじゃないでしょうか。
ヘッドクラッシュした場合は、交換しかないでしょうし、
バッドセクターなどの場合、WindowsならSCANDISKで回復
(再マップはするんでしょうけど、修理とは違いますよね)
させる(ごめんなさい。Linuxではどうするかは知りません)
ことになるかと。まあ、最近の電算機は、修理と言いつつ
パーツ交換なんで、修理といってもいいのかもしれません
が、ディスク自体を修理するわけじゃないですから。
7)ちなみに、現在でも、ディスク障害対策として、ミラーリ
ングやRAID5等が実用技術として使われています。もし、
現実に、システムとしてのディスクの平均障害間隔が何十年
であれば、故障確率を上げてまで(ミラーの場合、ディスク
が倍になりますから、故障確率も倍)使用するでしょうか。
8)例えば、ディスクの平均障害間隔が5年程度として、ディス
ク5台のシステムでは1年に一回程度の障害となります。
私の経験なので、一昔前になりますが、ディスク交換の
頻度は、大体こんなもんじゃなかったかと。ディスクは
大容量化、低価格化の話はよく聞きますが、丈夫になった
とはあまり聞かないです。
あわてて書いたので、ごちゃごちゃになってしまい、すいません。
以上、よろしくおねがいいたします
北條武志 <ta...@m6.dion.ne.jp> writes:
> 4)今回の話のもとのWEBページを見た限り、何らかのシステ
> ムに組み込んで、連続して入出力を行った上での、シス
> テム(OS)が認識する障害間隔では無いようでしたので、
> ディスクをただ回し続けて、ディスクが障害を認識する
> 間隔の話のように思えました。
これについては、さすがに
HDDメーカーの品質保証関係の方しか本当のところはわからんかも。
でもMTBF書くぐらいだったら「少なくとも周囲温度上げて治具つないで
加速試験とかやってるよね?」とは思う次第です。
> 5)上記の話は、それはそれとして意味のある話なのですが、
> ディスクの平均障害間隔が60万時間(=60年以上)
> というのは、実際にマシン室の管理やった人間には笑い
> 話としかおもえなかったので、fj.jokes にふってみた
> しだい。
おっと、ディスクの平均障害間隔が60万時間ぐらいというのが
どう笑い話なのか自分の経験ではわかりません。
最近のSCSI diskを10台ぐらい購入してますが、1年程度だとさすがに壊れない
ものばかり引き当てることができました。で、本当にウン十万時間いけるかも?と
思ってるこのごろです。
たしかに7~10年前の古いHDDとかだと頻繁に壊れてたような。また、自分の主観だと
周囲温度・周囲環境はシビアに効くような気がしてます。
> 7)ちなみに、現在でも、ディスク障害対策として、ミラーリ
> ングやRAID5等が実用技術として使われています。もし、
> 現実に、システムとしてのディスクの平均障害間隔が何十年
> であれば、故障確率を上げてまで(ミラーの場合、ディスク
> が倍になりますから、故障確率も倍)使用するでしょうか。
カタログスペックから推察するにRAIDなんて単に初期不良
除けということじゃないでしょうか?
あと、最近でRAIDで嬉しいのは、
・アクセス速度あげるとか、
・スナップショットとれるとか、
・スケーラブルに容量増やせるとか、
なんかだと思うのですがどうでしょうか?
> 8)例えば、ディスクの平均障害間隔が5年程度として、ディス
> ク5台のシステムでは1年に一回程度の障害となります。
> 私の経験なので、一昔前になりますが、ディスク交換の
> 頻度は、大体こんなもんじゃなかったかと。ディスクは
> 大容量化、低価格化の話はよく聞きますが、丈夫になった
> とはあまり聞かないです。
たしかに丈夫になったとは聞かないですが、ここ最近MTBFが60万時間越えした
ばかりとか?
#HDD製造で何かイノベーションがあったとか?
Takahide Nojima wrote:
>
> おっと、ディスクの平均障害間隔が60万時間ぐらいというのが
> どう笑い話なのか自分の経験ではわかりません。
>
> 最近のSCSI diskを10台ぐらい購入してますが、1年程度だとさすがに壊れない
> ものばかり引き当てることができました。で、本当にウン十万時間いけるかも?と
> 思ってるこのごろです。
>
> たしかに7~10年前の古いHDDとかだと頻繁に壊れてたような。また、自分の主観だと
> 周囲温度・周囲環境はシビアに効くような気がしてます。
>
私の感覚が古すぎたんですね。すいません。
まあ、管理者のいるマシンだと、考えられないのですが、
RAID組んでいると、ディスク障害があってもアプリに障害
が出ないので、メーカーの人がメンテナンスに派遣された
ときにはぼろぼろだったなんて事もありました。余談まで。
>
> あと、最近でRAIDで嬉しいのは、
>
> ・アクセス速度あげるとか、
> ・スナップショットとれるとか、
> ・スケーラブルに容量増やせるとか、
>
> なんかだと思うのですがどうでしょうか?
>
アクセス速度の向上は読み込みだけと思ってましたが。書き込み
もあがりましたっけ?
スナップショットは、すいません、意味がわかりません。ミラー
をバックアップに使うということでしょうか?
容量の調整はRAIDというより、ファイルシステムの機能では。
>
> たしかに丈夫になったとは聞かないですが、ここ最近MTBFが60万時間越えした
> ばかりとか?
>
> #HDD製造で何かイノベーションがあったとか?
>
私が知っている限りでは、最近の変化として、
・ヘッドの構造の改善による、対衝撃性能の向上
・大容量のバッファをディスク自体で持つことで、物理的な
ディスクアクセスの減少
・知能化などによる、自動障害処理の実行。これにより、OS
側に障害は調査しない限り、伝わらなくなった。
あと、気密部分の気体の変化とか、軸受けの変化とかあった
気もしますが、うろ覚えですいません。多分、細かい変化が
重なって、障害発生頻度の減少になっているのだと思います。
とはいえ、MTBF60万時間とか聞かされると、ENIACの頃から
回してテストしてたんかいと、突っ込み入れたくなるんです
けどねぇ
# 古い人間ですいません
北條武志 <ta...@m6.dion.ne.jp> writes:
> > たしかに7~10年前の古いHDDとかだと頻繁に壊れてたような。また、自分の主観だと
> > 周囲温度・周囲環境はシビアに効くような気がしてます。
> >
> 私の感覚が古すぎたんですね。すいません。
>
> まあ、管理者のいるマシンだと、考えられないのですが、
> RAID組んでいると、ディスク障害があってもアプリに障害
> が出ないので、メーカーの人がメンテナンスに派遣された
> ときにはぼろぼろだったなんて事もありました。余談まで。
なるほどです。
> > あと、最近でRAIDで嬉しいのは、
> >
> > ・アクセス速度あげるとか、
> > ・スナップショットとれるとか、
> > ・スケーラブルに容量増やせるとか、
> >
> > なんかだと思うのですがどうでしょうか?
> >
> アクセス速度の向上は読み込みだけと思ってましたが。書き込み
> もあがりましたっけ?
>
> スナップショットは、すいません、意味がわかりません。ミラー
> をバックアップに使うということでしょうか?
ええ、
・ミラー側をいきなり外してバックアップにまわし、
・バックアップ完了後に元にもどす
という操作です。
> 容量の調整はRAIDというより、ファイルシステムの機能では。
あれ?自分はRAIDの機能だとばかり思い込んでいました。
> > たしかに丈夫になったとは聞かないですが、ここ最近MTBFが60万時間越えした
> > ばかりとか?
> >
> > #HDD製造で何かイノベーションがあったとか?
> >
> 私が知っている限りでは、最近の変化として、
> ・ヘッドの構造の改善による、対衝撃性能の向上
> ・大容量のバッファをディスク自体で持つことで、物理的な
> ディスクアクセスの減少
> ・知能化などによる、自動障害処理の実行。これにより、OS
> 側に障害は調査しない限り、伝わらなくなった。
> あと、気密部分の気体の変化とか、軸受けの変化とかあった
> 気もしますが、うろ覚えですいません。多分、細かい変化が
> 重なって、障害発生頻度の減少になっているのだと思います。
なるほどです。
> とはいえ、MTBF60万時間とか聞かされると、ENIACの頃から
> 回してテストしてたんかいと、突っ込み入れたくなるんです
> けどねぇ
恐らくですが、加速試験でMTBF60万をうたうのが少なくともメーカーとしての
筋じゃないかとはおもってます。
まあ、大量生産なだけに所詮確率論となります。
最近 HGST と富士通から新しいシリーズが出たので追加.
<0402192037...@flame.hirata.nuee.nagoya-u.ac.jp>の記事において
私は書きました。
takao> Seagate のディスクについてちょっと調べてみました.
takao>
takao> トラック密度は
takao> Cheetah 15K.3: 64,000tpi
takao> Cheetah 10K.6 (ST-336607LW): 64,000tpi
takao> Brracuda 7200.7 (ST-380013AS): 94,600tpi
takao>
takao> 1in^2 あたりのビット数で
takao> Cheetah 15K.3: 不明
takao> Cheetah 10K.6: 36,000Mbits/in^2
takao> Barracuda 7200.7: 56.3Gbit/in^2
takao> # マニュアルには Mbits/in^2 max と書いてあるが明らかにおかしい)
takao>
takao> この数字からは「媒体をゆるく使っている」と言ってもいいのではない
takao> でしょうか.
と書いていたのですが, SCSI 10,000rpm ものだと
HGST 10K300 (5プラッタ, 10ヘッド) で 61Gb/in^2,
富士通 MAT3300NP (4プラッタ, 8ヘッド) で 75Gb/in^2
となっています. 一方 ATA 7,200rpm では
HGST 7K400 (5プラッタ, 10ヘッド) で 62Gb/in^2
と推測されます (7K400 のカタログには面密度は書かれていないのです
が, プラッタ数や転送速度から 7K250 と同じであると思われます).
SCSI 10,000rpm の方が ATA 7,200rpm より密度が高くなってる....
密度を上げること自体は技術的には(当然)可能な事ですが,「ゆるく使
う」事の肝は冗長度を増すことでエラーレートを下げる事にあります.
なので,エラーレートが分からない事には比較・検討の対象にならないか
と.
--
Hideki Kato <mailto:ka...@pop12.odn.ne.jp>
----== Posted via Newsfeed.Com - Unlimited-Uncensored-Secure Usenet News==----
http://www.newsfeed.com The #1 Newsgroup Service in the World! >100,000 Newsgroups
---= 19 East/West-Coast Specialized Servers - Total Privacy via Encryption =---