raid運用の変遷

ファイルサーバやコンテンツサーバを出来合いのものを使うのが世の中の流れだが、以前、tera stationでデータロストの危機に陥った自分としては、ファイルサーバは絶対に自前で管理したい。tera stationの危機というのは、ディスク障害でなくマザーボード障害が起きてしまい、修理には関西への配送が必要な上、問題ない筈のディスクも搭載したまま送らねばならなかった。

この一件以来、自前でディスクケースを購入してsoftware raidを組んでいる。当初はraid5すら信用せずに、mdadmでraid1を2組とかで運用していた。software raidを使う理由は、安価なhardware raidだとraid controlerが単一障害点になってしまって、マザボ障害のように怖い目を見そうなためだ。加えて、raid1だとディスク単体でもそのままマウントできるので、raidそのものの不具合も回避できる。

それぞれ3TBの実効容量なんだけど、現在はそれを越えるスペースが必要になってきたので、結局当たり前にraid5を使う事にした。とはいえ、実効容量9TBの3TBx4本のraid5を2組用意して、一方をバックアップとする。3TBx8本のディスクで、総計24TBあるのに実質的には9TBwこれも子供たちの写真や動画を守るため・・・。

残念ながら今回購入したzboxは、ポートマルチプライヤー非対応で、esataで接続すると最初の1台しか認識しないのでUSBで接続する。ディスクケースは『裸族のスカイタワー 10Bay (CRST1035EU3S6G)』を使っているので、この機会に10台接続を試してみたのだが、centos6でもcentos7でも8台までしか認識しなかった。大昔のscsiかよ!

centos5の頃からあるんだけど、mdadmって日曜になるとraidcheckが走るし、こういう事に振り回されたくないならhardware raidも悪くないのかなあ。片側はsoftware raidにしてもう一方はhardware raidにするとか。raidのrebuildもsoftware raidで3TBx4本とかだとえらい時間かかるんだよね。softもhardもいける裸族のインテリジェントビル5Bay Ver.2 (CRIB535EU3V2)に興味がw当初のsoftware raidのmirrorからはまるっきり違う方向に考えが進んでいるんだけどね。。。

コメントを残す

メールアドレスが公開されることはありません。

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)