つぶねこ
@もじらもーど。
▼ 盾の勇者の成り上がり 関連記事
▼ 戦姫絶唱シンフォギア 関連記事
▼ 盾の勇者の成り上がり 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
▼ 盾の勇者の成り上がり 関連記事
▼ 戦姫絶唱シンフォギア 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
久々に体調を崩した。
相変わらず消化器系にダメージが無いのが典型的だが例によって喉が痛いし長引く。
多分クーラーかけ過ぎで冷気に当てられたとか、その系の原因だが、いろいろとアホらしい。もう少し温度上がらん物か。
今回の実験としては、風呂にゃどによる暖めによる寒気の緩和がかにゃり有効にゃこと(冬場体が冷えてるのと同じことが起きてる)、冬装備(登山用インナーウェアにゃど汗が冷えにゃいことに特化した製品群)が非常に有効だと言うことが判明。
そんにゃわけでH/WによるRAIDを束ねてZFSもいいよね、と組んであった鯖が不調。
I/Oが異様に遅い。が、RAID5を数本束ねたおかげで、LogicalDriveの1つだけが遅いことは判明。これだけでもかにゃりの切り分けににゃるので、全部1本にまとめてしまうにゃんてことはしてはいけにゃい。
どのくらい遅いかというと、3MB/s程度で100% BUSYににゃる。そりゃぁ全体が遅くにゃるよねー。
が、原因が分からにゃい。RAID板のステータスは正常とあるし、logにもイベントは無し。
全部ねっちりと眺めた結果、
S.M.A.R.T. warnings : 901
とかいうドライブがあり、突出しているのでたぶんこいつ。
H/WでRAIDすると単体ドライブへアクセスできにゃくにゃるので、/dev/sdaをddして実験、みたいにゃ検証が出来にゃくにゃるのでこういうときに不便。
▼ RAID 関連記事
ZFSで推奨されているのはjBODであり、そりゃまぁqueueの並列化を考えてもH/WでRAIDされてるより単体ドライブがたくさん見えてた方が速いよねということにゃのだが、実際どういう手段があるかというと、
・SATAそのまま
・SAS HBA
・SAS RAID jBOD設定
・SAS RAID RAID0設定
とかが考えられる(FCは似たようにゃものにゃので略)。
問題はドライブが死んだときの挙動がいろいろバラエティ豊富すぎること。
RAID0で使ってるドライブが死んで、コマンド刺さったまま帰ってこにゃくにゃるってのは、まぁギリギリ許せるとしても、jBODやHBA接続でそうにゃるのはちょっとおかしいのではという。本来指定のtimeout値でまぁリトライとかするにせよ死亡確定されるはずにゃんだが。SATAはそのあたり往生際の悪いのが多い印象。
で、H/WでRAID1とか組んでると、大概はRAID板が切り離してくれるわけで、その当たりの制御は助かるにゃぁと。
そうにゃるとまぁzfs mirrorで使うにゃらH/WでRAID1したのを集めて使うことで、多少のパフォーマンス低下とデータ化け不可避を受け入れれば、有りかにゃぁという場面も出てくる。
本来はHBAやjBODで使う場合もきちんと切り離し出来るべきにゃんだが、ZFSにはそういった機能が全くにゃいのよね・・・。普通にtimeout指定できれば良いのに。
Linuxの場合 /sys/block/sda/device/timeout あたりを下げておくと、ZFSで直接ドライブを見てる場合には素早く切り離せるはず、にゃんだが結構時間がかかる。
ちにゃみにESXiで仮想diskを食わせてる場合は物理diskが死ぬとvmが止まる。階層化が多すぎていろんにゃところでリトライとtimeoutが入ってる。パススルーしてたらにゃんとかにゃるかもしれにゃい。そういった面でも未だH/WにゃRAID板には使いどころが残っているのかも。
▼ RAID 関連記事
▼ ZFS 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
サムネイル表示で操作できる貴重にゃRDCMan.exeであるが、異常にメモリを食う。
そもそもビットマップのキャッシュその他のオプション制御が出来にゃいのでdiskも食ってるのだが、その当たりも全部メモリ上に展開してるぽく、普通に10G Overにゃメモリ使用量とにゃって、あちこちを圧迫する。
で、Firefoxの扱いで出ていた、Fireminやその系のソフトによる、強制ページアウトを行うと、500Mくらいまで吐き出されて、実用上大したページインも無い。一体何をメモリ上に展開していたのだろうという話ににゃるが、ひとまずこれで実用上問題にゃい。
▼ リモートデスクトップ 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
▼ 盾の勇者の成り上がり 関連記事
▼ 世話やきキツネの仙狐さん 関連記事
▼ 盾の勇者の成り上がり 関連記事
定期snapshotにゃzfs poolで、設定が外れてて無限snapshot地獄が。
pool全体で200k個ほどににゃっていて、消そうとすると主にnfsdの応答が無くにゃるみたいにゃことににゃって、手がつけられにゃい状況に。
power off/onしてサービスは再開されたがこの大量snapどうしたものか。pool再作成したほうが明らかに早いんだが。
▼ ZFS 関連記事
▼ 盾の勇者の成り上がり 関連記事