linux

と思って試してみました。

tuned-admというコマンドでlatency-performanceプロファイルを使ってみると

pingの応答時間が改善したという例です。

latency-performanceプロファイルでは主に下記の2点の設定が行われます。

  1. i/o scheduler cfq -> deadline
  2. /dev/cpu_dma_latency

では、さっそく確認してみます。

■設定前

■インストール&設定

■設定後

元に戻したい場合は

で元に戻りpingの応答時間も長くなります。

これを見ると低負荷時においても遅延が最小限に抑えられているように見えます。

低レイテンシーな環境が求められるトレーディングのシステムやシェアードのディスクを使うホスト等で利用するとよいかもしれません。

ただし、CPUガバナーを利用して強制的にCPUをC0ステート(最大パフォーマンス)で動作させているので、

あまり利用していないシーンでも電力量が増加しますので注意が必要です。

このテストで使用されているサーバは誰も利用していないのですが、

これが

tuned前

こうなります。

tuned後
ちなみに

tuned-utilsをインストールすれば、下記のコマンドで設定も可能です。

/usr/libexec/tuned/pmqos-static.py cpu_dma_latency=0

各動作の状態は下記のlatencyの値により決定しているようです。

下記の数字にそってlatencyの値を変更するとCステートのモードが切り替わります。

IntelがOSSで公開しているpowertop(epelrepoでインストール可能)でどのステートで動作しているのかわかりますので確認してみると面白いと思います。

プロファイルはいくつか用意されていますので下記コマンドで確認し、いろいろ試してみるのはいかがでしょうか?

iDC, 小ネタ

 

dmmではスイッチを設置する際に必ずトラフも併設するようになっています。

いまはトラフとは言わないのかホームページを見ると「水平ケーブル管理パネル」で分類されてました。

写真 (19)

 

Panduitのものを利用しています。

写真 (23)

このようにスイッチの設置と一緒に必ず取り付けるようになっています。

トラフにもいろんな形があるのですが、

こちらのシンプルなリングタイプが一番使いやすかったのでこちらを利用しています。

取り回しも視認性も抜群です。

p.s.

LANケーブルの記事で配線がきれいになったと豪語していましたが、

写真を撮りに行ったら、こっちのほうが多かったです。すみません。^^;

 

 

hardware

 

nandフラッシュである以上iodriveにもやっぱり寿命があり、それを考慮した運用が必要となります。

hddやssdのようにsmart情報からではなく専用のコマンドで寿命を確認できます。

下記コマンドです。

「fio-status -a」

結果はこのようになります。

Active media: 100.00%
Reserve space status: Healthy; Reserves: 100.00%, warn at 10.00%

Reservesの値を確認することによって余命がわかります。

現在は100%ですがこの値が徐々に減っていき交換時期を教えてくれます。
※dmmのiodriveは1年以上使っていますがまだ100%のままです。

iodriveの仕組みですが、

論理的に見えない冗長な部分(cell)が用意されており、その部分が壊れたcellの変わりに徐々に利用されていきます。raidで言えばホットスペアがいっぱいあると思ってもらえればいいと思います。そのホットスペアであろうcellの残りが10%以下になるとリードオンリーになり書き込みができなくなり安全を確保(データを保護する)する。書き込みできなくなるだけで読み込みは保障される。

シナリオで説明するとこのようになります。

10000個のcellがあるとして

それとは別に100個のReservesCellが用意されているとお考えください。

10000個のcellが1個壊れました。

Reservesから1個のcellが割り当てられます。

Reservesの残りが10%になるまで割り当て続けられます。

この構成だとすると90個のcellが壊れるまではiodriveは通常動作します。

残り10個となった段階でリードオンリーとなりデータ保護に走ります。

といった仕組みとなっています。

寿命を知ることができれば怖いものなしですよね?

インフラ全般, 小ネタ

 

dmmではデータの取り扱いには特に注意していますが

今回はHDDのデータ消去についてどのような取り組みを行っているのかご紹介いたします。

HDD

SSD

IODRIVE

の3種類の記憶装置での消去方法となります。

■HDD

マルチインタフェース対応デュプリケータを利用してDoD(米国国防総省のデータ消去基準)によるデータ消去を行っています。

■SSD

SSDに対応した専用のデュプリケータが必要となります。

破棄が必要になるタイミングで対応するデュプリケータを用意する予定です。

こちらもDoD(米国国防総省のデータ消去基準)に対応させることになります。

■iodrive

特別な装置は必要なく

fio-sure-erase というコマンドでデータ部分の完全消去が可能となります。

もちろん、このコマンドはDoD(米国国防総省のデータ消去基準)を満たしており認証を受けているとのことです。

クラウド

 

CDNでは対応できないような独自開発のアプリケーションでスパイクするトラフィックをさばきたい場合

もしくは

トラフィックをコミットしなくともスパイクする深夜のトラフィックだけを安価に配信したい場合に有用です。

注意するところとしては

例えばdmmでは

サーバ20台で1台あたりのトラフィックが1Gbps

それに合わせてバックボーンが20Gbps以上

がクラウドを利用する条件になるのですが、

このトラフィックがさばけるかどうかを前もって確認しておく必要があるというところになります。

ちょうど先月、各社に確認したのですが現状ではAWS以外は対応不可でした。

インスタンスタイプをc1.xlargeを利用することで1Gbpsのトラフィックの対応が可能となるようで、

バックボーン側の心配もないとの回答をいただきました。

PAGE TOP