hardware

SASよりSSDのほうが0.1Aほど省電力らしい

8発のHDDがのるサーバを利用すれば0.8Aも違う。コストと電力や用途などのバランスを考えてSSDの検討がいいと思います。

dmmではデータベースなどの用途やproxyサーバやapサーバなど多くのスケールアウトが必要なサーバで利用されています。
ところで、

nandフラッシュと呼ばれているSSDですが、いくつか種類があります。

下記はDELLからのSSDに関するFAQからの抜粋です。

SLC SSD 書き込みキャッシュと、読み取りキャッシュアプリケーション (読み取りがラ
ンダムで、書き込みが集中するアプリケーション) に適しています。書き換え可能サイクル10万回
eMLC SSD 今後、読み取り・書き込みが混在するワークロードで人気のオプションにな
ると見られており、特に予算に制限がある場合は歓迎されます。書き換え可能サイクル3万回
MLC SSD 読み取りが集中するアプリケーション (データベーステーブルへのアクセスな
ど) で、最もコストパフォーマンスに優れたソリューションとなります。書き換え可能サイクル3000回

DMMでは用途に係らずSSDはすべてMLCを使うようにしていますが、その寿命を補うような冗長な構成を取るようにしています。

MLCの寿命について200GB*8の構成で考えてみます。
合計で1600GBで一つのCELLが3000回の書き込みが保障されているということは4.8PBの書き換えが可能になる。
1日10GBの書き換えがあるとして1315年。1日100GBの書き換えで13年

極限性能が求められない場面では正直性能差は感じられません。
上記のように安価なMLCモデルで容量を調整することによって予定寿命をコントロールするほうが現実的なように思います。

きちんと設計することで必要な条件ははじき出せると思っています。みなさんはいかがでしょうか?ご意見お待ちしております。

実はTLCという種類のSSDもあるのですが、信頼性を犠牲にし容量をSLCの3倍とするものですが、
1玉あたり2TBクラスになってきたらSATAに変わりクラスターストレージの用途で検討できたらなと思っています。

 

linux

bondingについてはここで説明するよりも過去の先人たちの記事のほうが参考になるかと思いますので割愛します。

bondingを利用するということはsofをなくすための構成をとるということになりますが、そのためには

動作が把握しやすいactive-backupモード(mode=1)を利用し、
同一L2スイッチ内で接続が完結する場合は「miiリンク監視」
その他は「arp監視」を選択するのが冗長性を担保するために良い選択となると思います。

が、

dmmでは基本的には設定が簡単で運用が楽なmiiリンク監視をどの場面でも利用しています。

miiを冗長構成できちんと構成するためにはspanningtreeなどの駆使する必要があるのですが、dmmではspanningtreeは原則使っていないので、
ポート障害を防ぐためのスイッチ間リンクの二重化で耐障害性を高めるなどの措置をとっています。

なるべく状況が把握しやすく確実にコントロールが可能なコントローラブル設計が基本となります。

どうしても落としたくないサービスは別の構成を考えますが、
現在はそんな場合でもスイッチドファブリック技術(vcs fabricpath,qfabric,vena)を投入し冗長性を保ちます。

意識せずともmiiリンク監視が標準となる日が近くなっています。

arp監視:無駄なパケットがブロードキャストドメイン内に流れます。mii監視より切り替わりに時間がかかる。arpの監視先のメンテナンス性が損なわれる。監視先で障害が発生すると全面的に断となる。監視先を設定しなくてはいけない。

mii監視:リンクのアップダウンだけで切り替えができるので切り替えが早い。hsrp、vrrp、nsrpなどのL3レベルの切り替えがわからない。gsrpなどのl2レベルでの切り替えもわからない。自身以外のリンクの状態がわからない。接続するスイッチでスパニングツリーもしくはファブリック技術やopenflowなどのSDNソフトウェアによる制御が冗長の条件となる。

PAGE TOP