RackTables, 運用管理

みなさん、racktablesをご存知でしょうか?

http://www.racktables.org/

racktablesとはデータセンター、ラック、サーバ資産やアドレスの管理などさまざまなインフラのリソースを管理するソフトウェアです。

デモが用意されているようですので一度試してみてはいかがでしょうか?

ラボでは、つい先日、racktablesへデータの移行がようやく完了し使い始めました。

いままでは自社開発のツールを使っていたのですが、仮想インスタンス情報の管理が苦手なシステムだったのでracktablesへの移行を決断した次第です。

IPアドレスの管理や、VLANの管理、負荷分散装置配下のリソースプールの管理なども便利で助かっています。

DMMラボでも使い始めたばかりですので試行錯誤しながらですが、

少しずつ情報を公開できたらなと思っています。

とりあえず、今回はラックの管理部分についての画像をお見せしたいと思います。

まずはラックの全体像

racktablesラック一覧

 

上記のラックをクリックすると、下記のようそれぞれのラックの機器搭載状況が確認できます。

racktablesラック単体

 

ラックの全体像を見れば空いているラックが一目瞭然で確認でき効率性が向上するのではと期待しています。

使っている電力もここで管理できるようになると面白いかなと思っていてipmi経由で現在利用している電力を取得し表示するプラグインを作成したいなと考えています。

艦これ

みなさん興味があるかどうかわかりませんが、艦これのメンテナンス明けでトラフィックがどのように集中するのか

一部サーバのMRTGグラフをお見せしたいと思います。

普段のピークを軽く越えていきます。

艦これメンテあけ

 

人数を絞って30分単位で段階的にメンテナンスを解除しているため、このようなグラフになっています。段階的じゃないと受けきれないかもしれません。

ちなみに、艦これの記事をアップした時のツチノコブログサーバのMRTGも面白かったので共有します。

httpd_process_count-week

 

メンテ明けみたい。。。

 

 

FhGFS, glusterfs, クラウド

始めましたといっても検証しているだけです。すいません

FhGFS、正式にはFraunhoferFSとのことでハイパフォーマンスを想定した分散並列ファイルシステム。

GlusterFSのようにフォールトトレラントな分散並列ファイルシステムではなく、
どこかのサーバが停止すれば障害となります。現状のバージョンでは運用でカバーするしかなさそうです。

特徴としてはストライピングによる高速化とメタデータサーバの分散化による高速化
GlusterFSに比べて小さいファイルでもパフォーマンスを発揮します。
グラフィカルなツールで管理やモニタリングが可能な点もGlusterFSにはない機能です。

とにかく、実際に試してみないとわからないので

インストール&パフォーマンス比較を行ってみます。

まずは役割を確認します。

■役割

5つの役割が存在します。

1.Management service server(fhgfs-mgmt)

management,metadata,storage,clientへシステムコンフィグレーションを提供するサーバ

2.Metadata servers(fhgfs-meta)

メタデータを保管するサーバ

3.Storage servers(fhgfs-storage)

実データを保管するサーバ

4.Graphical administration and monitoring system server(fhgfs-admon)

グラフィカルなJAVAのツールからこのサーバを経由してFhGFSの管理やパフォーマンスグラフのモニタリングを行う

5.Clients(fhgfs-helperd,fhgfs-client)

データをmountするサーバ。

■サーバの準備

パブリッククラウド上でサーバを立ち上げます。すべて下記の環境で立ち上げます。
CentOS-6.4 64bit 20GB 4CPU 4GB

各サーバでrootで公開鍵の登録を行いiptablesとselinuxは切っておきます。

1 * Management server 192.168.0.101
2 * Metadata servers 192.168.0.151-152
8 * Storage servers 192.168.0.201-208
1 * Admon server 192.168.0.251
1 * Clients 192.168.0.51
1 * 作業サーバ(インターネットへのGWにもなっています) 192.168.0.1

の計14台を構築しました。クラウドならこの段階まで10分以内で構築可能です。

作業サーバのhostsを登録します。

すべてのサーバに配布もしておきます。

準備は以上です。

■パッケージインストール

パッケージのインストールはすべて作業サーバから行います。

Management server向け

Metadata servers向け

Storage servers向け

Admon server向け

Clients向け

■InfiniBand用の設定

今回はイーサネット環境ですので設定しません。

■各環境設定(各環境で設定)

Management server向け

Storage server向け

Admon server向け

Clients向け

■サービススタート(作業サーバから)

問題なければこれでclinetでdfすると

このようになっているはずです。mountされ使えるようになっています。

■メタデータとストレージデータの冗長化

メタデータの冗長化(client環境にて)

この設定でメタデータが2重化されます。ただしフォールトトレランスではなく復旧には手動での作業が必要です。

ストレージデータの冗長化

raid10設定とすることでデータの2重化が可能。ただし復旧は手動での作業です。

■admon server

admonサーバは8000番ポートで待ちうけてます。

今回は作業サーバにインターネットからのポートフォワーディングによって自身の環境から繋ぎます。

GWサーバ(eth0:external eth1:internal)にてマスカレードとポートフォワーディングの設定を行っています。

あとは、http://作業サーバのIP:8000

ツールのダウンロードリンクが表示されますのでダウンロード

ダウンロードしたJAVAツールを起動させログインすれば下記のようなモニタリングや各種管理が可能となります。

初期のログインはAdministrator:adminでのログイン

admon

■パフォーマンス比較 GlusterFS(stripe 4 replica 2) vs FhGFS(raid10)

dd、catやlsを利用したパフォーマンス比較です。

 

 filesystem write(1M 1000個) write(1M 10000個) write(5G 1個)  read(5G 1個)  ls(1000個のファイル)  ls(10000個のファイル)
 FhGFS  91s  196s  90s  55s  0.5s  5.6s
 Glusterfs  186s  430s  186s  49s  1.2s  14s

これを見るとFhGFSのほうが書き込みと小さいファイルが得意。

小さいファイルで書き込みパフォーマンスが必要かつ障害がある程度許容されるサービスに限定すれば使いどころはあるかなあ。

Glusterfsのほうがインストールも設定も運用も簡単でバランスは良いように思います。

 

glusterfs

ほんとに小ネタです。

って数が多くなればなるほど面倒くさいのですが、下記のようにまとめる事が出来ます。

小ネタ

うちのオフィスのブロードバンドルータが故障したので、
急きょ、Linux(CentOS6系)サーバをマスカレードルータに仕立てようと設定を行っていたのですが、少しはまってしまったので共有します。

私の認識ではとりあえず急場しのぎだけなら下記のこの構成でうまくいくはずでした。

traceなどで確認するとLinuxサーバのem2のインターフェースから先に進まないようで、

設定はおかしくないはずだしiptablesのFORWARDチェインの設定も下記のようにポリシーがACCEPTだし

なんでだろう。なんでだろうと1時間

とりあえず、下記のようにFORWARDチェインを明示的に許可してみると。

フォワードされるようになりました。

iptablesの設定(FORWARDの部分だけ抜粋)を確認すると

いつの間にかREJECTが・・・

iptables -A FORWARD -j REJECT –reject-with icmp-host-prohibited
この設定が隠れているってことですかね?

5系も6系も標準のFORWARD設定は同じように見えるのですが、
手元の5系では明示的に設定しなくともいけるので6系では挙動が変わってしまってるように見えます。

今後はこの辺りの違いを意識していけば混乱は防げるかな?

PAGE TOP