タグ

OSSとクラスタに関するrx7のブックマーク (7)

  • ScalableStorageWithOSS05 - mizzy.org - Trac

    ずいぶん間があいちゃいましたが、OSS だけでスケーラブルなストレージを安価に構築する方法 #4 のつづき。今回は DM-MP により束ねられた仮想的なブロックデバイス(/dev/mapper/mpath0 と /dev/mapper/mpath1)を、更に CLVM でひとつの論理ボリュームにし、GFS2 でフォーマットした後、実際にマウントしてみます。今回が最終回です。 CLVM のインストールと設定 client0, client1 双方でインストールと設定。 $ sudo yum -y install lvm2-cluster /etc/lvm/lvm.conf を編集し、locking_type を 3 に設定。 locking_type = 3 clvmd を起動。 $ sudo /etc/init.d/clvmd start 物理ボリューム/ボリュームグループ/論理ボリュー

  • 第2回 Linuxで動作するHAクラスタリング・ソフト

    24時間止められないシステムの多くは,HAクラスタリング・ソフトが活用されています。従来,こうしたシステムはUNIXサーバーで構築されていましたが,近年,Linuxサーバーも使われるようになってきました。それに伴い,Linuxサーバー用のHAクラスタリング・ソフトが増えてきています。 Linuxサーバーのクラスタリングは,現状では商用のHAクラスタリング・ソフトが多く利用されています。代表的なソフトには,サイオステクノロジーの「LifeKeeper」,NECの「CLUSTERPRO」,ヒューレット・パッカードの「ServiceGuard」などがあります。 また,データベース管理システムやアプリケーション・サーバーなどがHAクラスタリング・ソフト相当の機能を自前で持っている場合もあります。これらの機能を利用する際には,HAクラスタリング・ソフトは不要となります。ただし,提供される監視機能など

    第2回 Linuxで動作するHAクラスタリング・ソフト
  • ScalableStorageWithOSS04 - mizzy.org - Trac

    OSS だけでスケーラブルなストレージを安価に構築する方法 #4 OSS だけでスケーラブルなストレージを安価に構築する方法 #3 のつづき。今回は Device-Mapper Multipath をつかって、DRBD によりミラーされている2つのブロックデバイスを、仮想的にひとつに見えるようにします。 まずは client0 と client1 に device-mapper-multipath がインストールされていなければ、インストール。 $ sudo yum -y install device-mapper-multipath /etc/multipath.conf を修正。デフォルトでは blacklist の devnode に * が指定されていて、すべてのデバイスに対して無効になっているので、blacklist をコメントアウト。 # Blacklist all devic

  • ScalableStorageWithOSS03 - mizzy.org - Trac

    OSS だけでスケーラブルなストレージを安価に構築する方法 #2 のつづき。今回はストレージサーバ側で GNBD によりブロックデバイスをエクスポートし、クライアント側でインポートするまでの手順を紹介します。 ストレージクラスタ 用途的にはクラスタリングする必要はないのですが、GNBD でエクスポートする際に、cman(Cluster Manager) を動かす必要があるため、まずは cman をインストール、設定、起動して、ストレージクラスタを構成します。 といっても、クラスタリングは来の趣旨とははずれるので、設定は適当。 まずは storage0a と storage0b をクラスタリング。最初に storage0a で cman をインストール。 $ sudo yum -y install cman storage0a で ccs_tool を実行し、/etc/cluster/cl

  • ScalableStorageWithOSS02 - mizzy.org - Trac

    OSS だけでスケーラブルなストレージを安価に構築する方法 #2 OSS だけでスケーラブルなストレージを安価に構築する方法 #1 のつづき。 Xen インスタンスの作成 ここは詳しく解説しません。好きなように作成してください。自分は Cobbler/Koan を使ってます。インスタンスは6つ作成。 client0, client1(ストレージをマウントするインスタンス) storage0a, storage0b(ストレージを構成するインスタンスセットその1) storage1a, storage1b(ストレージを構成するインスタンスセットその2) 全体的な構成概要については、前回のエントリ を参照してください。 エクスポート用ブロックデバイスの作成 storage[01][ab] 上で、GNBD によりエクスポートするブロックデバイス(ディスク)を作成。 ディスクイメージを作成。テスト用

  • ScalableStorageWithOSS01 - mizzy.org - Trac

    OSS だけでスケーラブルなストレージを安価に構築する方法 #1 OSS だけでスケーラブルなストレージを安価に構築する方法 #0 のつづき。 サーバ構成概要 TLUG 発表資料 で触れた、全体的な構成のおさらい。構成図は以下のような感じ。 この構成について説明すると、以下のようになります。 DRBD により、2台一組でブロックデバイスをミラーリング /dev/gnbd0 と /dev/gnbd1 がセット /dev/gnbd2 と /dev/gnbd3 がセット GNBD でブロックデバイスをエクスポート /dev/gnbd0, /dev/gnbd1, /dev/gnbd2, /dev/gnbd3 がネットワーク越しに見える クライアント側で GNBD でエクスポートされたブロックデバイスをインポート /dev/gnbd0, /dev/gnbd1, /dev/gnbd2, /dev/g

  • ScalableStorageWithOSS00 - mizzy.org - Trac

    OSS だけでスケーラブルなストレージを安価に構築する方法 #0 TLUG Meeting 2008/09 で発表した How to build a scalable storage system with OSS なんですが、発表では概要しか触れてなくて、じゃあいったいどうやって構築するのよ、という部分が全然ないので、ぼちぼちこのブログで書いていくことにします。 で、スケーラブルというだけだと曖昧なので、以下のような要件を満たすものを、スケーラブルなストレージと想定することにします。 特殊なソフトウェアを必要とせずに、OS からファイルシステムとしてマウントできるもの。なので MogileFS、Hadoop Distributed File SystemGoogle File System 等は対象外。(FUSE 使えばやれないこともないけど…) 容量をオンラインでダイナミックに追加で

  • 1