free nudes, naked, photos,
こんにちは。インフラチームの ebisawa です。 今回はグリーのインフラにおける各種機器の監視がどのように行われているのかご紹介させていただきたいと思います。一般にサーバの監視というと、システムダウンを検出するための死活監視を意味する場合と、ネットワークトラフィック等のモニタリングのことを意味する場合とがあります。今回の監視は特に後者についてのお話です。大規模なインフラの監視には、やはり特有の課題があります。 どんなツールを使っているのか グリーではサーバの各種リソース使用状況をモニタリングしてグラフ化するためのツールとして、Cacti を利用しています。Cacti は、大変有名なツールなので皆様ご存知かと思いますが、バックエンドの RRDtool で作成したグラフを閲覧するための使いやすいユーザーインターフェイスを備えています。 http://www.cacti.net/ ツールの使
Virtualization, Operating System, Storage, Cloud ComputingLinux環境のiscsi-initiator-utilsを用いた際に重要となるタイムアウト関連の設定について。 信頼性の高いシステムでは当然iSCSIストレージへの接続も冗長化するという要件があります。汎用的な実装だとdevice-mapper-multipathを使ってストレージネットワークの障害に対しての冗長構成でとることができます。また、OracleのASMを使ったStorage GRID構成では複数ストレージをストライピング&ミラーリングし、例えストレージが筐体ごとパワーダウンしてもオンラインで処理を継続することができます。このStorage GRID構成で重要なのがiSCSI Initiatorのタイムアウト設定です。 iSCSIストレージへの接続性に不具合が発生
GUIで設定できるシリアルポートは、ホストOS側からはただのファイルにしかみえない。なので、tail -f するぐらいならいいけど、シリアルコンソールとしては使えない。(VMware Fusion 3ではGUIで設定できるんですかね?) ホスト側にUNIXドメインソケットとして見せるには、設定ファイル(*.vmx)を手で編集する必要がある。既存の「serial0.*」の行を消して、こんなのを追記すればOK serial0.present = "TRUE" serial0.fileType = "pipe" serial0.fileName = "/tmp/serial-guest01" serial0.tryNoRxLoss = "TRUE" serial0.startConnected = "TRUE"これで、ゲストOSのttyS0がホストOSでは/tmp/serial-guest01と
最近、Server::Starterを使い始めたのですが、いつでも簡単にサーバを再起動でき、とても便利で安心です。詳しい解説は、kazuhoさんの去年のAdvent Calendarのエントリがわかりやすいと思います。 さて、start_server コマンドには --interval ってオプションがあるのですが、このオプションが結構重要です。--helpから引用すると以下の通りです。 --interval=seconds minimum interval to respawn the server process (default: 1)Server::StarterがHUPシグナルを受け取った際、--interval の間にサーバがエラー終了しないと、サーバの立ち上げに成功したと見なして新しいサーバにディスパッチを開始してしまいます*1。よって、立ち上げに1秒以上時間がかかるサーバを
MySQLでテーブルへのカラム追加、インデックス追加やテーブルの再編成などを行うと、その間テーブルに共有ロックがかかってしまいます。そのためこれらのメンテナンス処理は、通常利用者の少ない深夜早朝帯にサービスを止めて実施する必要があります。本日はそれを無停止、オンラインのままでできないかという話題です。 基本的なアイデア メンテナンス対象の元テーブルをコピーして、作業用の仮テーブルを作ります 仮テーブルに対して、カラム追加などの変更を加えます その間、元テーブルに対して行われる更新処理について差分を記録しておきます 仮テーブルの変更が終わったら、記録しておいた差分データを仮テーブルに反映します 差分データの反映が終わったら、元テーブルと仮テーブルを入れ替えます これと似たようなことを考えた方は結構いらっしゃるのではないでしょうか。ただ、言うは易し、行うは難しです。整合性がきちんと取れるかどう
incast Cluster-based storage systems are becoming an increasingly important target for both research and industry. These storage systems consist of a networked set of smaller storage servers, with data spread across these servers to increase performance and reliability. Building these systems using commodity TCP/IP and Ethernet networks is attractive because of their low cost and ease-of-use, and
「クラウド」って言ってみたかった。今は反省していr 上のグラフは前回のエントリーを公開したときの、当blogを配信しているサーバのトラフィックグラフです。記事を公開した17時にぴょーんとトラフィックが伸びています。4時にも増えているけどこちらは謎。 実はこのグラフもCloudForecastを利用して取得しています。CloudForecastはサーバ等のリソース監視を行うツールもしくはフレームワークで、rrdtoolの薄いラッパーとして動作し、小規模から大規模なサーバ群を一括で管理できるように設計してあります。tokuhirom曰く、「perlが書けてrrdtoolがつかえるsysadminの人だったら使いやすいと思われる」というのがもっともしっくりくるような気がします。Perlとrrdtoolが使える運用者によるカスタマイズ前提なのがフレームワークと呼んでいる所以です。 CloudFor
最近はもっぱらインフラ屋の山本です。 今回のネタは掲題の通り、NICのMACアドレスからIPを自動設定できるかな、 ということでやってみました。ちなみに背景としては、 1.VMの仮想NICのMACアドレスは自己管理していて、KVMだと上3バイトは 52:54:00 で固定で、下3バイトで管理。 2.IPアドレスは10.0.0.0/8 なので、下3バイトで管理。お、MACと一緒じゃん。 3.じゃ、VMのIP指定はDHCPとかじゃなくてMACアドレスでできるんじゃね? てな感じです。 材料: ・ /sys/class/net/eth*/address Linux で各NICのMACアドレスはこのファイルを cat すれば入手できます ・ /etc/init/networking.conf Ubuntu の upstart ではネットワークの初期化はこいつがやります。 なかでは "ifup -a
I wrote about FlashCache there, and since that I run couple benchmarks, to see what performance benefits we can expect. For initial tries I took sysbench oltp tests ( read-only and read-write) and case when data fully fits into L2 cache. I made binaries for FlashCache for CentOS 5.4, kernel 2.6.18-164.15, you can download it from our testing stage. It took some efforts to make binary, you may get
システムワークスさんのページに書かれていた一言にびっくりしました。 製品情報およびiSCSI Remote Bootサポート製品はこちらから http://www.intel.com/products/desktop/adapters/gigabit-ct/gigabit-ct-overview.htm http://www.intel.com/support/network/adapter/pro100/sb/CS-028681.htm 私は PT Server Adapter で満足していたので CT Desktop Adapter には まったく興味がなかったのですがiSCSIブートできるとなれば話は別です^^; さっそく Intel CT Desktop Adapter を購入して確認してみました。 ファームはインテルのサイトから15.2版をダウンロードして書き込みました。
某所で話題に上がったので軽くまとめてみる 以下のようなテストプログラムを走らせてみる。nice値5とnice値10のスレッドが ビジーループを何回回すことができるか競争するというプログラムである struct thread_param { int prio; long counter; }; #define barrier() __asm__ __volatile__("": : :"memory") void* loop(void* _param) { struct thread_param *param = _param; setpriority(PRIO_PROCESS, 0, param->prio); usleep(1000); for(;;) { param->counter++; barrier(); } return NULL; } int main() { pthread
Most recent kernel where this bug did not occur: - Distribution: Debian Etch/Lenny/Sid/Experimental Hardware Environment: IBM ThinkPad T42 with internal harddisk Software Environment: martin@shambala> apt-show-versions | egrep "(xfsprogs|dmsetup|lvm2)" lvm2/sid uptodate 2.02.26-1+b1 xfsprogs/sid uptodate 2.9.4-2 dmsetup/sid uptodate 2:1.02.20-2 The internal harddisk is accessed by libata PATA. Pro
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く