UI コンポーネントカタログ “Storybook” を、C# で SPA が作れる Blazor で再実装した話
Linuxにて、ext2/ext3ファイルシステムを使用しているときのシステムバックアップリストア方法。 (TOPICSに投稿したのを再編集して静的ページにしました) dumpを使用してファイルシステムイメージでバックアップしているのでaclやselinuxにも対応できます。(aclやselinuxの場合は権限の箇所を適時読み替えてください) 以下の条件がそろっていることを前提とします。 リストアにはlvm2およびNFSマウント restoreコマンドが扱えるレスキューCD(インストールCD)を利用する。(CentOSあたりがよさそう) (↑わかってるならKNOPPIXや他のLiveCD Linuxでも可。こちらのほうが融通利きやすい) バックアップイメージは他サーバーのNFSエクスポート領域に配置 ファイルシステムはext2またはext3を使用
Phoronix Media is the largest Internet media company devoted to enriching the Linux hardware experience and catering its content to Linux gamers and computer enthusiasts. LinuxネイティブなZFSの登場が話題になっている。CDDLとGPLのライセンスの相性から現在までのところLinuxカーネルにZFSをマージする目処は立っていない。KQ Infotechが取り組んでいるZFS Linuxカーネルモジュールはこうしたライセンス問題を避けつつ、LinuxにネイティブなZFSをもたらすものとして注目されている。 LinuxにはすでにFUSEで動作するZFS-FUSEが存在する。最新のリリースはZFS-FUSE v0.6.9。
MogileFSのさらなる高速化、効率化 前回「MogileFSで構築する高速スケーラブルな分散ファイルシステム」では、moonlinxで活用しているMogileFSについて説明しました。今回はMogileFSの更なる高速化、効率化を追求してみましょう。 MogileFS活用のために、まずは問題点を把握 素のMogileFSをそのまま利用した場合、ファイルにアクセスするために、クライアントが毎回trackersへ問い合わせをすることになります。これは、trackersはデータベースに全ての情報を格納しているので、毎回データベースを参照することを意味しています。 moonlinxでは、作品メディアファイルのサムネイルも含めてMogileFSに保存しています。そのため、サムネイルが多い画面では1つの画面を表示するために、数十回ほどMogileFSへアクセスすることになります。 trackers
東京・銀座に社を構えるデータ復旧会社「日本データテクノロジー」が、特殊ファイルシステム「ZFS」の復旧に成功したそうです。日本データテクノロジーは、他社に先駆けて自社内にデータ復旧専門の研究チームを設けており、今回のZFS復旧成功もこの研究チームの成果ということで、データ復旧の研究とはいったいどんなものなのか、その実態を聞いてきました。 データ復旧|PC・サーバー・RAID機器のHDD復旧ならデータ復旧.com 銀座にある日本データテクノロジーの本社に到着。 「日本データテクノロジー」はデータ復旧のブランド名で、運営会社はOGID株式会社です。 インタビューに答えるのは、日本データテクノロジーのデータ復旧事業部復旧技術チームに所属する、西原世栄さん。 GIGAZINE(以下、G): 今回は、これまで復旧の事例が無かったと言われるファイルシステムで、ファイルシステム自体がRAID機能を持つ「
MySQLfs を使うと、リレーショナル・データベースMySQLの中にファイルシステムを入れることができる。このファイルシステム中のファイルに含まれるバイト列はデータベースの各行に分割して格納されるため、大きなファイルがある場合もデータベースが巨大なBLOBフィールドをサポートしている必要はない。ファイルシステムをMySQLデータベースに入れておくと、データベースが備えているバックアップやクラスタリング、レプリケーションの機能を利用してMySQLfsファイルシステムを保護することができる。 Fedora、openSUSE、UbuntuにはMySQLfsのバイナリー・パッケージは含まれていない。したがって、MySQLfsを使うにはソースからビルドする必要がある。また、あらかじめmysql-develとfuse-develをインストールしておかなければならない(FUSEにより、一般のプログラム
squashfs が良いらしい 自宅や会社でサーバ立てまくったり、HDD を交換するために OS を移動したり、USB メモリや SD カードにインストールを試してみたり等何かと OS のバックアップ・リストアが必要になることが多い。今までは単純な cp から始まり、rsync、dd、tar、たまに Windows で FireFileCopy や xcopy、robocopy と色々使って来たけれど、今日は squashfs というファイルシステムにバックアップするコマンドを知ったので試してみる。 利点 squashfs-lzma という、7-zip でも採用されている LZMA 方式で圧縮しているため圧縮効率が高い。(だいたい容量が 1/3 程度まで圧縮される) ファイルシステムとして作成するので、昔はよく使われていた tar.gz での圧縮より堅牢性が高い。具体的には、tar.gz
squashfsを使ってみる squashfsとは、Zlibを使ったLinux用の高圧縮率と高速読込み専用を実現するファイルシステムで、 マウント出来る読み込み専用の圧縮ファイルシステムを作成することができます。 バックアップ等に使用すると、非常に力を発揮するのではないでしょうか? 検証環境 CentOS 5.1 インストール いつもどおりお手軽簡単なyumでインストールします。 # yum -y install squashfs-tools Loading "installonlyn" plugin Setting up Install Process Setting up repositories extras 100% |=========================| 1.1 kB 00:00 updates 100% |===================
Linuxでmysqlを使ったら、SUSE+xfs+MySQLより、CentOS+ext3+MySQLの方が速い? そんな感じがするので、いろいろと調査してみた。 MySQLのLinuxでのパラメータ Linux上のXFSでACLを利用するさいの注意点(性能についてのメモ) 元々ACLを使うと遅め+xfsは通常ACL on+mkfs.xfs時のパラメータによっては劇遅 POSIX Access Control Lists on Linux 「EA and ACL Performance」 上記サイトのネタ元 MySQL5開拓団 ストレージエンジンの吟味 (2) MySQL5でディスクへ書き込む際に関係するパラメータ関連 非常に役にたったページ群 Big DBA Head!というページの以下の記事 ・XFS & Centos 5 & MySQL Performance ・More XFS F
分散ファイルシステム 概要 分散ファイルシステムは、複数のストレージノードでファイルを分散して保管、管理します。利用者からは1台のストレージとしてマウントでき、通常のディスクと同等にディレクトリおよびファイルを作成できます。これらのディレクトリおよびファイルは複数の利用者で共有できます。分散ファイルシステムではファイルおよびディレクトの管理にはDHT(分散ハッシュテーブル)を用いおり、集中管理機構がない構造となっています。そのため、必要に応じてストレージノードを追加するだけで容量を増やすことができます。 ダウンロード 分散ファイルシステムのソースコードは、ここからダウンロードしてください。 分散ファイルシステムのコンパイルには素材作成用MXFライブラリが必要です。素材作成用MXFライブラリは、ここからダウンロードしてください。 動作環境 下記の環境で動作確認しています。 openSUSE
※1 ext2用のオンラインリサイズパッチは過去に存在していました。 (1) LVのリサイズするには LVのリサイズには、lvresize、lvextend、lvreduceといったコマンドを使います。また、LVのリサイズの中にも、マウントしたままサイズ変更される「オンラインリサイズ」と、一度アンマウントした後にリサイズを行う「オフラインリサイズ」があります。 Linux上の一般的なファイルシステムはオンラインリサイズができます。 (2) LVのサイズ拡大 サイズの拡大は、まず入れ物であるLVを先に大きくし、その後、中身のファイルシステムを大きくします。(図9) LVのサイズを拡大には、lvresizeコマンドか、lvextendコマンドを使います。(図10) 次にファイルシステムを拡大します。この場合、ファイルシステム固有のコマンドを使います。(表1を参照) 図9 LVのサイズ拡大 図1
ファイルシステムは、OSがファイルを管理するための枠組み。 MIRACLE LINUXでは、以下のファイルシステムが利用可能 ext3 RaiserFS XFS ファイルシステムは、以下の手順で作成 ファイルを作成したいパーティションに対して、ファイルシステム作成 ファイルシステムを作成したパーティションを使用できるようにマウント システム起動時に自動的にファイルシステムをマウントする時は「/etc/fstab」に記述 ファイルシステム /sbin/fdiskでパーティションを作成しただけでは、そのパーティションを使用することはできません。OSがそのパーティションを利用するためには、そのパーティション上にファイルシステムを作成し、マウントする必要があります。ファイルシステムとは、OSがファイルを管理するための枠組みであり、MIRACLE LINUXでは、ext3、XFS、ReiserFSな
CentOS5.3からext4のdevelop版というかテクノロジープレビューが同梱されたようです。 RedHatのページに書いてありました。 http://www.jp.redhat.com/magazine/jp/200901/rhel.html このページを読むと・・・ 例えば、RHEL 5.3ではext4がテクノロジプレビューで同梱されたので、Red Hat Network経由で利用することはできますが、問題が発生した場合であっても、ext4に対するサポートは提供されません。 もちろんバグ報告等のフィードバックやbugzillaを利用することは歓迎されており、アップストリームにて修正や検討がなされます。 まあ、使ってみない事には話にならないので、何はともあれインストールです。 一応、CentOS5.2から5.3にアップデートしてれば問題ないです。 特にkernelはkernel-2
3ware 9650SE-8LPMLと1TB SATA 6本の組み合わせでRaid6を作った。Raid BIOS上でブート領域として40GBを確保して、そこにCentOS 5.5 x86_64をインストールした。 流れ 追加モジュールのインストール 領域の確保 ファイルシステム構築(フォーマット) ファイルシステムパラメータ変更 マウントしてみる fstabに書く NFSでexportする NFSクライアントマシンからマウントしてみる 追加モジュールのインストール ext4を取り扱うためにはどうやら追加モジュールが必要なようだ。e4fsprogs.x86_64をインストールした。 # yum search ext4 e4fsprogs.x86_64 : Utilities for managing the fourth extended (ext4) filesystem e4fsprog
1. まず始めに Ext3 上でファイルシステムの破損状況を調査する umount /dev/hda1 e2fsck -fn /dev/hda1 正常時 Pass 1: Checking inodes, blocks, and sizes Pass 2: Checking directory structure Pass 3: Checking directory connectivity Pass 4: Checking reference counts Pass 5: Checking group summary information /dev/hda1: 150/4308992 files (10.7% non-contiguous), 3486771/8614848 blocks Parallelizing fsck version 1.20-WIP (17-Jan-2001)
Virtualization, Operating System, Storage, Cloud Computing仮想化サーバが数台あると共有ストレージをつないで仮想マシンを全仮想化サーバで共有したくなります。 そうすることによって仮想マシンはリソースが空いていればどの仮想化サーバ上で起動させることができ、起動後もLive Migrationで別の仮想化サーバ上に移動させることさえできます。なのである程度の規模になると仮想化サーバ数台 + 共有ストレージという構成が一般的となります。 こうなってくると仮想化サーバのローカルハードディスクはほとんど使われません。サーバの故障率を下げるためにSANブートにしたりするとさらにローカルハードディスクは全く使わないことになります。それはそれですっきりしいると言えばそうなのですが、せっかくのローカルハードディスクが無駄になっている気もします。もし、共
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く