タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

サーバとawsに関するyumu19のブックマーク (3)

  • h300 にかかった CDN 利用料と、それを半分に抑えてくれた JPEGmini - おいちゃんと呼ばれています

    少し前に書いたエントリーでは、h300 にどっと押し寄せたアクセスを捌くために、画像ファイルを別サーバに移したり、最終的には AWS の CDN である「Amazon CloudFront」を導入したことなどを、その判断基準も含めてまとめました。 -オシャレエロサイト「h300」をリリースして、10万PV/日を捌くためにやったこと それに対して、1番よく訊かれたのが で、ぶっちゃけ、結局サーバ代(CDN 利用料含む)にどれだけかかったの? << という質問でした。 ぶっちゃけたところを、書きます。また CDN 利用料を抑えるために JPEGmini という Web サービスが非常に役に立ったので、併せて紹介します。 **h300 にかかった CDN 利用料と、それを半分に抑えてくれた JPEGmini -1. h300 のサーバ代は、ぶっちゃけ 3万円/月 -2. CDN 利用料を半分に抑

    yumu19
    yumu19 2012/06/21
    100,000PV/日で¥3万/月。へぇー。
  • Amazonクラウド先週のシステム障害、原因は電源トラブル。二重三重の防護策が次々と倒れる

    先週6月14日に発生したAmazon Web Servicesの米国東部リージョンでのシステム障害は、HerokuPinterestなど大手のサービスにも影響を与えたようです。その障害報告が、Service Health Dashboardで公開されています(現在はRSS内の記述として読めます)。 障害は米国東部リージョンでの特定のアベイラビリティゾーンで発生したもの。報告によると、プライマリの電源ケーブルのトラブルをきっかけにバックアップとしての発電機へ移行したものの、そこでもまたトラブルが発生し、二重、三重の防護策が次々に倒れていったことが示されています。 Amazonクラウドの多重の防護策の一端が分かると共に、これだけバックアップ策が用意されていても、わずかなトラブルによって防護策が倒れることの教訓を得ることができます。 一方で、障害は特定のアベイラビリティゾーン内だったため、マル

    Amazonクラウド先週のシステム障害、原因は電源トラブル。二重三重の防護策が次々と倒れる
    yumu19
    yumu19 2012/06/21
    へー。電源か。
  • Amazonクラウドの大規模障害、そのときに内部で何が起きていたのか? 日本語での要約

    4月21日から23日のあいだ、Foursquare、Quora、Herokuなど多くのサービスに影響を与えたAmazonクラウドの大規模障害。このとき実際にどのような障害が発生していて、どう対応したのか、詳しい日語での資料がAmazonから公開されています。 この資料は非常に詳細に記されているため、短時間で内容を把握できるものではありません。そこで記事では資料からポイントを引用し、要約してみました。 以下からの記事はあくまで独自に内容を要約したものです。正確な情報は原文をご覧ください。 今回発生した障害とは何だったのか? 今回発生した障害を手短にまとめると、米国東 (US East) リージョンにおける一部のアベイラビリティゾーンにおいて、Amazon Elastic Block Store (EBS) で読み込み、書き込み操作が行えなくなる、という現象でした。 そして障害の影響は一部

    Amazonクラウドの大規模障害、そのときに内部で何が起きていたのか? 日本語での要約
  • 1