並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 2243件

新着順 人気順

データセンターの検索結果281 - 320 件 / 2243件

  • ジェフ・ベゾス氏から株主への手紙。「私たちが直面する問題は商用ソフトでは解決できない。だから自社開発するのだ」

    Amazon.comの創立者でCEOのジェフ・ベゾス氏が、4月末に株主に宛てた手紙が公開されています。そこでは、eコマースを主力とする企業とはとても思えないような、徹底的に技術へ投資する姿勢が熱く語られています。 書面から浮かび上がるベゾス氏の熱意は、マイクロソフトのスティーブ・バルマー氏や、オラクルのラリー・エリソン氏らITベンダのトップが技術について語る熱意にひけをとらないどころか、「私たちが直面する多くの問題は、教科書に解き方など載っていない」「Amazonが求める要件はもはやあらゆる商用ソフトウェアでは満たせないところまで達した」と、ITベンダに依存せず、自社開発こそが進むべき道なのだという、固い決意を示す言葉が散らばっているのです。 先進のITはもはやITベンダの専売特許ではありません。オンラインサービスを提供するさまざまなベンチャー、AmazonやFacebookやTwitte

      ジェフ・ベゾス氏から株主への手紙。「私たちが直面する問題は商用ソフトでは解決できない。だから自社開発するのだ」
    • NTTコミュニケーションズが「Cloud<sup>n</sup>」でパブリッククラウド本格参入。個人も利用可能で月額945円から、Amazon互換API、日米データセンター展開など

      NTTコミュニケーションズが「Cloudn」でパブリッククラウド本格参入。個人も利用可能で月額945円から、Amazon互換API、日米データセンター展開など NTTコミュニケーションズとグループ会社である米Verioは、Amazonクラウドのようにクレジットカードで申し込んですぐに使え、各種APIからの操作も可能とするパブリッククラウド市場への参入を発表しました。日米のデータセンターで展開しつつ低価格であることもアピールするなど、本気でグローバルなクラウドプレイヤーと競合しようという意気込みです。 発表されたのは、オープンソースのクラウド基盤「CloudStack」を採用したパブリッククラウドの「Cloudn」(クラウド・エヌ。このように右上にnがくるのが正式表記とのこと)。3月30日から提供開始となります。 従量課金制ながら月額に上限。20分で利用可能 Cloudnでは仮想サーバの課金

        NTTコミュニケーションズが「Cloud<sup>n</sup>」でパブリッククラウド本格参入。個人も利用可能で月額945円から、Amazon互換API、日米データセンター展開など
      • DC/所在地一覧 - Tomocha WikiPlus

        DC所在地一覧 † 注意 本情報については、建物の情報を取り扱い、利用組織の一覧を作成しています。また、サイト管理人については、業務で関わったところについては記載せず(意図的に除外しているため、一部の情報は意図的に欠落させています)、公開情報(公示看板及び公的機関公開情報)、GoogleMapsによる航空衛星写真を元に、室外機の捜索、サイト等で公開された建物の外観からストリートビューで確認、もしくは現地捜索により見つけた物をリストアップしたものです。その他公開wikiということで、その他の方々有志により情報が更新されています。住所については、Google地図を参照し、住所を割り出しているため、正確性に欠けますが、住所検索、その他本サイト問い合わせなどから、さらなる信頼性の向上が行われています。 GoogleMaps https://maps.google.co.jp/maps/ms?msi

        • うちのデータセンターのここを見てくれ! 「DCな人の夕べ」第1回開催

          電源や空調やケーブルといった話題をデータセンターの関係者が存分に語り合うイベント「第1回 DCな人の夕べ」が昨日5月29日、都内で開催されました。 これまで勉強会やコミュニティといえば、アプリケーションやソフトウェアのインフラなどソフトウェア技術者が中心でした。「DCな人の夕べ」は、データセンター関係者の人たちが交流するコミュニティとして初めての試みだそうです。 イベントのハイライトをまとめました。 石狩DCで冬を越して さくらインターネット 運用部 石狩センター長 宮下頼央氏。「石狩DCで冬を越して」 2005年にさくらインターネットに入社し、都内のデータセンターをすべて経験して、昨年、北海道の石狩データセンターに来ました。 私、寒さが苦手なんです。今日もセーターを着てます。 今年の冬、石狩では数メートルの積雪がありましたが、あらかじめモックアップで積雪試験などをしていたので外気の取り込

            うちのデータセンターのここを見てくれ! 「DCな人の夕べ」第1回開催
          • トヨタ、自前の「トヨタ・ビッグデータ・センター」構築を発表。車載通信機からの膨大なデータ処理用に

            すべての企業はソフトウェアカンパニーになる、という予想が昨年からよく聞かれるようになりました。どんな企業でもビジネスを実現し改善し続けていくための手段として、ソフトウェアの役割が圧倒的に大きくなっていく、という意味です。 製造業において世界有数の企業であるトヨタ自動車は1月4日、膨大なデータを自社で処理するための「トヨタ・ビッグデータ・センター」を構築すると発表しました。 トヨタは2017年以降に米国で車載通信機の搭載率を高め、その後米国以外の地域にも対象を拡大、クルマの「つながる」を促進。これに伴い集まってくる膨大なデータの処理を行うため、ITインフラを大幅に機能拡張した「トヨタ・ビッグデータ・センター」を構築するとのこと。 トヨタはすでに、「T-Connect」と呼ばれるカーナビゲーションシステム向けの通信サービスを提供しており、渋滞情報などを踏まえた最適ルートの提案や、位置情報を基に

              トヨタ、自前の「トヨタ・ビッグデータ・センター」構築を発表。車載通信機からの膨大なデータ処理用に
            • データセンター100選

              データセンターは,システムを構築する際の欠かせない選択肢となった。どれも同じように見えて,それぞれ特徴がある。記者が丹念に歩いて集めた情報を基に,特徴を一つずつ見ていこう。

                データセンター100選
              • データセンターを進化させるためにeBayが行っていること

                ほぼ同じ処理性能を発揮する3つのクラスタ、2.9GHzのCPUを積んだサーバ2000台と、1.6GHzのサーバ3663台、3.46GHzのサーバ1694台。どれが最もトータルコストが安いのか? eBayのDean Nelson氏は、こうした緻密な試算を積み重ねてデータセンターの構成を決定していることを、スイスで開催された「2011 European Data Centre Summit」のセッションで解説しています。 最新のデータセンターはどのような設計思想の上に成り立っているのか。公開されているセッションのビデオから紹介します。 What have we learnd in our Data Centers eBayのDean Nelson氏。 まずはeBayの基本的なデータを紹介しよう。eBayは1日に2ビリオンページビューのWebサイトで、23ミリオン行のソースコード、1日に75ビリ

                  データセンターを進化させるためにeBayが行っていること
                • 「いつもどこかが壊れてる」前提で作る、大規模データセンターネットワークの秘密(前編)

                  「例えば、データセンター内に1000台のネットワーク機器があれば、それらを接続するリンクは1万本にもなる。このくらい大規模のネットワークになると、“いつも必ずどこかが壊れている”状態だ。それを前提に、ネットワーク全体としては安定して稼働を続ける設計をしなければならない」――。 米マイクロソフトのEdet Nkposong氏は、2014年1月末、インターネットの運用や技術について話し合う日本の技術者コミュニティのミーティング「JANOG33」でこう語った。「Experiences with BGP in large Scale Data Centers」というセッションで、同社のデータセンターネットワークの特徴の一端を紹介したのである(写真)。 写真●JANOG33でのマイクロソフトによるプレゼンテーションの様子。左端はEdet Nkposong氏、右端はTim LaBerge氏。中央は通訳

                    「いつもどこかが壊れてる」前提で作る、大規模データセンターネットワークの秘密(前編)
                  • 国内でDockerコンテナを本番利用しているのは9.2%。コンテナオーケストレーションツールはKubernetesがデファクト。IDC Japanの調査結果

                    国内でDockerコンテナを本番利用しているのは9.2%。コンテナオーケストレーションツールはKubernetesがデファクト。IDC Japanの調査結果 調査会社のIDC Japanは、コンテナインフラストラクチャソフトウェアのDockerコンテナ(以下、コンテナ)とコンテナオーケストレーションツールのKubernetesの導入状況に関する調査結果を発表しました。 調査は2019年4月に国内の企業および組織468社に対してアンケート調査により実施されています。 コンテナを本番環境で使用している企業は9.2%。ただし伸び率は低調 コンテナの導入状況について調査した結果、本番環境で使用している企業は9.2%。2018年調査からの上昇率は1.3ポイントにとどまっています。 導入構築/テスト/検証段階にある企業は16.7%となり、これも2018年調査からわずかな上昇となっています。 この結果を

                      国内でDockerコンテナを本番利用しているのは9.2%。コンテナオーケストレーションツールはKubernetesがデファクト。IDC Japanの調査結果
                    • Google、クラウドとオンプレミスを接続する「Google Cloud Interconnect」発表。専用線、キャリア接続、VPN接続に対応

                      Google、クラウドとオンプレミスを接続する「Google Cloud Interconnect」発表。専用線、キャリア接続、VPN接続に対応 Googleは11月4日、サンフランシスコで開催したイベント「Google Cloud Platform Live」で、Googleのクラウドデータセンターとオンプレミスを接続する「Google Cloud Interconnect」を発表しました。 Google Cloud Interconnectを利用することで、より安全で安定し高速にGoogleのクラウドとオンプレミスのデータセンターを接続できるようになります。 接続方法は、専用線をGoogleのエッジポイントに接続する「Direct peering」、Googleのキャリアパートナー経由で接続する「Carrier Interconnect」、VPNで接続する「VPN-based conn

                        Google、クラウドとオンプレミスを接続する「Google Cloud Interconnect」発表。専用線、キャリア接続、VPN接続に対応
                      • PHPの価値が相対的に落ちてJavaの価値があがっていく 2009-10-19 - きしだのはてな

                        2000年あたり、PHP4やJSP1.0が出たころ、PHPよりもJavaがよいと言っても、「Javaは動かせる安いサーバーがない」ということで、サーバーの確保が容易なPerlやPHPが使われました。 Javaを使うには、一台まるごと借りれる割高なレンタルサーバーで、自力でTomcatなどをインストールする必要がありました。そういった状況はしばらく続き、「PHPならば安く借りれるサーバーがたくさんある」ということから、PHPがよく使われるようになりました。 PHPの普及初期では、サーバーの確保が容易なことがPHP採用の大きな理由のひとつだったと思います。 こういう状況は最近まで続いたけど、Amazon EC2のおかげで「Javaは動かせる安いサーバーがない」という問題は解決してきました。Amazon EC2を借りても自力でTomcatなどをインストールする問題がありましたが、HerokuやS

                          PHPの価値が相対的に落ちてJavaの価値があがっていく 2009-10-19 - きしだのはてな
                        • WikiLeaks - Map of Amazon's Data Centers

                          Northern Virginia Seattle California Bay Area Northeastern Oregon Dublin Luxembourg Frankfurt Beijing Ningxia Tokyo Osaka Singapore Sydney São Paulo Rio de Janeiro Note: In some cases, the locations of the data centers in China shown on this map may be less precise than those in other countries due to limitations of geographic data. There also appear to be typos in two addresses in the original do

                          • マイクロソフトの考える屋根がない衝撃的な第4世代型データセンター構想

                            サーバやそれを収納するラックのことを考えた場合、最も気になるのはその密度。データセンター自体の面積に制限がある以上、可能な限り密度を高めるべく、ブレードサーバやサーバの仮想化など、様々な方式がこれまで考えられてきました。が、それらを入れる「建物」から根本的に変えるべきだとマイクロソフトは考えているらしく、なんと、屋根がなく工期も短いデータセンターを構想しているようです。 これは過去30年間にわたるデータセンターの歴史において、一種のパラダイム的出来事であるとしています。 一体どのようなデータセンターを作るつもりなのか、その全容をCGでわかりやすく解説したコンセプトムービーの再生は以下から。 Our Vision for Generation 4 Modular Data Centers - One way of Getting it just right . . . << LooseBol

                              マイクロソフトの考える屋根がない衝撃的な第4世代型データセンター構想
                            • Azureの北欧州データセンター、定期メンテナンス時の消火剤放出が原因で空調停止、温度が上昇し自動シャットダウンへ。7時間にわたり一部にサービス障害

                              Azureの北欧州データセンターで、定期メンテナンス時に予期せぬ消火剤放出が発生。空調停止を引き起こし、温度上昇でサーバ群が停止するという障害を引き起こした。 Microsoft Azureの北欧州データセンターで9月29日の13時27分から20時15分まで約7時間にわたり、一部の顧客において仮想マシンやAzure Backup、Azure Functionsなど多数のサービス障害が発生したとの事象が「Azure status history」で報告されています。 原因は、データセンターの定期メンテナンス時に予期せず消火剤の放出が発生し、それがきっかけとなって空調が停止。停止した区画の温度上昇により一部のサーバやストレージが停止するというものでした。 データセンター内のさまざまな部分で自動化が進んだ結果、ある問題が自動的に次の問題を引き起こす将棋倒しのような状況を見ると、データセンターの自

                                Azureの北欧州データセンター、定期メンテナンス時の消火剤放出が原因で空調停止、温度が上昇し自動シャットダウンへ。7時間にわたり一部にサービス障害
                              • Googleの人工知能専門チームDeepMindがたった数カ月で40%もGoogleデータセンターの冷却システムを効率化することに成功

                                人工知能開発を行うスタートアップだった「DeepMind」は、Googleに買収された後もイギリス・ロンドンに拠点を置きつつ独自に人工知脳研究を続けています。DeepMindが開発する人工知能技術は、自己学習してゲームが上達するアルゴリズム「DQN」や囲碁の世界チャンピオンを打ち破るソフトウェア「AlphaGo」などのように時折発表されるとその度に世間を騒がせるのですが、Googleのデータセンターのエネルギー削減にも大きな威力を発揮していることが明らかになりました。 Google DeepMind https://deepmind.com/blog Google検索、Gmail、YouTubeなどのGoogleのさまざまなサービスを支えているのが、Googleが世界各地に持つデータセンターです。このデータセンターを効率的にすることは、Googleのサービス品質の向上につながることから、G

                                  Googleの人工知能専門チームDeepMindがたった数カ月で40%もGoogleデータセンターの冷却システムを効率化することに成功
                                • Googleがあらゆるサービスを支えるデータセンターの様子を公開中

                                  Googleが、世界中に設置しているデータセンターの様子をギャラリーで公開しています。Googleの心臓部とも呼べるデータセンターの様子が分かる写真集はこんな感じです。 Data centers – Google Data centers http://www.google.com/about/datacenters/gallery/ これは、サーバーラックの様子。接続される4本のケーブルは全て違う色で接続されているとのこと。 このネットワークを完璧な状態に維持するのは、人間の手作業です。 こちらはネットワークルームの様子。プラスチックカーテンと呼ばれる仕切りがあります。 インジケーターランプもカラフル。 まるでイルミネーションのよう。 明かりのないフロアは、どこか幻想的な雰囲気。 昼とはまったく違う印象です。 整然と結束されたネットワークケーブル。 元はこんな感じ。カラーで分けられている

                                    Googleがあらゆるサービスを支えるデータセンターの様子を公開中
                                  • TechCrunch | Startup and Technology News

                                    Kobo put out a handful of new e-readers a few weeks back: color versions of the excellent Libra 2 and Clara, as well as an updated monochrome version of the…

                                      TechCrunch | Startup and Technology News
                                    • Windows Azure対応「クラウドデザインパターン」正式版が公開。可用性、データ管理、メッセージング、セキュリティなど8カテゴリで24パターン

                                      作成したのはマイクロソフトのPatterns&Practiceグループで、今回公開されたのは全部で8カテゴリ24種類のパターン。残念ながら英語で記述されており、日本語化は検討中とのことですが、図版が豊富に使われているため見るだけでも概要が分かるでしょう。 8カテゴリ24パターン 今回公開されたのは以下の8カテゴリ。リンク先には、対応するデザインパターンが説明されています。 Availability Data Management Design and Implementation Messaging Management and Monitoring Performance and Scalability Resiliency Security 例えば、Availabilityのカテゴリには「Health Endpoint Monitoring」「Queue-based Load Leve

                                        Windows Azure対応「クラウドデザインパターン」正式版が公開。可用性、データ管理、メッセージング、セキュリティなど8カテゴリで24パターン
                                      • Google uncloaks once-secret server - CNET

                                        Tech Industry Google uncloaks once-secret server Unusually, the search giant designs its own servers. For the first time, Google unveils one publicly, showing a surprise built-in battery. Google for the first time showed off its server design. (Click to enlarge) Stephen Shankland/CNET Updated at 4:08 p.m. PDT April 1 with further details about Google's data center efficiency and shipping container

                                          Google uncloaks once-secret server - CNET
                                        • Performance - Stack Exchange

                                          Stack Exchange, Careers, Meta RAM: 768 GB • DB size: 3.9 TB

                                            Performance - Stack Exchange
                                          • グーグルデータセンターの内側--明らかにされた独自性 - builder by ZDNet Japan

                                            サンフランシスコ発--先日、Googleの秘密が少しだけ明らかになった。 Googleがデータセンター業務を公開することは滅多にないが、米国時間5月28日、GoogleフェローであるJeff Dean氏が業務の一部を話題に取り上げた。28日に当地で開催された「Google I/O」カンファレンスの超満員の聴衆に対して講演を行ったDean氏は、Googleのインフラがいかに独特かを説明しながら、Googleの秘密を少しだけ明らかにした。 Googleはごく普通のサーバを使用している。プロセッサ、ハードドライブ、メモリも同様だ。 一方、Dean氏は、1800台のサーバで構成されるクラスタは、たいしたものではないというわけではないが、ごくありふれていると考えているようだ。しかし、Googleがそのようなハードウェアを使って、700〜1000台のサーバが使われる一般的な検索クエリに0.5秒以下で応

                                              グーグルデータセンターの内側--明らかにされた独自性 - builder by ZDNet Japan
                                            • データセンターを箱に入れる「Project Blackbox」

                                              この「ブラックボックス計画」というのは、サン・マイクロシステムズが考えているもので、サーバに必要な記憶装置、ネットワーク装置などをすべて貨物輸送コンテナに詰め込んで運用するというモノ。もちろんコンテナには衝撃を和らげるための仕組みやクーラーなどが完備されています。 どういうメリットがあるのか、という詳細は以下の通り。内部はどうなっているのかという写真もあります。 Project Blackbox コンテナの長さは20フィート、約6メートル。いわゆる「20フィートコンテナ」として一般的にISO規格で定められているコンテナです。 20フィートコンテナ コンテナ - Wikipedia 来年の夏には本格的な生産体制にはいるとしており、価格はまだ未定。 このコンテナ化によってどのようなメリットが生じるのかというと、スペースの節約と冷房効率のアップによる電気代の削減。冷房効率については、コンテナ化す

                                                データセンターを箱に入れる「Project Blackbox」
                                              • データセンターに立ちふさがる「25%電力削減」

                                                データセンターは、ネットワークそのものと並ぶ重要なインフラといえよう。それゆえ、データセンターの多くは震度6強以上にも耐えられる建物を使い、サーバーラックも床面に固定するなど、地震に強い構造となっている。大手コンピュータメーカーや通信事業者のデータセンターは、今回の地震による直接的な被害はなく、その後の計画停電に対しても自家発電用の燃料確保に動くなど「影響なし」との立場を示している(関連記事:計画停電のデータセンターへの影響なし、自家発電の燃料確保に動く)。 だが、必ずしも安心できるとは限らない。自家発電装置を備えるデータセンターでも、停電が長引くと脆いことがある。 茨城県にデータセンターを保有するサンファーストは、サーバーそのものの破損はなかったというが、2日以上にわたる停電に苦しんだ。同社はUPS(無停電電源装置)、自家発電装置での電力供給を実施したが、停電の最中、燃料切れで自家発電装

                                                  データセンターに立ちふさがる「25%電力削減」
                                                • Royal Pingdom | 17 brilliant 404 pages and why they are cool

                                                  Get unified visibility and intelligent insights with SolarWinds Observability LEARN MORE Synthetic Monitoring Simulate visitor interaction with your site to monitor the end user experience. View Product Info FEATURES

                                                  • 自社開発技術満載!Microsoft Azureの物理インフラを大解剖 (1/3)

                                                    Microsoft Azureのサービスは、140カ国以上の地域に配置された100以上のデータセンターで運用されている。物理インフラを意識せずに使えるのがパブリッククラウドだが、そのデータセンターの中身にちょっと興味はないだろうか。日本マイクロソフト クラウド&ソリューションビジネス統括本部 クラウドソリューションアーキテクトの真壁徹氏に、Azureデータセンターの物理インフラについて教えてもらった。 真壁:こんにちは、マイクロソフトの真壁です。Azureのアーキテクトですが、前職はヒューレット・パッカード エンタープライズ(HPE)で物理のサーバーやストレージ、ネットワークも扱っていました。データセンターの中のことはチョット詳しいです。 Azureのデータセンターには、マイクロソフトが運用するものと、各国のパートナーデータセンターを借りて運用しているものの2種類があります。今回は前者、マ

                                                      自社開発技術満載!Microsoft Azureの物理インフラを大解剖 (1/3)
                                                    • サーバの電源って冗長化してますか? - mikedaの日記

                                                      実は自分はあんましてないです。 理由について書くと。。。 例えばこんなラック、サーバが前提で、 電源コンセントは2系統で、それぞれ25A(100V, 2.5kva)でブレーカ落ちる サーバは平均2A(100V, 0.2kva)の電力を消費する 片系20Aで合計40Aまで使うとして、サーバは20台突っ込みたい、と思ったとする。 最初はこうしてたんですが、 これだと片系電源に障害があった時とか、ミスってブレーカ落とした時、 もう片系に40Aの全電力がかかって共倒れして、全サーバが停止してしまう。 でもサーバ搭載数を半分にするのはお金的にムリ過ぎる。 ※DCと調整して片系50kvaまで使える2系統にしてもらって、実効電力ベースの契約にするとか、いろいろ手はありそうだけど。 というわけで、 こっちのほうがまだマシか、と次はこうしました。 これだと片系落ちても半分のサーバは生き残るので、サービスは維

                                                        サーバの電源って冗長化してますか? - mikedaの日記
                                                      • さくらインターネットのデータセンターに障害、GREEなどのサービスが停止中

                                                        さくらインターネットのデータセンターに12月19日、障害が起き、データセンター収容ラック内への電源供給が一部で停止している。この影響を受け、ソーシャルネットワーキングサービス「GREE」やブログサービス「Seesaaブログ」「So-net blog」など、同社を利用したサービスが利用できない状態になっている。 さくらインターネットによると、東京都新宿区にある西新宿データセンター内の電源設備から煙が出ていたという。発生時間は12時35分頃。具体的には、6階Aゾーンの配電盤3台、6階Bゾーンの配電盤2台の片系統もしくは両系統の電源供給が停止しているとのことだ。 復旧に向けて対応をしている状況で、19日中にすべての供給が回復する見通しとしている。 12月20日追記: さくらインターネットによると、19日午後7時30分、すべての電源供給が復旧したという。その後も同社を利用しているサービスに障害が出

                                                          さくらインターネットのデータセンターに障害、GREEなどのサービスが停止中
                                                        • [サーバー運用編]1ラック60A以上使用してはいけない

                                                          データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ

                                                            [サーバー運用編]1ラック60A以上使用してはいけない
                                                          • Fastlyのプログラマから見たCDN

                                                            4月13日に開催されたCDN Study (Akamai/Fastly)で使用したスライドをアップロードしました。Fastlyでミドルウェアを書いているプログラマから見た、CDNの面白さやFastlyの特徴について伝わればいいなと思います。 当日は、リクルートさんに会場をご提供いただき、多くの方々、またAkamaiの方々ともと触れ合うことができる、とても貴重な機会となりました。この場を借りて、皆さんに御礼申し上げる次第です。

                                                            • 分散型データセンターOSとリアクティブ性を持つコンテナ実行基盤技術のこれから - 人間とウェブの未来

                                                              本エントリはさくらインターネットアドベントカレンダー2018の12月25日の記事です。メリークリスマス!!!!! 12月24日は、echizenya yotaさんの「さくらインターネット株式会社の田中邦裕社長からクリスマスプレゼントをもらう方法」でした。 ということで、今日は @matsumotory が 「分散型データセンターOSとリアクティブ性を持つコンテナ実行基盤技術のこれから」について書いてみようと思います。 現状のgVisorやFirecrackerをはじめとするコンテナ実行基盤技術の公開に伴って、個人としてはこれからますます分散型データセンターOSのような基盤と、その上で実行されるリアクティブ性を持つコンテナ実行環境が重要になってくる時代がはじまるように思っています。 今日は、そのあたりについての自分の考えと、その流れを見据えて現在開発しているミドルウェアを2つ紹介したいと思い

                                                                分散型データセンターOSとリアクティブ性を持つコンテナ実行基盤技術のこれから - 人間とウェブの未来
                                                              • 地球に優しいのはどっち?マイクロソフト対グーグル

                                                                インターネット利用者の心をつかもうと、GoogleとMicrosoftとの間の競争が過熱している。そんななか、どちらの企業が地球を救うことに長けているかが注目を集めつつある。 ポータルや検索エンジンを提供する両社は、データセンターの運営や、その冷却システムを稼働させるために膨大なエネルギーを必要としている。そのため、両社は世界でも指折りのエネルギー消費企業であろう。この点について尋ねられた両社の広報担当者は、データセンターの効率性を高め、エネルギー消費量を削減するために取り組んでいる事柄については明らかにしなかった。 世界でトップクラスのインターネットサイトを持つGoogleとMicrosoftは、疑うまでもなく、データセンターとその冷却システムを稼働させるために大量の電力を消費している。しかし事業運営のために必要とする電力を別とすれば、両社とも米国産業界では屈指の、環境保護活動に積極的な

                                                                  地球に優しいのはどっち?マイクロソフト対グーグル
                                                                • クラウドよりも最適化された企業のデータセンターの方が低コスト、との調査結果

                                                                  米調査会社のIDCが9月29日にロンドンで開催したイベント「IDC's Cloud Computing Summit 2009」で、同社の欧州システムグループ所属コンサルタント Matthew McCormack氏は「最適化された企業のデータセンターは、3年以上運用するとトータルコストがクラウドの利用コストよりも下がる」という調査結果を明らかにしました。 McCormack氏は講演の中で、典型的な企業の大規模システムをデータセンターで構築し運用した場合と、同様のサービスをクラウドの利用で得た場合のコストを比較。最適化された企業のデータセンターは、初期投資こそかかるものの運用コストはクラウドの費用を下回り、結果として3年でトータルコストがクラウドを下回るという結果を示しました。 初期投資として500万ポンド(約7億5000万円)のシステムを想定。大規模な業務システムを100%企業のデータセン

                                                                    クラウドよりも最適化された企業のデータセンターの方が低コスト、との調査結果
                                                                  • イーサネットはツリー型からファブリック型へ進化する。ブロケードがファブリック対応の大型スイッチ発表

                                                                    イーサネットで構築されるネットワークの姿が大きく変わろうとしています。これまでのイーサネットはループ構造になってはならないという制限がありました(ループがあると信号がそこをぐるぐる回り出してネットワークを機能不全にするため)。 そのためイーサネットのネットワークは一般的にはツリー構造で構築され、耐障害性を高めるためにそのツリーを二重化した上で、その半分はスパニングツリーによって待機状態になっている、というのが一般的なデータセンターにおける構成でした。ブロケード・コミュニケーションズ・システムズのスライドから引用します。 しかしこのネットワーク構成は、仮想マシンがサーバからサーバへとライブマイグレーションするような横方向のトラフィックをさばくのは得意ではなく、サーバ仮想化が一般化した現在のデータセンターには不向きだと考えられるようになっています。 そこで最近注目されているのが「イーサネットフ

                                                                      イーサネットはツリー型からファブリック型へ進化する。ブロケードがファブリック対応の大型スイッチ発表
                                                                    • 失敗しないデータセンター設計のためのケーススタディ - Qiita

                                                                      IaaSの中で構築などをしている者です。 データセンターの中にネットワークやサーバを作っていますが、データセンター設計1にはこれといった指針やベストプラクティスのようなものが(あるようで)実はあまりないため苦労することがあります。 検証環境でもない限り、データセンタに作ったシステムというのは、気に入らないからと言って、じゃあ止めて作り直すね、というわけにもまいりません。 特に物理的な問題は、後になってから「ああしておけばよかった」と思っても、後の祭りです。 クラウドを使っていれば、気にしなくても良いのですが、それでもコロケーションやオンプレミスに何か作らなければならなくなった方の参考に少しでもなればと思い、まとめます。 サーバとルータを同じラックに入れるのは有りか? 何が問題なの?と思われるかもしれませんが、 結論を言えば、無しではないが極力避けるべき、です。 主な問題はこんなところです。

                                                                        失敗しないデータセンター設計のためのケーススタディ - Qiita
                                                                      • 落ちたサイト360万件。欧州最大のデータセンター炎上、データが空のクラウドに...

                                                                        落ちたサイト360万件。欧州最大のデータセンター炎上、データが空のクラウドに...2021.03.15 11:0058,675 satomi 銀行も政府も報道機関もダウン。 その数350万サイト。FR.ドメインの2%ですってよ! 3月10日未明、フランス東部ストラスブールにある欧州最大のデータセンターで火災が発生し、OVHクラウド(OVHcloud)が運用するデータセンター4棟のうちSBG-2と呼ばれるビル(動画下)が全焼し、SBG-1も一部焼失。ここにデータを保管していたオンライン人気サバイバルゲーム『Rust』などの非常に広い範囲でサイトが落ちたり、サービスが使えなくなるなどの障害が起きています。 幸いけが人はなしIPO報道の直後を襲った悲劇OVHは1999年にOctave Klaba会長が創業したフランス随一のユニコーン。EUでは米国企業のAmazon、Google、Microsof

                                                                          落ちたサイト360万件。欧州最大のデータセンター炎上、データが空のクラウドに...
                                                                        • DC内通信のHTTP/2化を検討する | GREE Engineering

                                                                          こんにちは、インフラストラクチャ部の後藤です。 懲りずにHTTP/2の記事です。 HTTP/2を実サービスに投入するのには様々な障壁があり、議論が足りてない部分だと感じています。 サイトのHTTPS化 TLS ALPN, TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256 サポート モニタリング・監視 Dependency Based PriorityとRUM コネクションの生存時間が長く、運用上のDNSを用いたサーバ切り替えと相性が悪い(GOAWAY出せるものもあるが) ELBを使用している場合はTCPで利用する必要がある そもそもL7ネットワーク機器が対応していないという場合もあるかとおもいます。 そこで、今回は比較的容易なDC内のHTTP通信をHTTP/2化することを考えます。 DC内HTTP通信のHTTP/2化 DC内でサーバ間のHTTP/2通信であれば、h

                                                                            DC内通信のHTTP/2化を検討する | GREE Engineering
                                                                          • sakurabaryo.com

                                                                            This domain may be for sale!

                                                                            • @IT Special PR:大阪・堂島に、さくらインターネットの秘密を見た

                                                                              「そもそも、私はデータセンターなんて差別化できるもんじゃないと思ってるんです」。さくらインターネットの創業社長、田中邦裕氏は驚くべき率直さで、こう言ってのけた。新幹線に乗って大阪にまで取材に訪れた記者は一瞬たじろぎ、広報担当者の表情を盗み見た。差別化ポイントを取材しにきたのに、そんなものはないというのだ。しかし、自らのビジネスを否定するかのようなこの爆弾発言の裏には、真摯な取り組みに裏打ちされた自信があるのだった。激化する競争環境の中で「自社にしかできない差別化」を徹底して追求する同社のビジネスの根幹とは何か。苦笑いする広報担当には目もくれず、田中社長はやわらかな関西イントネーションで語り始めた。 さくらインターネットは、レンタルサーバビジネスの草分け的存在だ。田中社長は学生ベンチャーに近い形で事業をスタートしている。1996年、まだ舞鶴工業高等専門学校在学中だった学生時代に、「自分の技術

                                                                              • クラウドのためのクラウド〜VMware Cloud on AWSの意味 - 急がば回れ、選ぶなら近道

                                                                                記事とか詳細とかはこっち http://www.atmarkit.co.jp/ait/articles/1708/28/news097.html https://cloud.vmware.com/vmc-aws http://www.publickey1.jp/blog/17/vmwarevcloud_air.html まぁ概ねこんな感じ 単純に見れば、AWS上でVMWareが使えるので、VMで動いているシステムがそのままAWSで使えるようになりました。便利ですね。はい、おしまいの話ではある。が、それは二重の意味で「表層的」な見方だ。そもそもVMWareがクラウドから撤退し、AWSの軍門に降ったというエポックメイキングなものとして見るべきだと思う。 ・ハード調達の争いの決着 結局のところ、DCを含めたハードウェアの調達という点で、競争に決着がつきつつあるということかと。VMWareの規模を

                                                                                  クラウドのためのクラウド〜VMware Cloud on AWSの意味 - 急がば回れ、選ぶなら近道
                                                                                • さくらインターネットが石狩市に大規模データセンター、外気冷房を全面導入