岡崎市中央図書館に1秒間に1回アクセスしたら逮捕されたけど不起訴になった件について。 当事者からの報告とそれに関連した高木先生などのつぶやきをまとめています。不完全かつ進行中です。
岡崎市中央図書館に1秒間に1回アクセスしたら逮捕されたけど不起訴になった件について。 当事者からの報告とそれに関連した高木先生などのつぶやきをまとめています。不完全かつ進行中です。
Amazonクラウド、5月に入って3回もトラブル発生。UPSの故障、分電盤のショート、ネットワーク接続エラー Amazonクラウドの北アメリカサイトでトラブルが続いています。今月に入って3回もトラブルが発生しているのです。 今月最初のトラブルは5月4日午前2時(現地時間)。データセンターの電源関係の作業中にトラブルが発生。切り替わるはずのUPS電源がうまく働かず、データセンター内アベイラビリティゾーンの一部のラックに対して電源供給が停止しました。その後、技術者がUPSを迂回して直接電源を供給することで復旧が始まり、午前3時40分から6時35分のあいだに復旧しています。 2度目のトラブルは5月8日午前0時20分。ふたたびアベイラビリティゾーンの一部のラックに対して電源トラブルが発生。トラブルは長時間に及び、午前7時20分頃に復旧開始。原因は主分電盤の漏電とショートで、復旧前に分電盤の修理とテ
日本銀行は3月7日夜、昨日から続いていたシステム障害が復旧したと発表した。8日の午前8時から通常通りの業務を開始する。 障害が起きたのは6日午前。埼玉県戸田市にある発券センターでのコンピュータの処理に遅延が発生し始めた。このため同日午後2時に処理を停止し、東京日本橋の本店で銀行券の取り引きに対応した。 日銀は6日午後から原因の究明を開始。7日朝にネットワークの問題であることが判明した。原因は週末に行ったLAN機器の更新。10Mから100Mビット/秒の機器に更新しネットワークの性能を上げたところ、「コンピュータの処理が追いつかなくなった」(発券局総務課)という。元の10Mビット/秒の機器に戻すことで復旧させた。
1995年を「95年」と表記するなど、年数の表記を西暦の下2桁のみで行っている一部のコンピュータで、「2000年(00年)」を「1900年」と解釈してしまった結果、コンピュータが誤作動する可能性があるとされた「2000年問題(Y2K問題)」が1990年代末に世界を騒がせましたが、オーストラリアで2010年を迎えた途端、金融システムにエラーが発生したそうです。 どうやら10年遅れる形で「2000年問題」で懸念されていた事態が到来してしまったことになりますが、いったいどうなっているのでしょうか。 詳細は以下から。 Bank error costs retailers > Inside Retailing > Articles page この記事によると、オーストラリアのクイーンズランドにある銀行のシステムが2010年1月1日を迎えた途端、なぜか日付を「2016年1月1日」であると誤認識してしま
Windows XPが立ち上がらない! そのときの対処法:あきらめる前に試すべき5つの対処法(1/6 ページ) Windows XPが起動不能に! ああOSの再インストールかとあきらめる前に、試してほしい5つの対処法。大事なデータと時間を無駄にしない復旧テクを解説する。 連載目次 頻繁に起きることではないとはいえ、さまざまな理由から突然、Windows OSが起動しなくなることがある。故障や破損といったハードウェア障害の場合は本体や部品の買い替えが必要だが、ソフトウェア的な障害が原因なら、最悪の場合でもハードディスクをフォーマットしてWindows OSを再インストールすれば解決できる。しかしこの場合、ハードディスクに保存したデータやさまざまな設定情報は失われてしまうし、Windows OSだけでなくアプリケーション・ソフトウェアのセットアップと再設定も必要である。いうまでもなく、できるだ
クラウド上で誰でもJavaやPythonによるアプリケーションが構築できるプラットフォーム「Google App Engine」。 そのGoogle App Engineで、米国太平洋夏時間の7月2日午前6時半(日本時間7月2日深夜11時半)頃から障害が発生し、約6時間のあいだデータストアへの書き込みなどができなくなり、データストア機能を利用する全アプリケーションが影響を受けました。 この障害は午前8時半頃からApp Engineチームによって対応が行われ、午後12時半過ぎには解決した模様です。App Engineチームは逐次作業状況を報告しましたが、何が原因だったのかについては一切明らかにされていません。 Google App Engine System Statusを見ると、たしかに7月2日にDatastoreとMemcacheに障害が発生しているのが分かります。 対策チームからの原因
【浦添】浦添市の住民基本台帳と税務を管理するシステムで、断続的な不具合が生じ業務に支障が出ていることが29日分かった。市情報政策課によると、処理能力が落ちる不具合を最初に確認したのが今月22日で、その後も断続的に発生している。 住民票や納税証明の申請窓口では、サービスの利用に、通常より最大10分超の待ち時間が生じ、苦情が出ている。 担当者は「サーバーに負荷がかかり、リスポンス(反応)が落ちている」と説明。不具合は一時的なものでその後は平常に戻るが、根本的な原因の究明には至っていない。 同市では今年3月、5年ごとの基幹システムの見直しで、電子政府分野で高い技術力を誇る韓国「サムスンSDS」のノウハウを搭載した新システムを稼働させたばかり。 システム更新との因果関係について、担当者は「想定の範囲外」と話しており、事態を重く受け止めている。技術者やメーカーに事実関係を報告、分析を
先週の水曜日、アマゾンのクラウドサービスAmazon EC2を運用中の米国のデータセンターに落雷があり、電力配分装置(Power Distribution Unit:PDU)が破損。一部のサービスが停止するという事故がありました。 このときアマゾンの内部では何が起きてどう対応したのか? アマゾンがクラウドの稼働状況を報告している「AWS Service Health Dashboard」にあがっている、6月10日の報告を翻訳しながら追ってみましょう(時刻は現地時間の午後です)。 Amazonによる障害復旧報告 6:39PM 「アベイラビリティゾーン」にあるいくつかのインスタンスが電源の故障によって接続できなくなったことを検知しました。接続は回復済みで、問題を調査中です。 6:54PM いくつかのホストはまだ接続できていません。引き続き調査中です。 7:33PM 中間報告。落雷によって1カ所
2009年4月9日,NTTコミュニケーションズ(NTTコム)の「Arcstar IP-VPN」を監視するシステムがウイルスに感染していたことが明らかになった。感染範囲はNTTコムの内部にとどまらず,Arcstar IP-VPNを利用する企業のパソコンまで被害が拡大した。NTTコムのシステム運用の甘さが露呈した格好だ。 Arcstar IP-VPNには,ユーザー企業のルーターを監視する「ルーター監視オプション・サービス」がある。ウイルスに最初に感染したのは,同サービス向けの監視端末である(図1)。 NTTコムが監視端末の感染を知ったのは,2009年4月9日の午前中。Arcstar IP-VPNのユーザー企業から「NTTコム側から不正なパケットが断続的に届いている」との報告があった。この申告に基づきシステムを調査したところ,監視端末のウイルス感染が見付かった。同日13時ごろに全監視端末をネット
米Googleは5月14日、同社ユーザーの14%に影響したサービス障害について、ルーティングのエラーが原因だったと説明した。 システムのエラーが原因で一部のトラフィックがアジアに転送され、輻輳が起きたことが原因という。これによりGoogle検索、Gmail、YouTube、Google Analyticsなど複数のサービスで遅延や停止が起きた。 同社はこれを飛行機に例えて、このように説明している。「ニューヨークからサンフランシスコへ行くのに、飛行機がアジアの空港を経由したらどうなるか想像してほしい。しかも、ほかにもたくさんの飛行機がその経路を通ったために渋滞が起き、目的地に着くまで想定以上の時間がかかった。14日に当社の一部ユーザーに起きたことは、基本的にはそういうことだ」 「われわれはサービスを超高速かつ『常時接続』にするべく取り組んできた。このような問題が起きるのは恥ずかしい」とGoo
2009年5月12日午前10時30分ごろに東京工業品取引所の取引システムがダウンした原因は、取引注文を処理するシステムと取引参加者をつなぐネットワーク上のルーターにあったことが分かった。ルーターのプロセサの利用率が99%に達し、動作が不安定な状態に陥った(関連記事1、関連記事2)。 この日の取引件数は増加傾向にあったものの、ルーターが過負荷状態に陥るほどではなかったとみられる。このことから、ルーターに何らかの問題が発生し、それが原因で負荷が高まった可能性が高い。東工取はルーターのログを解析するなどして、過負荷状態に陥った原因の究明を続ける。ルーターはシスコ製。取引システムの構築を担当したNTTデータが設定・納入した。 東工取は5月7日にスウェーデンのOMXテクノロジー製パッケージソフトを採用した新しい注文処理システムを稼働させている(関連記事3)。この注文処理システムには異常は見つかってい
米Microsoftは米国時間2009年3月18日,同社のクラウド・コンピューティング基盤「Windows Azure」のプレビュー版で同3月13日に障害が発生し,多数のサービスに影響が生じたことを明らかにした。 オペレーティング・システムの定期更新時にネットワーク関連の問題が生じたことが原因で,Windows Azureのデプロイメント・サービスのパフォーマンスが低下し,多数のサーバーでタイムアウトや障害が発生したという。この結果,単一インスタンスのみで動作するアプリケーションがサーバーとともにダウンしたほか,複数インスタンスの一部アプリケーションにも影響が出た。 また,問題が生じたアプリケーションを別のサーバーに自動移行する復旧処理の影響で,Webポータルからの管理機能も多くのアプリケーションで使えなくなった。ストレージには障害の影響はなかった。 現在はすべてのアプリケーションが正常に
ブロガーの皆さんは、読者のコメントなどに困った経験はないでしょうか。いま、インターネット上の名誉毀損や誹謗中傷が深刻な問題となっています。警察庁の発表によると、2008年のネット関連相談状況では、「名誉毀損、誹謗中傷」に関する相談件数が、2004年の調査開始以来初めて1万件を突破したことが明らかになりました。 ブログのコメント欄でも、名誉毀損や誹謗中傷まがいの書き込みがされることは少なくありません。当然、そうしたコメントは削除したいわけですが、果たして勝手に削除しても問題ないのでしょうか。放っておけば、コメントの被害者と思われる人から、書き込んだ人の情報開示を求められることだってあります。いずれにしろ、どう対処すれば問題は起きないのでしょうか。今回はそんなブロガーを悩ませる問題について考えていきます。(編集部) 【Q】ネット上でブログを開設、中傷コメントは勝手に削除していい? インターネッ
年末の帰省ラッシュを直撃した昨年12月29日の新幹線トラブル。悪天候などで前日のダイヤが大きく乱れたことで、新幹線総合システム「コスモス(COSMOS)」への入力データが膨大になったことが直接の原因だったが、車両の種類が多く運用計画の変更が「パズルのよう」(JR関係者)に難しかったことや、JR東日本がコスモスのデータ切り替え時の特性に熟知していなかったことも背景にあった。 同社の新幹線は東京駅始発の東北、長野、上越新幹線が、大宮駅で仙台、長野・新潟方面に分岐。東北新幹線に連結している山形、秋田新幹線は福島駅、盛岡駅で分離し、在来線と線路を共有する。 200系、400系、E1~4系の6車種あるが、在来線規格のミニ新幹線から、オール2階建てまでサイズや編成、座席数はさまざま。長野新幹線のE2系0番台は急坂や電源周波数の切り替えに対応しているため代替がきかない。 12月28日は、大雪や強風による
2008年12月29日の始発からシステム障害で運行できない状態となっていたJR東日本の東北・上越・山形、秋田の全新幹線が復旧した(写真)。システムの問題を解消し確認後の午前8時55分、やっと東京駅から始発電車が出発した。 JR東はトラブル原因について「詳細を究明しているところ」(午前9時45分時点)としているが、障害は新幹線の運行を管理する情報システムで発生した。車両やダイヤなど運行の根幹を管理するCOSMOS(COmputerized Safety Maintenance and Operation systems of Shinkansen)と呼ばれているものだ。 29日早朝、COSMOSのコンピュータは稼働しているものの、営業運行に向け列車が割り付けられなかった。調査したところ、前日までの処理の問題によって、当日の運転ができるシステム状態になかったという。JR東の新幹線では前日12月
11月30日午前、日本航空の運航業務システムでトラブルが発生。羽田空港の国内線と成田空港の国際線、計30便が最大で49分遅延し約4500人の足に影響が出た。トラブルを起こしたのは、運航業務システム「JALFOS」のうち航空機の重心を計算する機能。旅客や貨物の状況によって異なる重心を算出し、離陸時などの参考データにする。 システムは30日午前8時35分にダウンし、復旧までの2時間は担当者が手作業で計算した。さらに通常ジャンボ機であれば無線で計算後のデータを送信しているが、これも不能に。係員が広い空港内を駆け回り、データを手渡しすることになったため出発便が遅延した。 原因は26日に実施した同システムの更新で作り込まれた。具体的には、より詳しい情報が得られるよう、新たなデータを追加で扱うように機能を拡張。30日になってデータの処理に予想以上の負荷がかかりダウンした。「システムの領域を拡張すること
ヨドバシカメラのサイトがリニューアルに失敗してレスポンスが著しく低下している。ただでさえ重いところに、「ほらほらみてみて、重くなってるよ!見に行ってみてよ」なんてGIGAZINEが煽ったり、yahooニュースに飛び火したりしてさらにリクエストが増えて、瀕死の重病人いよいよまさに往生せんとす、といった雰囲気である。構築した会社は今頃針のむしろだろうし、ヨドバシ側の担当者もきっと現場からは「使い物にならんぞ!」と突き上げを食らい、上からは「なんでこんなところに依頼したんだ!」と怒られて社内キャリアはぶっ吹っ飛んだだろうし、まあ他人事ながら同情申し上げる。すでにあちこちで、CMSが腐ってるとか構築会社の社長がすごいとかいろいろ言われているが、基本に立ち返って外側から見える現象をひとつずつチェックしてみよう。1. DNSは問題なし大阪吹田にあるどっかの会社のサーバでDNS引いてみた。 $ dig
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く