タグ

システム障害に関するsatoshieのブックマーク (107)

  • みずほ、3月中のデジタル口座移行を断念へ ATM障害(朝日新聞デジタル) - Yahoo!ニュース

    みずほ銀行は、2月28日のATM(現金自動出入機)の大規模な障害を受け、定期預金の既存口座をデジタル口座へ移す作業を延期する。3月上旬までに終える予定だったが、障害の原因究明が終わっていないため、3月中の作業を断念する方針だ。コスト削減のために進めてきたデジタル化の施策が障害で遅れる。 【図で解説】みずほ銀行が進めるデジタル化 みずほ幹部は5日、朝日新聞の取材に「全体の真因究明ができていないなか、データ移行だけ大丈夫というのは経営判断として甘い。拙速な対応は絶対に避けたい」と述べた。作業再開は早くても4月になる見通しという。 みずほは1月、紙の通帳を発行せずにネットで出入金の記録を確認するデジタル口座「みずほe―口座」の取り扱いを開始。1月末時点で1年以上にわたって紙の通帳に記帳がない既存の口座について、3月上旬までに自動的に「e―口座」に切り替える計画だった。

    みずほ、3月中のデジタル口座移行を断念へ ATM障害(朝日新聞デジタル) - Yahoo!ニュース
  • 「みずほe-口座」のデータ更新45万件が重なりメモリー不足、みずほ銀行システム障害

    みずほ銀行で2021年2月28日に発生したシステム障害を巡り、同行は3月4日、通帳を発行しない「みずほe-口座」関連のデータ更新処理が発端になったと明らかにした。定期預金関連で定例のデータ更新のほか、1年以上記帳がない口座を自動的にみずほe-口座に変更する約45万件の不定期処理が重なり、定期預金コンポーネントでメモリー容量不足が発生した。 みずほ銀行は2021年1月18日から、みずほe-口座の取り扱いを始めていた。それに関連し、2月下旬から3月上旬にかけて、1月末時点で1年以上記帳がない口座をみずほe-口座に段階的に変更する予定だった。2月28日はこうしたみずほe-口座への変更処理の約45万件に、定期預金の積み立てなど定例の処理も含めた合計で約70万件のデータ更新を予定していた。 この約70万件の処理でメモリー容量不足が発生。その結果、定期預金関連の取引ができなくなり、さらにピーク時で7割

    「みずほe-口座」のデータ更新45万件が重なりメモリー不足、みずほ銀行システム障害
  • みずほ、甘い想定重ね被害拡大 ATM障害、顧客目線の業務体制課題(時事通信) - Yahoo!ニュース

    2月28日に発生したみずほ銀行のシステム障害は、「甘い想定」が積み重なって被害が拡大した。一つ目の甘さは、定期預金の積み立てなど通常の取引量が多い月末に、システムを増強せずに臨時のデータ移行作業を行ったこと。さらに、新しい基幹システムが持つ「自衛機能」の影響も見誤っていた。再発防止には、顧客目線でリスクを広範に捉える業務体制づくりが欠かせない。 【図解】みずほ銀行システム障害の流れ 今回のシステム障害では、みずほ銀が全国に保有する現金自動預払機(ATM)の約8割に当たる4318台が一時停止。異常な取引と判断したATMが計5244件のキャッシュカードや預金通帳を取り込み、多くの利用者が適切な対応を受けられないまま長時間待たされる事態となった。 みずほ銀は2月27、28両日、一定期間取引のない定期預金(不稼働定期預金)の口座のデータを45万件ずつ移行する作業を実施した。ただ、28日は通常の取引

    みずほ、甘い想定重ね被害拡大 ATM障害、顧客目線の業務体制課題(時事通信) - Yahoo!ニュース
  • データ移行で発生したみずほ銀行のシステム障害についてまとめてみた - piyolog

    2021年2月28日、みずほ銀行でシステム障害が発生し、全国で同行のATMが利用できなくなる、キャッシュカードが取り込まれたまま戻ってこないなどのトラブルが発生しました。ここでは関連する情報をまとめます。 取り込まれ戻ってこないキャッシュカード みずほ銀行サイト上に掲載されたシステム障害発生の案内障害が発生したのは2021年2月28日11時頃。障害により各地で生じた影響は以下が報じられるなどしている。なお、法人向けに提供されるサービスでは今回のシステム障害による不具合は確認されていない。*1 障害発生から30時間後に全面復旧をした。 みずほ銀行の自行ATM5,395台の内、54%にあたる2,956台が停止し(2月28日19時40分頃時点)、預金引き落とし等が出来なくなった。*2 台数はその後訂正され、最大4,318台が停止していたことが明らかにされた。 *3 障害発生中は、ATMよりキャッ

    データ移行で発生したみずほ銀行のシステム障害についてまとめてみた - piyolog
  • 「もう解約」みずほ3度目のトラブル 危機管理の甘さ露呈 | 毎日新聞

    システム障害について記者会見するみずほ銀行の藤原弘治頭取=東京都千代田区で2021年3月1日午後6時38分、吉田航太撮影 みずほ銀行がまた、システム障害を起こした。同行の大規模なシステム障害は今回で3度目。過去2度のトラブルを受け4000億円超を投資してシステムを刷新したにもかかわらず、またも信頼が揺らぐ事態となった。利用者への対応も後手に回り、インフラを担う金融機関として危機管理の甘さを露呈した。 なぜ、みずほ銀だけが大規模なシステム障害を繰り返すのか――。1日に開かれた記者会見では記者からそんな質問が相次いだが、藤原弘治頭取は「ハード面のみならず…

    「もう解約」みずほ3度目のトラブル 危機管理の甘さ露呈 | 毎日新聞
  • 金融庁、みずほに報告命令へ 行政処分も視野 ATM障害(時事通信) - Yahoo!ニュース

    金融庁は1日、現金自動預払機(ATM)などが利用できなくなる障害が発生したみずほ銀行に対し、銀行法に基づく報告命令を出す方針を固めた。全国で預金が引き出せなくなったことに加え、ATMからキャッシュカードや預金通帳が取り出せなくなった事態を重くみている。同庁は万全な顧客対応を要求するとともに、障害発生の経緯や原因について詳しく報告を求める。 2月28日に発生した障害では、ATMで預金を引き出せなくなったほか、インターネットバンキングも一時停止した。金融庁はキャッシュカードなどを取り出せなくなった顧客が数時間、店頭で待たされるなど「現場でとても困った顧客がいる」(幹部)ことを問題視。業務改善命令などの行政処分も視野に、慎重に対応を検討するとみられる。

    金融庁、みずほに報告命令へ 行政処分も視野 ATM障害(時事通信) - Yahoo!ニュース
  • みずほ銀行 ATMシステム障害 すべての店舗で稼働 | IT・ネット | NHKニュース

    システム障害によって28日全国各地のATM=現金自動預け払い機の利用ができなくなった「みずほ銀行」は、28日夜のうちに復旧作業を終え、1日朝から全国すべての店舗でATMを稼働させました。店舗外に設置しているATMも順次稼働しているということですが、銀行によりますと、これまでのところトラブルは起きていないということです。 東京・渋谷にある、みずほ銀行の支店では、午前7時に通常どおりATMの稼働が始まると、利用客が次々と訪れていました。 預金残高の確認に訪れたという60代の男性は「トラブルがあったことは知らなかったが、利用者としては困る。みずほ銀行はトラブルが多い印象なので改善してほしい」と話していました。 今回のシステム障害では、利用客から「対応が遅い」などという批判が出ており、みずほ銀行は1日午後、事実関係や今後の対応などを説明することにしています。

    みずほ銀行 ATMシステム障害 すべての店舗で稼働 | IT・ネット | NHKニュース
  • AWS障害、5時間でほぼ復旧 気象庁Webサイトなどに影響【各サービス復旧状況を追記】

    Amazon Web Services(米AWS)が提供するクラウドサービス「AWS」の東京リージョンで、2月20日午前0時ごろに障害が発生した。発生から約5時間がたった午前5時9分に同社は、障害の大部分を解消したと発表した。この影響でAWSを利用するオンラインゲームの一部などが利用しづらい状態に。また、気象庁の公式サイトが一時接続できない状態になり、同庁は復旧作業や関連性の調査を急いでいる。 追記 2021年2月20日午後4時 気象庁Webサイトは完全復旧 気象庁は、午前10時50分ごろに公式サイトの全ページが正常に閲覧できるようになったと発表した。原因は「同庁が利用しているクラウドシステムの障害」としており、同庁の担当者はこのクラウドシステムがAWSであることを認めている。 暗号資産取引所を運営するコインチェックは午前11時24分、同社の全てのサービスが通常通り利用できるようになった

    AWS障害、5時間でほぼ復旧 気象庁Webサイトなどに影響【各サービス復旧状況を追記】
  • Slack、1月の大規模障害の原因を説明。「AWS Transit Gateway」がトラフィックの急上昇に対応できず、AWSはアルゴリズムを見直すと

    Slack、1月の大規模障害の原因を説明。「AWS Transit Gateway」がトラフィックの急上昇に対応できず、AWSはアルゴリズムを見直すと AWSのネットワーク基盤の一部が飽和していた 1月4日、サービス内部のエラー率上昇によって始まったSlackの障害は、太平洋標準時の午前6時ごろからはSlackのWeb層の負荷が高まり、パケットロスを発生しはじめるなど徐々に深刻化。7時頃にはついにサービス停止にまで発展してしまいます。 負荷の解消のためにWeb層をスケールアウトさせるなどの対処を行い、なんとかサービスが復旧し始めたころに、AWSから障害の引き金となった現象についての報告が次のようになされたとのこと。 「Slack’s Outage on January 4th 2021」から引用します。 By the time Slack had recovered, engineers

    Slack、1月の大規模障害の原因を説明。「AWS Transit Gateway」がトラフィックの急上昇に対応できず、AWSはアルゴリズムを見直すと
  • Googleの45分間ダウンの原因は認証ツールのストレージクォータの問題

    Googleの「Workspace」を含む同社の多くのサービスが12月14日の午後9時ごろから約45分間使えなくなっていた障害の原因は、各種サービスにログインするための認証ツールのストレージクォータの問題だったと、Googleが同日、英Guardianなどのメディアに声明文を送った。 Googleの広報担当者によると、このダウンの原因は、Googleとサードパーティのサービスへのログイン方法を管理する認証ツールの障害だったという。認証を処理するサービスのためのストレージが不足すると自動的に割当を増やす(ストレージクォータ)ツールが正常に動作しなかった。 この問題により、GmailやGoogleカレンダーなど、利用するためにログインが必要なサービスが利用できなくなった。また、Googleの認証プラットフォームを利用するサードパーティのサービスでも、ユーザーがログインできなくなっていた。Go

    Googleの45分間ダウンの原因は認証ツールのストレージクォータの問題
  • 無印良品のネットストア、メンテ大幅延長 「使用に耐えうる表示速度が満たせなかった」

    良品計画は、今回のメンテナンスで会計と商品に関する基幹システムの交換を行うとしていた。ITmedia NEWSが問い合わせたところ、12月30日にサービス停止期間を延長したのは「当初告知していた停止期間内には作業が終わらない見通しが立ったため」(同社)という。その上で、「11日にネットストアの再開を試みたが、時折、使用に耐えうる表示スピードを満たさなくなることが分かったため、再開を1月下旬に再延期した」と説明した。 現在はサービスの再開時期を1月下旬としているが、場合によってはメンテナンスをさらに延長するとしている。 関連記事 「Johnny's web」が6日ぶりに復旧 トラブルの原因は「外部インフラの不具合」 サービスを停止していた「Johnny's web」が、12月18日に復旧した。運営元は「外部インフラサービスの不具合がトラブルの原因だった」と説明している。個人情報の流出などは起

    無印良品のネットストア、メンテ大幅延長 「使用に耐えうる表示速度が満たせなかった」
  • 図で技術的に何が起きたかを解説 スマホゲーム『偽りのアリス』の不具合報告がやたら丁寧と話題に「BtoBみたいな報告で草」「なんだこの説明量は」

    偽りのアリス 公式アカウント @itsuwari_alice 今回のサーバー障害に関する詳細情報をご報告致します。 ユーザーの皆様には大変ご迷惑をお掛け致しました事 改めてお詫び申し上げます。 今後とも偽りのアリスを何卒宜しくお願い致します。 #イツアリ pic.twitter.com/0KSXAEA0Ab 2019-12-18 22:24:27

    図で技術的に何が起きたかを解説 スマホゲーム『偽りのアリス』の不具合報告がやたら丁寧と話題に「BtoBみたいな報告で草」「なんだこの説明量は」
  • PayPay、アクセス殺到でエラー 1日限りの還元キャンペーンで利用増

    決済サービスPayPayで10月5日夕方ごろから、遅延やエラーが発生しています。 PayPayアプリのエラー画面 同日PayPayでは1周年キャンペーンとして、1日限りで最大20%が還元されるキャンペーンを展開。ユニクロで10月4日から実施している「PayPayでヒートテックを1枚買うと、もう1枚無料」が重なったこともあり、アクセスが殺到し、問題が発生しているようです。 同サービスでは17時に、残高の反映や残高を送る・受け取る機能に遅延が発生していると報告。また緊急メンテナンスも実施し、クレジットカードでの支払い、ヤフーカードからのチャージを一時的に停止していると告知しています。 ユーザーからは「PayPay使えない」「ユニクロで1時間も並んでいるのにPayPayが使えないと言われた」「なぜ1周年とユニクロのキャンペーンの日にちをかぶるようにしたのか」など不満の声が上がっています。 一部サ

    PayPay、アクセス殺到でエラー 1日限りの還元キャンペーンで利用増
  • GitHubがダウン 「データストレージシステムに障害」 - ITmedia NEWS

    ソフトウェア開発者向けのソースコード共有サービス「GitHub」で10月22日午前8時過ぎ(日時間)から障害が起き、日エンジニアにも大きな影響が出ている。運営元の米GitHubは復旧に取り組んでいるが、障害発生から6時間経った午後2時現在も完全復旧には至っていないようだ。 GitHubの状態を報告する公式サービス「GitHub Status」によると、22日午前8時9分にエラー率が上昇。その後サービスが利用できなくなり、原因を調査したところ、データストレージシステムに障害が起きたことが分かり、復旧に向けて作業しているという。 大手サービスの障害状況を報告する第三者サービス「ダウンディテクター」の午後2時半時点での報告によると、障害は世界中で起きているが、特に日の関東エリアからの障害報告が多いようだ。 障害によって日でも多くのエンジニアが影響を受けており、Twitterでは22日朝

    GitHubがダウン 「データストレージシステムに障害」 - ITmedia NEWS
  • Windows 10 October Updateでファイルが消失する原因が判明 - PC Watch

    Windows 10 October Updateでファイルが消失する原因が判明 - PC Watch
    satoshie
    satoshie 2018/10/10
    金銭的補填とかは行わないのかね?日本のレガシーな環境だとそもそもWindows10の最新を入れているところも少なそうだけど。。。
  • 失敗を学びに変える「障害報告書」の書き方 ─ RettyのCTOがGoogleで学んだ「問題を隠さない文化」 - エンジニアHub|Webエンジニアのキャリアを考える!

    失敗を学びに変える「障害報告書」の書き方 ─ RettyのCTOがGoogleで学んだ「問題を隠さない文化」 人間は失敗するものです。エンジニアもまたしかり。Retty株式会社の樽石CTOが考える、失敗を学びに変える考え方とノウハウを紹介します。 はじめまして。Retty株式会社でCTOを務める樽石将人( @taru0216)です。Rettyにおける技術の責任者として不確実性の高いシステム開発を成功に導くよう牽引したり、メンバーが働きやすくなるような仕組みづくりを行ったりしています。 子供の頃からパソコンに親しみ、新卒一期生でレッドハットに就職して、Rettyに入社するまでGoogle楽天を経てきました。エンジニアとして活動して約30年。日々失敗し続けていますし、過去には大規模サービスを止めてしまったこともあります。 人間である以上、バグやエラーは必ず起こるもの。エンジニアは失敗を繰り返

    失敗を学びに変える「障害報告書」の書き方 ─ RettyのCTOがGoogleで学んだ「問題を隠さない文化」 - エンジニアHub|Webエンジニアのキャリアを考える!
  • mixi大規模障害について その2 - mixi engineer blog

    こんにちは。システム技術部たんぽぽGの森です 補足を追記しました (2010/08/20 15時) 先日のmixi大規模障害についての続報です 今回は小ネタはありません はじめに まず初めにtwitter/blogなどを通じて今回の問題の解析を行っていただいたみなさんに感謝の言葉を捧げたいと思います kzk_moverさん stanakaさん mala(bulkneets)さん llameradaさん (順不同) ありがとうございました 書き漏らした人ごめんなさい memcachedはすごい 今回の件でmemcachedに対して不安感を持たれた方もおられるとお聞きしました 説明不足だったせいで誤解を与えてしまい申し訳ありません きちんと設定および監視を行っていれば通常の使用にはまったく問題はありません 弊社にて -c 30万で起動したmemcachedに対して、先のテストスクリプトに

    mixi大規模障害について その2 - mixi engineer blog
  • 「破産」デマや「裏」も──mixiアクセス障害をめぐる狂想曲(ITmedia News) - Yahoo!ニュース

    SNS「mixi」が3日にわたる大規模なアクセス障害に見舞われた裏で、ネットではmixiをめぐるドタバタ劇も起きていた。 「ミクシィが東京地裁に自己破産を申請した」――8月11日深夜、こんなデマがTwitterで拡散した。 その内容は「日国内最大のソーシャル・ネットワーキング・サービス (SNS) である「mixi」を運営する株式会社ミクシィ(東京都渋谷区)が東京地裁に自己破産を申請したと発表した。負債総額は約56億円。22日に都内で債権者説明会を開く」という、企業の倒産を伝える記事を模した、まことしやかな形だ。 発信元のユーザーは1時間後にツイートを削除し、「嘘を書いてしまい非常に申し訳ありませんでした」と謝罪したが、すでに100人以上がRT(リツイート)し、広まっていた。mixiの大規模障害の最中だったこともあり、信じたユーザーも多かったようだ。 一方、あるSNS作成サービス

  • 大規模アクセス障害ミクシィ 「お詫び会見」してもいいのでは

    SNSサイト「mixi」が、3日間にわたってアクセス障害に追い込まれた。いったん復旧した後も2度目のダウンが起き、長時間ユーザーをやきもきさせる事態となった。 mixiの運営会社であるミクシィの笠原健治社長がサイト上で謝罪文を出したものの、記者会見を開いて詳細を説明する予定はない。国内最大手のSNSとして、また上場企業として、トラブル発生後のリスク管理は十分だったといえるだろうか。 3日間にわたるアクセス障害 mixiがつながりにくくなったのは2010年8月10日の午後5時ごろ。接続を試みると、画面には「復旧作業中です」の文字が表示され、しばらく時間がたってから再度アクセスするよう促していた。だが実際は、その後数時間は接続不可能な状態が続いた。 サイト運営事務局の説明によると、10日午後11時30分ごろにいったん利用可能となったものの、翌11日午前11時ごろからは再びアクセス障害が発生した

    大規模アクセス障害ミクシィ 「お詫び会見」してもいいのでは
  • [速報]mixiが障害の経緯を発表。原因はお盆のアクセス急増ではなく、memcachedの異常終了

    8月10日の17時20分頃から12日未明までの長時間にわたり、サービスが利用不能もしくは利用しにくい状況になっていた「mixi」。数度の断続的な復旧ののちに、日12日午前1時50分頃には復旧が完了し、現時点で全面的に復旧しているようです。 その障害の経緯について株式会社ミクシィの広報からプレスリリース「『mixi』のアクセス障害のお詫び及び復旧に関するお知らせ」として発表されました。 原因はアクセスの急増ではなかった プレスリリースの中で、今回の障害の原因は以下のように説明されています。 『mixi』のデータベースへの負荷軽減のために導入しているデータキャッシュシステムが複数同時に異常終了したことに伴い、データベースへの負荷が急増したため『mixi』を閲覧しづらい状態となりました。 高負荷かつ特殊な状態でのみデータキャッシュシステムの異常終了が発生していたため、根的な原因の究明に時間が

    [速報]mixiが障害の経緯を発表。原因はお盆のアクセス急増ではなく、memcachedの異常終了