タグ

障害に関するkei_0000のブックマーク (20)

  • みずほシステム障害、今は1時間で対応 「だからできてるって言ってるじゃない」2月に就任の木原正裕FG社長:東京新聞 TOKYO Web

    みずほフィナンシャルグループ(FG)の木原正裕社長(56)は紙のインタビューで、顧客に影響の大きいシステム障害が今後発生した場合には、障害を把握してから「1時間以内に連絡が来る。部長レベルの会議もやる」と述べた。昨年2月の障害発生時に前社長らの把握が遅れたことについては、「僕にはメールも来るし重要なものは電話も来る」として、現在は改善したと説明した。(皆川剛)

    みずほシステム障害、今は1時間で対応 「だからできてるって言ってるじゃない」2月に就任の木原正裕FG社長:東京新聞 TOKYO Web
    kei_0000
    kei_0000 2022/04/26
    記事自体に少々悪意を感じるが「だから来るって言ってるじゃない。もうそんなところまでさかのぼりたくない」この発言は社長としてどうかと。自分の感情を抑えられないタイプの方なら、社員は苦労しそう。
  • めまい、混乱、言葉が出ない…コロナは軽症でも認知力低下の恐れ

    脳の謎 誰も知らない隠された能力 謎の多い人間の脳について、最近の科学的進歩を解説した書。人間の脳に関する「100の謎」を、学習、知能、意識、情動、加齢の5つのテーマに分類して、豊富な写真・イラストとわかりやすい文章で説明しています。 定価:1,540円(税込) amazon 楽天ブックス

    めまい、混乱、言葉が出ない…コロナは軽症でも認知力低下の恐れ
    kei_0000
    kei_0000 2022/04/23
    「ワクチンは重症化を防ぐ効果が高いものの、後遺症は防げない」これは厳しい。認知力低下は頭脳労働してる方々にとっては致命的。いつまで警戒すればいいのか。
  • 一部のお客様へ影響しているアトラシアンサービスの停止について | Atlassian Japan 公式ブログ | アトラシアン株式会社

    ブログは、こちらに掲載されている英文ブログの意訳です。万が一内容に相違がある場合は、原文が優先されます。 2022年4月18日 23:57 UTC時点で、サービス停止の影響を受けたお客様サイトの復旧を完了しました。 2022年4月4日(月) PTに、アトラシアンクラウドをご利用の約400社のお客様が、アトラシアン製品全体を通してサービスの停止を経験されました。2022年4月18日現在、影響のあったお客様サイトの復旧を完了し、各サイトの窓口ご担当者宛てにご連絡申し上げました。 当社のサポートチームは現在、個々のお客様に合わせたサイト特有のニーズに対応しています。支援を必要とする事象のあるお客様は、当該サポートチケットへその旨ご返信ください。至急エンジニアリングチームより対応させていただきます。 今回のインシデントはサイバー攻撃や、システムの拡張に問題があったものではありません。また、一部の

    一部のお客様へ影響しているアトラシアンサービスの停止について | Atlassian Japan 公式ブログ | アトラシアン株式会社
    kei_0000
    kei_0000 2022/04/13
    恐ろしい。システム運用における情報伝達は、99回はOKでも、残りの1回がNGかつ運が悪ければ、この顧客データ削除のようなトラブルが起こりうる。特に緊急対応の時は結構危険。明日は我が身としたい。
  • みずほ銀行 他行宛て振り込み 一時できなくなる不具合 | NHKニュース

    みずほ銀行で30日午後、ATM=現金自動預け払い機などでほかの銀行宛ての振り込みが一時、利用できなくなる不具合が発生しました。現在は、復旧しているということです。 発表によりますと、30日午後3時半ごろから午後4時半ごろにかけて、みずほ銀行のATMとインターネットバンキングでほかの銀行宛ての振り込みの一部が利用できない状態になったということです。 銀行によりますと、夜間や休日の時間帯の入金処理に関わるシステムの設定に、人為的なミスがあったことが原因だとみられています。 影響が出た取り引きの件数は分かっていませんが、不具合はすでに復旧し、順次、振込先への入金の手続きを進めているということです。 みずほ銀行は「お客様に多大な迷惑をおかけしたことを深くおわびします」とコメントしています。 みずほ銀行はことし8回のシステム障害が相次いだため金融庁から業務改善命令を出され、1月17日までに改善計画を

    みずほ銀行 他行宛て振り込み 一時できなくなる不具合 | NHKニュース
    kei_0000
    kei_0000 2021/12/31
    最初に問題が発生してからここまで引きずるということは、相当多岐にわたって問題が内在しているとしか。
  • みずほ銀行 障害の原因はハードディスクの経年劣化(テレビ朝日系(ANN)) - Yahoo!ニュース

    みずほ銀行は8月から先月まで4回発生したシステムなどの障害について、ハードディスクの経年劣化などが原因だったと公表しました。 みずほ銀行は8月20日に店頭での取引の一部ができなくなった障害について、データセンターのハードディスクが稼働から6年経って劣化していたことに気付かず、故障したことが原因だと明らかにしました。 この際、バックアップシステムに切り替えようとしましたが、入力すべき追加の指示を飛ばしたため失敗しました。 8月23日や先月8日に100台以上のATMが一時停止したケースではネットワーク機器に静電気などが生じエラーが発生した可能性が高いということです。 再発防止のため、みずほ銀行は6年前のシステム構築に携わった富士通や当時の技術者らとの関係を強化する方針です。

    みずほ銀行 障害の原因はハードディスクの経年劣化(テレビ朝日系(ANN)) - Yahoo!ニュース
    kei_0000
    kei_0000 2021/10/09
    「入力すべき追加の指示を飛ばしたため失敗」これがほんとだったら厳しい。手順書の間違いか、作業時のミスか。特に後者だったら、しばらく担当者は立ち直れないのでは。
  • みずほ幹部「システム使いこなせず」 機器の故障頻発 - 日本経済新聞

    みずほフィナンシャルグループは8日、8月と9月に起きたシステム障害の原因分析と再発防止策をまとめた。8月20日の大規模障害は特定の機器で故障率が上がっていたのに見落とし、マニュアルの不備もあって適切に対応できなかったと総括した。記者会見した石井哲最高情報責任者(CIO)は「システムを使いこなせていない」と述べ、運用に問題があるとの認識を示した。みずほ銀行は2021年に入り8度のシステム障害を起

    みずほ幹部「システム使いこなせず」 機器の故障頻発 - 日本経済新聞
    kei_0000
    kei_0000 2021/10/09
    開発が遅延→間に合わせる為に、システム運用の検討が後回し→リリース後に人員削減→システム運用の検討がまともに出来ない→トラブっても対処出来ない。という流れかな。厳しい。
  • fastlyのCDNで発生したシステム障害についてまとめてみた - piyolog

    2021年6月8日、fastlyのCDNサービスで障害が発生し、国内外複数のWebサイトやサービスに接続できないなどといった事象が発生しました。ここでは関連する情報をまとめます。 原因はソフトウェアの潜在的な不具合 fastlyより6月8日付で今回の障害の顛末が公開されている。 www.fastly.com 障害原因はソフトウェアの潜在的な不具合で特定状況下かつ顧客構成で発生する可能性があった。このソフトウェアは5月12日に展開が開始されていた。 6月8日早くにこの不具合を発生条件を満たす構成変更が顧客によって行われネットワークの85%がエラーを返す事態が発生した。サイバー攻撃の可能性は否定と報じられている。*1 障害は発生から1分後にfastlyに検知され、49分以内にネットワークの95%が復旧した。 今回の障害を受け、短期的には修正プログラムの早期適用、復旧時間の短縮、テスト時に不具合

    fastlyのCDNで発生したシステム障害についてまとめてみた - piyolog
    kei_0000
    kei_0000 2021/06/10
    結局障害復旧の為に何をしたのかが分からなかった。「19時27分原因となった顧客の構成を特定」と「19時36分CDNが順次復旧」の間に何かをしたと思うのだが。
  • みずほ銀行 再びシステムトラブル 藤原頭取が会見し謝罪 | NHKニュース

    ATM=現金自動預け払い機の障害などシステムのトラブルが相次いでいるみずほ銀行の藤原弘治頭取は、午後9時すぎから記者会見し、新たなシステムトラブルが発生し海外送金に遅れが出たことを明らかにしました。このトラブルで主に企業から依頼があった外貨建ての送金、およそ300件に遅れが出たということです。 トラブルは、システム関係の機械の故障で、11日午後11時39分に発生したということです。機械は、12日午前6時38分に復旧し、最終的な送金の処理は12日午後8時前に完了したとしています。このトラブルで、主に企業から依頼があった外貨建ての送金、およそ300件に遅れが出たということです。 藤原頭取は「先月28日のトラブルに加え、今月3日、7日と立て続けにトラブルが起きている。このような事態が続いていることを極めて重く受け止め、心から深くおわびします」と述べ、陳謝しました。 そのうえで藤原頭取は「経営責任

    みずほ銀行 再びシステムトラブル 藤原頭取が会見し謝罪 | NHKニュース
    kei_0000
    kei_0000 2021/03/13
    原因はいろいろあるだろうが、 https://xtech.nikkei.com/atcl/nxt/column/18/00867/071800018/ この4社分割発注が一番の原因では。システム開発におけるコミュニケーションコストとか、企業間の壁を軽視した様に思える。
  • システム過負荷でなぜATMにトラブルが? みずほ銀システム障害、運用面の課題あらわに

    2月28日に発生したみずほ銀行のシステム障害。同行の藤原弘治頭取は3月1日に記者会見を開き、システムの過負荷が原因だったとして謝罪した。この障害の影響で、同行が持つATM約5900台のうち4318台が一時取引できない状態に。ATMに挿入したまま戻ってこなくなった通帳やキャッシュカードは5244枚あったという。 障害の原因となったシステムの過負荷はなぜ起きたのか。そして、なぜATMにトラブルが波及したのか。藤原頭取は、「今回の障害は想定の甘さに起因するもの」と説明する。会見の質疑応答から、システム障害の全貌が垣間見えた。 データ更新と月末処理がバッティング みずほ銀は27日、1年以上動いていない定期預金口座のステータスを「不稼働」に変更するデータ更新作業を行っていた。処理したデータは45万件。この作業を行うにはシステムに十分なデータの空き容量が必要だという。 同行は事前のテスト環境でシステム

    システム過負荷でなぜATMにトラブルが? みずほ銀システム障害、運用面の課題あらわに
    kei_0000
    kei_0000 2021/03/02
    リニューアルして、こんな早くから負荷に起因する問題か。スケールアウト出来ないシステム設計なら、この先もやばいのでは。運用でやりくりするのも限界があるし、現場はストレスで疲弊しそう。
  • [速報]AWS、クラウド障害をわざと起こす「AWS Fault Injection Simulator」発表。カオスエンジニアリングをマネージドサービスで実現。AWS re:Invent 2020

    Amazon Web Services(AWS)は、開催中のオンラインイベント「AWS re:Invent 2020」で、アプリケーションに対してクラウド障害のシミュレーションを行える新サービス「AWS Fault Injection Simulator」を発表しました。 クラウド上で稼働するアプリケーションの耐障害性などを高めるために実際にクラウド障害をわざと発生させて問題点をあぶりだす手法は、「Chaos Enginieering(カオスエンジニアリング)」と呼ばれています。 Netflixが2012年にカオスエンジニアリングのためのツール「Chaos Monkey」を公開したことで広く知られるようになりました。 参考:サービス障害を起こさないために、障害を起こし続ける。逆転の発想のツールChaos Monkeyを、Netflixがオープンソースで公開 今回発表された「AWS Faul

    [速報]AWS、クラウド障害をわざと起こす「AWS Fault Injection Simulator」発表。カオスエンジニアリングをマネージドサービスで実現。AWS re:Invent 2020
    kei_0000
    kei_0000 2020/12/17
    発生させられる障害の種類全部見れるかな。本番では使えないので、何かできる対策があれば事前にやっておきたい。
  • Googleの45分間ダウンの原因は認証ツールのストレージクォータの問題

    Googleの「Workspace」を含む同社の多くのサービスが12月14日の午後9時ごろから約45分間使えなくなっていた障害の原因は、各種サービスにログインするための認証ツールのストレージクォータの問題だったと、Googleが同日、英Guardianなどのメディアに声明文を送った。 Googleの広報担当者によると、このダウンの原因は、Googleとサードパーティのサービスへのログイン方法を管理する認証ツールの障害だったという。認証を処理するサービスのためのストレージが不足すると自動的に割当を増やす(ストレージクォータ)ツールが正常に動作しなかった。 この問題により、GmailやGoogleカレンダーなど、利用するためにログインが必要なサービスが利用できなくなった。また、Googleの認証プラットフォームを利用するサードパーティのサービスでも、ユーザーがログインできなくなっていた。Go

    Googleの45分間ダウンの原因は認証ツールのストレージクォータの問題
    kei_0000
    kei_0000 2020/12/15
    クォータって容量ギリギリで追加するのだろうか。もっと余裕を持って追加すれば、障害対応の時間がありそうだけど、そんな簡単なものでもないのかな。
  • ローソンPB新パッケージの「わかりにくすぎる」という問題 ユニバーサルデザインの専門家に訊く - wezzy|ウェジー

    ローソンは2020年春、プライベートブランド商品のロゴ・パッケージを刷新した。これまでの「ローソンセレクト」を「L basic(エル ベーシック)」「L marche(エル マルシェ)」の2つのブランドに一新したという。手掛けたのは国内外で幅広いクリエイティブを行うデザインオフィスnendoだ。 確かにデザインは美しい。しかし店頭に並んだ商品を見ると、統一感はあるが何の商品だかわかりづらい。Twitterでも「前のデザインの方がわかりやすかった」という消費者の声が目立つ。 筆者の和久井は、ライターと並行して合同会社ブラインドライターズという、視覚障害者を中心とした会社を運営している。スタッフには、中心視野が欠けていて焦点が合わない人、全体的にぼやけて見える人、トイレットペーパーの芯から物を覗いているように見える視野の狭い人など、さまざまな視覚の状態の人がいる。彼らにも見てもらったが、「非常

    ローソンPB新パッケージの「わかりにくすぎる」という問題 ユニバーサルデザインの専門家に訊く - wezzy|ウェジー
    kei_0000
    kei_0000 2020/06/04
    専門家の容赦ない指摘。実際に見たけど、そこまで批判されるものかなと最初感じた。ただ視覚が正常ではない方にとっては問題かもと思い直す。ローソンが近日中に何らかの意向を示すかは気になる。
  • 日本電子計算(JIP)

    12月4日に発生した自治体専用IaaSサービス「Jip-Base」の障害により、ご利用の自治体の皆様および障害の影響がある自治体の住民の皆様、その他関係者の皆様に多大なるご迷惑とご不便をおかけし、深くお詫び申し上げます。 障害に関する報告はこちらです。 引き続き全力を挙げて事態の収拾に努めると共に、今後も継続的に復旧状況を報告いたします。 重ねまして、ご利用の自治体の皆様および障害の影響がある自治体の住民の皆様、その他関係者の皆様には深くお詫び申し上げます。 【件に関するお問い合わせ】 経営企画部 広報担当 TEL 03-5210-0136

    kei_0000
    kei_0000 2019/12/17
    先日の障害の現状。図の説明が多いのは良いが、今後の見込みが見当たらない。対象の顧客にとっては不満だろうが、これ恐らく状況の細かい所が正確には分からないから。現場の人は体壊さないように頑張ってほしい
  • NTTデータ子会社のクラウドが壊滅、ストレージのバグで戸籍や税務などのデータ全消失 : 痛いニュース(ノ∀`)

    NTTデータ子会社のクラウドが壊滅、ストレージのバグで戸籍や税務などのデータ全消失 1 名前:ベスタ(茸) [US]:2019/12/05(木) 17:18:57.47 ID:yztuQHN80 日電子計算株式会社(通称:JIP)とは、NTTデータの子会社、いわゆる「デー子」である。 概要 1962年に日証券金融株式会社の電算室が独立し「日電子計算」として分社化するかたちで設立された。 2012年にNTTデータにより公開買付(TOB)が行われ約100億円で買収された。 この買収は「NTTデータは銀行業には強いが証券業には弱い」というのを補うためだとしている。 2019年12月4日午前11時ごろ、同社が運営するクラウドサービスが吹っ飛び、その上で動く全国の自治体システムも吹っ飛び、全国約50の自治体で戸籍管理や税務処理、医療保険、図書館などのデータが消失した。 2019年12月4日午後

    NTTデータ子会社のクラウドが壊滅、ストレージのバグで戸籍や税務などのデータ全消失 : 痛いニュース(ノ∀`)
    kei_0000
    kei_0000 2019/12/06
    ファーストサーバの件を思い出すな、、、
  • Amazonのクラウドサービスで日本に続きアメリカで障害が発生し顧客データが全損する事態が発生

    by Bethany Drouin 日では2019年8月23日(金)、Amazonが提供するクラウドサービス「アマゾン・ウェブ・サービス(AWS)」に大規模な障害が発生し、多数のサービスやウェブサイトなどが影響を受けました。これに引き続き、アメリカでも8月31日(土)に同様の障害が発生し、顧客のデータが損失するという事態が発生していることが分かりました。 AWS celebrates Labor Day weekend by roasting customer data in US-East-1 BBQ • The Register https://www.theregister.co.uk/2019/09/04/aws_power_outage_data_loss/ 2019年8月23日にAWSの東京リージョンで発生した障害についてAmazonは、「空調設備の管理システム障害が原因」だ

    Amazonのクラウドサービスで日本に続きアメリカで障害が発生し顧客データが全損する事態が発生
    kei_0000
    kei_0000 2019/09/06
    https://aws.amazon.com/jp/ebs/features/ によると「99.999%の可用性」。また「年間故障率 (AFR) が0.1%~0.2%」だが、今回それが来てしまったことになる。でもオンプレに比べたら全然まし。バックアップに加えてリストアの手順を万全に
  • AWS大障害、冗長構成でも障害あったと公式に認める

    米アマゾン ウェブ サービス(Amazon Web Services)は2019年8月23日に発生したクラウドサービス「Amazon Web Services(AWS)」東京リージョンの大規模障害に関して同月28日、新しい報告をWebサイトに掲示した。障害が発生したサービスを追加したほか、利用企業が複数のアベイラビリティーゾーン(独立性の高いデータセンター群、AZ)横断の冗長構成にしたシステムにも一部で障害(予期せぬ影響)があったと認めた。 障害が発生していたサービスとして追加したのは日経 xTECHの既報の通り、アプリケーションロードバランサーの「Amazon ALB」、インメモリーキャッシュの「Amazon ElastiCache」、データウエアハウスの「Amazon Redshift」、仮想デスクトップの「Amazon Workspaces」などだ。仮想マシンの「Amazon EC2

    AWS大障害、冗長構成でも障害あったと公式に認める
    kei_0000
    kei_0000 2019/08/29
    ALBを使った構成でもダメなら、対策はマルチクラウドとかになるので色んな意味で相当厳しい。数年に1度の障害に備え、毎月いくら追加費用や人件費をかけるかという話になる。なんとかAWS側に頑張って頂きたい
  • Summary of the Amazon EC2 Issues in the Asia Pacific (Tokyo) Region (AP-NORTHEAST-1)

    2019年8月28日(日時間)更新: 最初の事象概要で言及した通り、今回のイベントは、東京リージョンの1つのアベイラビリティゾーン(AZ)の一部に影響を与えました。この影響は当該 AZ の Amazon EC2 および Amazon EBS のリソースに対するものですが、基盤としている EC2 インスタンスが影響を受けた場合には、当該 AZ の他のサービス(RDS、 Redshift、 ElastiCache および Workspaces 等)にも影響がありました。お客様と今回のイベントの調査をさらに進めたところ、 個別のケースのいくつかで、複数のアベイラビリティゾーンで稼働していたお客様のアプリケーションにも、予期せぬ影響(例えば、 Application Load Balancer を AWS Web Application Firewall やスティッキーセッションと組み合わせてご

    Summary of the Amazon EC2 Issues in the Asia Pacific (Tokyo) Region (AP-NORTHEAST-1)
    kei_0000
    kei_0000 2019/08/26
    AWS等のクラウドサービスの社会的な重要度はますます上がってる。今回郵便局とかドコモの一部サービスも落ちてたらしいし。今回は違うが、悪意の持つ人が内部に入り込まない様に十分な対策をお願いしたい。
  • AWS障害で本当に知っておくべきことと考慮すべきこと

    おはようございます、hisayukiです。 盛大なお祭りもだいぶ収束に向かってきました。 ソシャゲ大好きな人達のTwitterでの反応すごかったですね〜(;´∀`) さて、それでは昨日のAWS障害のお祭りについて書いていきたいと思います。

    AWS障害で本当に知っておくべきことと考慮すべきこと
  • AWS 東京リージョンで発生した大規模障害についてまとめてみた - piyolog

    2019年8月23日 13時頃からAmazon AWS 東京リージョン でシステム障害が発生し、EC2インスタンスに接続できない等の影響が発生しています。ここでは関連する情報をまとめます。 AWSの障害報告 aws.amazon.com AWS障害の状況 障害発生時間(EC2) 約6時間 2019年8月23日 12時36分頃~18時30分頃(大部分の復旧) 障害発生時間(RDS) 約9時間半 2019年8月23日 12時36分頃~22時5分頃 障害原因(EC2) 一部EC2サーバーのオーバーヒートによる停止 制御システム障害により冷却システムが故障したことに起因 影響範囲 東京リージョン(AP-NORTHEAST-1)の単一のAZに存在する一部EC2、EBS、およびRDS。 発生リージョンは東京。東京近郊4データセンター群の内、1つで発生。 日国内のAWSの契約先は数十万件とみられる。*

    AWS 東京リージョンで発生した大規模障害についてまとめてみた - piyolog
    kei_0000
    kei_0000 2019/08/24
    でかいシステムだと、色んな種類のサーバ、サービスを使ってて、冗長化もそれぞれに検討が必要。それで一箇所でもNGだったら、システムとして機能しなくなることが多いから大変。
  • Slack、11月1日に発生した大規模障害の原因は、定期デプロイによるソフトウェア障害が原因

    Slackが11月1日に起こした大規模障害は、同社内でデプロイしたソフトウェアが原因だと報告された。全ユーザーがSlackに接続できなくなる障害は2時間以上続き、その後復旧された。その概要と時系列を公開された報告書から追う。 オンラインチャットサービスを提供するSlackは、日時間で11月1日の朝から数時間、全ユーザーが接続できなくなるという大規模な障害を起こしています。 11月4日には、同社のStatusページに障害発生に関するまとめが掲載されました。それによると、障害の原因は同社内で行われていた定期デプロイによってサーバにデプロイされたソフトウェアの障害とのことです。 ただしそれがどのような障害であったのか、詳細については現時点では紹介されていません。 全ユーザーがSlackに接続できなくなり、復旧に向けサーバ増強 障害報告の前半は、概要がまとめられています。後述の詳細によると、同社

    Slack、11月1日に発生した大規模障害の原因は、定期デプロイによるソフトウェア障害が原因
    kei_0000
    kei_0000 2017/11/06
    AWSもGitHubもbacklogもfacebookもたまに落ちるからなあ。全面的な信用はできない。ただ、自社管理のサーバよりはトラブルは少ないので、 データ消失さえなければ使わせていただきたい。
  • 1