Amazon Elastic Compute Cloud (Amazon EC2) Auto Scaling グループがインスタンスを終了しました。Amazon EC2 コンソールで終了の理由が表示されていません。 簡単な説明 Amazon EC2 自動スケーリングは、Amazon EC2 または Elastic Load Balancing (ELB) ヘルスチェックを利用してインスタンスのヘルス状態を判断します。ヘルスチェックの置換を含む 自動スケーリンググループのすべてのスケーリングアクションは、Amazon EC2 コンソールのアクティビティ履歴で確認できます。 解決策 トラブルシューティングの手順を決定するには、[アクティビティ履歴] ビューにあるインスタンスの説明を使用してください。 まず、インスタンスの終了の説明と原因を探します。 [Amazon EC2 コンソール] を開き
概要 ELB、EC2 Auto Scalingは何度か使用したことがあっても、ELBとAuto Scaling グループの設定は類似したものがあり、理解が難しいものです。 今回は、EC2 Auto Scaling を利用していて、スケールアウト時に時間が掛かっていたため、Auto Scalingグループの設定である「ヘルスチェックの猶予期間」をデフォルト値から変更した件です。 「ヘルスチェックの猶予期間」を変更する パラメータを理解する 今回対象とするシステムは、EC2がCPU負荷に応じてスケールアウトするAuto Scalingを採用しています。EC2 は、起動テンプレートのUserData によって、アプリケーションの初期化を実施しますが、この初期化には数分を要します。 ドキュメントには、下記の記載があります。先ず最初のステップは、EC2 の起動によって、EC2としてのステータスチェッ
技術2課の松田です。こんにちは。 ALBをオリジンとして指定したAmazon CloudFrontで、クライアント~CloudFront間とCloudFront~ALB間の両方でカスタムドメインの証明書を用いて暗号化する方法をまとめました。 今回の構成 構築手順 1.ホストゾーンの作成 2.ACMで証明書を発行 ALBの証明書を発行 CloudFrontの証明書を発行 3. ALBに証明書を設定する Route 53にALBのCNAMEを登録する HTTPSリスナーを作成する 4. CloudFrontに証明書を設定する Route 53にCloudFrontのCNAMEを登録する CloudFrontに証明書を設定する 動作確認 まとめ 参考記事 今回の構成 今回の構成は以下になります。 CloudFront→ALB→EC2(Apache)という構成で、ALBとCloudFrontにそれ
Starting today, you can perform an in-place upgrade of your Amazon Aurora database cluster from Amazon Aurora MySQL-Compatible Edition 2 (with MySQL 5.7 compatibility) to Aurora MySQL-Compatible Edition 3 (with MySQL 8.0 compatibility). Instead of backing up and restoring the database to the new version, you can upgrade with just a few clicks in the Amazon RDS Management Console or by using the A
AMIを削除する手順を紹介します。 手順 AWSのEC2の管理画面を表示します。左側のメニューの[AMI]の項目をクリックします。下図の画面が表示されます。右側にはAMIの一覧が表示されています。 削除するAMIを選択します。選択後右クリックをします。下図のポップアップメニューが表示されます。メニューの[登録解除]をクリックします。 [登録解除]ダイアログが表示されます。[次へ]ボタンをクリックします。 続いて、スナップショットを削除します。EC2の管理画面を表示し、左側のメニューの[スナップショット]をクリックします。下図の画面が表示されます。 削除するスナップショットを選択し、右クリックします。下図のポップアップメニューが表示されます。メニューの[削除]をクリックします。 [スナップショットの削除]ダイアログが表示されます。[はい、解除する]ボタンをクリックします。 スナップショットが
Amazon Web Services ブログ AWS 認定の受験予約 ~AWS 認定のステッカーをゲットするチャンス! ~ こんにちは、T&C Certification BDM の両角(もろずみ)です。 みなさん、AWS 認定を受験されたことはありますか? AWS 認定の受験、どうすればいいの?という方もいらっしゃるかと思います。本記事では AWS 認定を取得するための受験方法とその違いをご紹介するとともに、お役立ち情報もご紹介します。 その1:AWS 認定の試験を配信しているベンダーを選ぶ AWS 認定を受験する際には、Pearson VUE または PSI という AWS から委託を受けた試験の配信ベンダーを利用いただきます。同じ試験ならどちらで受験しても内容に差異はありません。”こちら” からアカウントにログインして、利用したい配信ベンダーの列にある受験したい AWS 認定を選択
こんにちは、臼田です。 みなさん、AWSの最新情報はキャッチアップできていますか?(挨拶 社内で行っているAWSトレンドチェック勉強会の資料をブログにしました。 AWSトレンドチェック勉強会とは、「日々たくさん出るAWSの最新情報とかをブログでキャッチアップして、みんなでトレンディになろう」をテーマに実施している社内勉強会です。 このブログサイトであるDevelopersIOには日々ありとあらゆるブログが投稿されますが、その中でもAWSのアップデートを中心に私の独断と偏見で面白いと思ったもの(あと自分のブログの宣伝)をピックアップして、だいたい月1で簡単に紹介しています。 7月は創立記念日もありDevelopersIO 2022もありで内容てんこ盛りです! ちなみにAWSの最新情報をキャッチアップするだけなら週刊AWSがおすすめですが、DevelopersIOのブログを読むとAWSさん公式
こんにちは! フロントエンドエンジニアのもりやです。 コロナの影響でコネヒトも3月からフルリモート体制が始まり、早4ヶ月が過ぎました。 流行に乗り遅れがちな私は、今になって自宅のリモートワーク環境を整えようと動き始めています。 まずはローテーブルを卒業しよう・・・。 さて、今回はそんなフルリモート下で発生した課題の1つを CodeBuild を使って解決したので紹介させていただきます。 コネヒトにおける検証環境のデプロイ方法について コネヒトでは、本番リリース前のチェックや開発時にAWS環境で動作確認に使う検証環境を用意しています。 この検証環境にデプロイするには以下の2つの方法がありました。 master ブランチにPRをマージする(本番リリース前に動作確認するため) 開発PCから直接デプロイする(開発時に検証環境で動作確認したい時など) 2. の方法をコネヒトでは「ローカルデプロイ」と
おはようございます、藤本です。 先日、AWS re:Invent 2016 でリリースされた CodeBuild を CodeCommit、CodeDeploy、CodeCommit と組み合わせて、デリバリプロセスの自動化を試してみました。 CodePipeline で CodeCommit/CodeBuild/CodeDeploy を繋げてデリバリプロセスを自動化してみた #reinvent こちらは master ブランチにプッシュしたら、テスト、ビルドを通して、インスタンスにアプリケーションをデプロイします。リポジトリへプッシュするだけでデプロイまで全て自動化されていて、デプロイが簡単ですね。ただし、テストが全て自動で網羅されていることが前提となっています。 ユニットテスト、単一アプリケーション内のインテグレーションテストであれば、ある程度できるかもしれませんが、ペネトレーションテ
やりたいこと やったこと 参考 以上 やりたいこと Systems Manager のパラメータストアを操作 (読み書き, 一覧取得) する為に必要な IAM ポリシーの一例 やったこと 以下のようなポリシーを書いた. { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "ssm:DescribeParameters" ], "Resource": "*" }, { "Effect": "Allow", "Action": [ "ssm:Get*", "ssm:PutParameter" ], "Resource": "arn:aws:ssm:*:*:parameter/*" }, { "Effect":"Allow", "Action":[ "kms:Decrypt" ], "Resourc
パラメータの名前には 環境の識別や IAM policy でのアクセス制御のため環境毎のプレフィックスを付与しました。 これで Parameter Store の設定は完了です。 直感的でいいですね。 EC2 インスタンスの作成 値を取得する EC2 インスタンスを作成します。 Parameter Store にアクセスするための権限が必要ですので、 まずは IAM Role とそれに適用する IAM Policy を作成しましょう。 マネジメントコンソールから IAM を検索して画面を表示し左メニューのロールを選択します。 EC2 インスタンスに付与するロールを作成したいので, ロールからロールを作成を選択します。 EC2 に付与するロールのため、ユースケースの選択には EC2 を選んで 次のステップを選択します。 権限を細かく制御したいのでポリシーの作成から新しくポリシーを作成します。
はじめに CodeDeployを使ってEC2インスタンスへアプリケーションをデプロイしたいと思います。 基本的にはコマンドラインを利用しますが、一部難しい部分があるためそこはコンソール操作で行います。 前提条件 以下の準備ができている上で作業を行います。 GitHub アカウント: アプリケーションのアップロード先を用意するのに必要です。 EC2インスタンス: アプリケーションのデプロイ先で利用します。 IAMロールがアタッチされていること。 sshとhttpアクセスができること。 コマンドインストール gitコマンド: リポジトリへプッシュするのに必要です。 aws-cli: CodeDeployやIAMロールを作成するのに利用します。 構成 作業 まずはGitHub関連の設定を行い、その後にCodeDeployの設定を行なっていきます。 GitHub リポジトリの準備 GitHubへロ
翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 Systems Manager パラメータを作成する (AWS CLI) AWS Command Line Interface (AWS CLI) を使用して、String、StringList、および SecureString パラメータタイプを作成できます。パラメータを削除したら、30 秒以上待ってから同じ名前のパラメータを作成します。 パラメータは、他のパラメータの値で参照またはネストすることはできません。パラメータ値に {{}} または {{ssm:parameter-name}} を含めることはできません。
awscli s3コマンドの--include, --exlcludeオプションを使うと操作対象のキーをワイルドカードで指定することができます。 はじめに 朝起きたとき、ふとS3上の大量のファイルを移動したくなることありますよね。今朝の私がそうでした。 やりたいこと 以下のようにバケット上にhello_ とworld_* から始まるファイルが複数あるとき、helloで始まるファイルだけをhello フォルダ以下に移動したいとします。 > aws s3 ls s3://your-bucket/ hello_1.txt hello_2.txt hello_3.txt hello_4.txt hello_5.txt world_1.txt world_2.txt world_3.txt world_4.txt world_5.txt include,exclude filters このような場合
はじめに こんにちは。大阪オフィスの林です。 EC2 AutoScalling環境下でEC2インスタンスがターミネートする際のログ退避についてライフサイクルフックを使用したアーキテクチャーを検討したのでまとめておきたいと思います。 今回検討したアーキテクチャーはザックリ下図のイメージです。 よくあるログ管理(退避)のアーキテクチャとして、CloudWatchAgentを使用しCloudWatchLogsにログを転送し、Kinesisを挟んでS3に転送するといった方法もありますが、CloudWatchLogs自体の料金がネックとなり採用を見送るケースもあったりします。かと言ってOS上で定期的な間隔でログ転送バッチを回したりするのも良いのですが、その定期的な間隔とEC2インスタンスのターミネートのタイミング次第では直近のログが欠陥してしまうことも十分考えられます。今回のアーキテクチャはその折衷
ホーム> 開発者ブログ> 【CLI無し】CloudWatch Logs上のログデータをKinesis Data Firehos... 【CLI無し】CloudWatch Logs上のログデータをKinesis Data Firehoseを用いてリアルタイムでS3に2次保存する 今回はログデータをCloudWatch LogsだけでなくS3に2次保存する方法を紹介します。 Kinesis Data Firehoseを使うことでリアルタイムに収集することができます。 目次 はじめに 前提条件 S3バケットを作成 Kinesis Data Firehoseを作成 IAMロールを作成 ログデータを作成 S3に保存されているか確認 まとめ はじめに こんにちは。 クラウドソリューショングループのyoshikawa.kです。 この記事は アイソルート Advent Calendar 2021 2日目の
[!] この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。 サーバーやネットワーク機器が出力するシステムログには、様々な情報が記録されています。一般的な設定だと、ローカルディスクに書き出されて、容量等の都合で古いものから消えていきます。そこで、ログに記録された情報を長いスパンで扱えるように、ログをクラウドに集約する仕組み(ログ管理システム)を構築しました。 概要 主な要件と重視したポイント ログ管理システムを構築するにあたって、以下の点を重視しました。 Linuxサーバーのログだけでなく、Windows Serverのイベントログやネットワーク機器のログも保管したい。 当面の収集対象機器は100台規模だが、将来的にはクラウド上の仮想サーバーの利用拡大が想定され、拡張しやすくしたい。 システムログには機微な情報が含まれている可能性もあるため、イン
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く