並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 45件

新着順 人気順

firehoseの検索結果1 - 40 件 / 45件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

firehoseに関するエントリは45件あります。 awsAWStechfeed などが関連タグです。 人気エントリには 『GoとKinesis Data Firehoseで非同期の検索基盤を構築─モノリス化した「カオナビ」はアーキテクチャ改善にどう取り組み始めたか - はてなニュース』などがあります。
  • GoとKinesis Data Firehoseで非同期の検索基盤を構築─モノリス化した「カオナビ」はアーキテクチャ改善にどう取り組み始めたか - はてなニュース

    社員の個性・才能を発掘し、戦略人事を加速させるタレントマネジメントシステム「カオナビ」を提供する株式会社カオナビでは、SaaS移行にあわせてクラウドを全面的に採用し、インフラの自動化などにAWSのマネージドサービスを積極活用しています。とはいえ10年近い運用で、サービス開発におけるシステムのモノリス化が課題となってきました。 こういった全社的な課題は、2020年からCTOを務める松下雅和(@matsukaz)さんを中心にCTO室で対応しています。モノリスなシステムは、全体のモジュラモノリス化を前提に、とくにボトルネックとなる検索処理を非同期の基盤サービスとして切り出しています。 この検索基盤の設計と実装を通して、カオナビはシステムのアーキテクチャ改善をどのように進めようとしているのか。非同期である必要性や、デプロイの工夫、開発組織の文化まで含めて、CTO室の千葉峻秀さんとインフラグループの

      GoとKinesis Data Firehoseで非同期の検索基盤を構築─モノリス化した「カオナビ」はアーキテクチャ改善にどう取り組み始めたか - はてなニュース
    • Amazon Kinesis Data Firehose now supports data delivery to HTTP endpoints

      Amazon Kinesis Data Firehose now supports streaming data delivery to a generic HTTP endpoint. This feature enables you to use a fully managed service to stream data to an HTTP endpoint without building custom applications or worrying about operating and managing the data delivery infrastructure. Amazon Kinesis Data Firehose incorporates error handling, auto-scaling, transformation, conversion, agg

        Amazon Kinesis Data Firehose now supports data delivery to HTTP endpoints
      • CloudWatch LogsのログデータをKinesis Data Firehose経由でS3に出力する | DevelopersIO

        CloudWatch Logsのデータを、Kinesis Data Firehose経由でS3に出力する手順です。 Lambda Functionなどで作り込みを行わず、CloudWatch LogsのログデータをS3に出力するには、Kinesis Data Firehoseが利用できます。 本エントリでは、Kinesis Data Firehoseを介して、CloudWatch LogsのデータをS3へ出力する設定を紹介しています。CloudWatch LogsからKinesis Data Firehoseへ出力するには、CloudWatch Logsのサブスクリプションフィルタの設定が必要になりますが、こちらの設定はマネジメントコンソールでは行えないので、関連する作業含めAWS CLIを利用して実施しています。さいごに、AWS CLIで構築した同様の構成を定義するCFnテンプレートも添

          CloudWatch LogsのログデータをKinesis Data Firehose経由でS3に出力する | DevelopersIO
        • FirehoseのHTTP配信機能でMackerelにメトリックを投稿する - 酒日記 はてな支店

          先日、Amazon Kinesis Data Firehose が任意の HTTP エンドポイントに対しての配信機能をサポートしました。 aws.amazon.com 従来の S3 / Redshift / Elasticsearch Service などのマネージドなリソースに対してデータを配信する機能に加えて、自分で作った HTTP(s) のエンドポイントに対しても Firehose からデータを投げ込んでくれる機能です。 Amazon Kinesis Data Firehose now supports data delivery to Datadog 既に Datadog や New Relic へもマネージドでデータを配信できていて、それらに送りたいデータはとりあえず Firehose に流しておけば、実際の送信やバッファリングやリトライは Firehose が面倒を見てくれると

            FirehoseのHTTP配信機能でMackerelにメトリックを投稿する - 酒日記 はてな支店
          • Firehoseに対応したAPI Gatewayのアクセスログ設定を試してみた | DevelopersIO

            AWSチームのすずきです。 Amazon Kinesis Data Firehose への アクセスログ出力が可能になった Amazon API Gateway。 その設定を試す機会がありましたので、紹介させていただきます。 Amazon API Gateway が Amazon Kinesis Data Firehose へのアクセスログ記録をサポート開始 設定 API Gatewayのログ出力先とする Kinesis Data Firehoseのストリームを作成します。 ストリームの名称は「amazon-apigateway-」で始まる名称とします。 Firehoseの出力先はS3としました。 API Gateway のログ設定で利用する「Delivery stream ARN」を確認します。 IAM API Gateway のサービスロール「AWSServiceRoleForAPIG

              Firehoseに対応したAPI Gatewayのアクセスログ設定を試してみた | DevelopersIO
            • Kinesis Data Firehose をゼロからざっくり理解する | DevelopersIO

              コンサル部@大阪オフィスのYui(@MayForBlue)です。 最近、CloudWatch Logs から S3 へのログデータの転送に Kinesis Data Firehose を初めて使ってみたので、勉強したことをまとめてみました。 ドキュメントを読んだり概要を学んだだけではなかなか理解しにくかったので、実際に触ってみた内容が中心となります。 Kinesis Data Firehose とは リアルタイムのストリーミングデータをS3やRedShift、Elasticsearchなどのデータストア、分析ツールに配信するAWSのマネージドサービス。 複雑な設定をすることなく、データ送信元から送信先へのデータの転送を実現することができます。 イメージ Kinesis Data Firehose は、Kinesis ストリーミングデータプラットフォームの一部で、他に、Kinesis Dat

                Kinesis Data Firehose をゼロからざっくり理解する | DevelopersIO
              • S3 アクセスのニアリアルタイムな異常検出を pandas と Firehose で実装してみる | DevelopersIO

                S3 の GuardDuty 的なサービスが本当は欲しいんやけど。無いものは無いので簡易的に異常アクセス数を検出する仕組みを作ってみた。 みなさん、S3 の異常アクセスてどうやって検出していますか? EC2 への異常アクセスであれば GuardDuty がありますよね。CloudFront, ALB, API Gateway であれば AWS WAF がありますよね。S3 は? S3 Access Analyzer? あれは 99% アクセス分析やってくれそうなサービス名ですが、アクセスが来たものを対象に分析するサービスではなく、「アクセスされる危険性があるよー」という分析をしてくれるサービスなので違うんですよ。 AWS CloudTrail Insights? あー、CloudTrai Insights は API コールのアクティビティを機械学習し、異常な挙動が起きた場合に知らせてくれ

                  S3 アクセスのニアリアルタイムな異常検出を pandas と Firehose で実装してみる | DevelopersIO
                • Twitter、イーロン・マスク氏に“firehose”(全公開ツイートデータ)提供か──Washington Post報道

                  米Twitterは、同社の買収に合意したものの、取引の打ち切りをほのめかしているイーロン・マスク氏の要求に対し、今週中にも“firehose”(消火ホースの意味)へのアクセスを提供する──。米Washington Postが6月8日(現地時間)、この件に詳しい匿名の情報筋の話としてそう報じた。 マスク氏は、Twitter上に占めるbotやフェイクアカウントの正確な割合を示さないなら買収をなかったことにするという書簡をTwitterのビジャヤ・ガッデCLO(最高法律責任者)に送ったり、ツイートしたりしている。Twitterはbotは5%未満だとしているが、マスク氏は「独自調査では20%以上だ」と反論した。 マスク氏の代理人がTwitterに送った書簡には「マスク氏は、Twitterが合併契約に基づく義務の順守を拒否していると確信しており、マスク氏自身のデータ分析で明らかになることを懸念して、

                    Twitter、イーロン・マスク氏に“firehose”(全公開ツイートデータ)提供か──Washington Post報道
                  • Introducing Dynamic Partitioning in Amazon Kinesis Data Firehose

                    Today we announced Dynamic Partitioning in Amazon Kinesis Data Firehose. With Dynamic Partitioning, you can continuously partition streaming data in Kinesis Data Firehose using keys within data like “customer_id” or “transaction_id” and deliver data grouped by these keys into corresponding Amazon Simple Storage Service (Amazon S3) prefixes, making it easier for you to run high performance, cost-ef

                      Introducing Dynamic Partitioning in Amazon Kinesis Data Firehose
                    • Firehoseで Parquet形式に変換したALBのアクセスログをAthenaで解析してみた | DevelopersIO

                      AWSチームのすずきです。 ALBのアクセスログ を Athena で効率の良い解析を行うため、 Lambda と Parquet形式への変換を有効にしたFirehose を利用する機会がありましたので、紹介させていただきます。 概要図 設定 今回のAWSリソース、CloudFormation で設置しました。主要な設定内容を紹介します。 利用したテンプレートは記事末尾にリンクします。 Glue Firehoseの変換データの出力先となる Glue Table の設定を行います。 TableInput 入出力フォーマットは「Parquet」を利用する指定とします。 TableInput: Owner: owner InputFormat: org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat OutputFormat:

                        Firehoseで Parquet形式に変換したALBのアクセスログをAthenaで解析してみた | DevelopersIO
                      • AWS WAFのログから特定Cookieの機密情報をKinesis Data Firehose + Lambda関数でマスクしてS3に保存するIaCをCDKで実装する - Qiita

                        AWS WAFのログから特定Cookieの機密情報をKinesis Data Firehose + Lambda関数でマスクしてS3に保存するIaCをCDKで実装するAWSwafaws-cdk AWS CDK Advent Calendar 2023の記事です。終わっても空いてた枠にシュルっと入りました。 NewsPicksのSREチームでセキュリティ周りも担当しているあんどぅといいます。 AWS WAFを利用する中で少しニッチな、しかし重要なロギングについてCDKで実装した例をご紹介します。 ボリュームが多いので、同じような構成でCDKを利用して実装する方の参考になれば幸いです。 WAFのログは重要。プライバシー保護も重要 同じアドカレ内でも書かれていますが、WAFを運用していると誤遮断がつきものなので、WAFのログは非常に重要です。 WAFのルールを適用する際は、COUNTモードで適用

                          AWS WAFのログから特定Cookieの機密情報をKinesis Data Firehose + Lambda関数でマスクしてS3に保存するIaCをCDKで実装する - Qiita
                        • [アップデート] ElastiCache for RedisのスローログをCloudWatch LogsやKinesis Data Firehoseにパブリッシュできるようになりました! | DevelopersIO

                          コンサル部のとばち(@toda_kk)です。 表題の通り、ElastiCache for Redisの機能としてスローログをパブリッシュできるようになりました。 スローログを確認したい場合、これまではredis-cliなどを使いがんばってRedisノードから直接ログを取得する必要がありました。CloudWatch LogsやKinesis Data Firehoseを通して確認できるようになったおかげで、トラブルシューティングを容易にできると期待しています。 対応バージョンは6.x系以上のみ 2021年5月現在では、Redisバージョンが6.x系以上でないとスローログが設定できないようですので、ご注意ください。 パブリッシュを有効化する スローログのパブリッシュを有効化する手順を確認してみます。 Redisクラスターの設定 まずはRedisクラスターを作成します。このとき、スローログの有効

                            [アップデート] ElastiCache for RedisのスローログをCloudWatch LogsやKinesis Data Firehoseにパブリッシュできるようになりました! | DevelopersIO
                          • Kinesis Data Firehoseを使ってみた話 - Qiita

                            はじめに 新規プロジェクトでのログ集計をKinesis Data Firehoseで設計してみたものの まだ使ったことがなかったので使ってみた話 Kinesis Data Firehoseとは そもそもKinesisとはという話なんですが。 Kinesisでできることは、ストリーミングデータをリアルタイムで収集、処理、分析することです。 その中でも大きく四つあり Kinesis Data Streams : ストリームデータを受けるサービス Kinesis Data Firehose : ストリームデータをS3やRedshiftなどの分析ツールに送るサービス Kinesis Data Analytics: ストリームデータを分析してくれるサービス Kinesis Video Streams: 動画を簡単かつ安全にストリーミングするサービス Kinesis Data StreamsとFire

                              Kinesis Data Firehoseを使ってみた話 - Qiita
                            • Stream data to an HTTP endpoint with Amazon Data Firehose | Amazon Web Services

                              AWS Big Data Blog Stream data to an HTTP endpoint with Amazon Data Firehose February 9, 2024: Amazon Kinesis Data Firehose has been renamed to Amazon Data Firehose. Read the AWS What’s New post to learn more. The value of data is time sensitive. Streaming data services can help you move data quickly from data sources to new destinations for downstream processing. For example, Amazon Data Firehose

                                Stream data to an HTTP endpoint with Amazon Data Firehose | Amazon Web Services
                              • DynamoDBの変更履歴をKinesis Firehose経由でS3に保存してAthenaで見る | DevelopersIO

                                DynamoDBのデータを更新したとき、DynamoDb Streams・Lambda・Kinesis Firehoseを経由してS3にファイルを格納し、Amazon Athenaで見る仕組みを作ってみました。 不具合の調査などをしているとき、「あのタイミングのDynamoDBテーブルのデータが分かれば助かるのに……」と思ったことは無いでしょうか? 私はあります。 Lambdaで参照したDynamoDBテーブルのログデータを見ても良いのですが、下記のように影響範囲を調査する際は有効ではありません。(ログを調べれば分かるけど大変) この値が原因なのは分かった。いつからこの値になっていた……? というわけで本記事では、DynamoDBテーブルの変更履歴をLambdaとKinesis Firehoseを経由してS3に格納し、Athenaで参照する仕組みを構築してみました。Partition Pr

                                  DynamoDBの変更履歴をKinesis Firehose経由でS3に保存してAthenaで見る | DevelopersIO
                                • [アップデート] Amazon Data Firehose に CloudWatch Logs ログイベントからメッセージデータのみを抽出出来るオプションが追加されたので有効にしてみた | DevelopersIO

                                  [アップデート] Amazon Data Firehose に CloudWatch Logs ログイベントからメッセージデータのみを抽出出来るオプションが追加されたので有効にしてみた いわさです。 今朝のアップデートで Kinesis Firehose、いや、Amazon Data Firehose で次のアップデートがアナウンスされました。 なんと、CloudWatch Logs + Firehose でログ転送を行う時に、オプションでログのソースレコードを抽出してくれるようになります。 通常特に指定しないと場合は CloudWatch Logs によって次のように構造化されたメッセージにソースメッセージを含める形になります。 { "messageType": "DATA_MESSAGE", "owner": "550669467088", "logGroup": "API-Gatew

                                    [アップデート] Amazon Data Firehose に CloudWatch Logs ログイベントからメッセージデータのみを抽出出来るオプションが追加されたので有効にしてみた | DevelopersIO
                                  • DynamoDB StreamsとKinesis Data Firehoseを使ったサーバーレスリアルタイムETL - Qiita

                                    何を書いた記事か 過去にDynamoDB Streams + Kinesis Data Firehose + Lambdaを用いたリアルタイムETLを検証した際のメモをこちらに転載します。 特にKinesis Data Firehoseの裏で動かすLambdaの実装に癖があったので、誰かの参考になれば幸いです。 前提 Webサービスなど展開していて、Database層にDynamoDBを採択している場合、そのデータを分析するための分析基盤構築手法として、Glueを用いたETLが一般的な選択肢になりうるのかなと思います。 最近DynamoDBのTableをS3にExportできる機能もGAになったので、フルダンプ+日時バッチのデータ分析としてはそのような手法も使えるかもしれません。 しかし、DynamoDB上にあるデータをなるべくリアルタイムに分析基盤に連携したい、最低限のETL処理も挟みた

                                      DynamoDB StreamsとKinesis Data Firehoseを使ったサーバーレスリアルタイムETL - Qiita
                                    • ECSのFireLensでFluent Bitの「CloudWatch」「Kinesis Firehose」「Kinesis Streams」プラグインを使う時の注意点 | DevelopersIO

                                      ECSのFireLensでFluent Bitの「CloudWatch」「Kinesis Firehose」「Kinesis Streams」プラグインを使う時の注意点 みなさん、こんにちは! 福岡オフィスの青柳です。 Amazon ECSのカスタムログルーティング機能である「FireLens」では、Fluent Bitをプラグインと共に使うことで、様々なサービスに対してログを転送することができます。 その中でも、AWSの下記サービスはログ転送先としてよく使われるのではないでしょうか。 CloudWatch Logs Kinesis Data Firehose Kinesis Data Streams 実は、Fluent Bitで上記サービスと連係するプラグインを利用する場合、ちょっとした注意点があります。 知っている人にとっては何ということはない話ですが、知らないと気付かずに「損」をして

                                        ECSのFireLensでFluent Bitの「CloudWatch」「Kinesis Firehose」「Kinesis Streams」プラグインを使う時の注意点 | DevelopersIO
                                      • Audioデータをクラウドに送ってみました。 MQTT(basic ingest) + Amazon Kinesis Data Streams + Amazon Kinesis Data Firehose + S3 (バイナリ) | DevelopersIO

                                        1 はじめに CX事業本部の平内(SIN)です。 ここまで、エッジ側のAudioデータをクラウドへ送信する要領をいくつか試してみました。 上記のうち、最後だけは、バイナリ型式でデータを送ってみたのですが、実は、AWS IoT SDKのMQTTクライアントのPublishもpayloadは、bufferとなってます。 https://awslabs.github.io/aws-crt-python/api/mqtt.html?#awscrt.mqtt.Connection.publish 今回は、AudioデータをJSON化せず、バイナリ形式のまま送信する要領を確認してみました。 2 構成 構成は、前回とほぼ同じです。 デバイスからは、500msec単位で、Audioデータ(バイナリ形式)とタイムスタンプ(バイナリ形式)を結合したものをPayloadとしてMQTTで送信します。 Amazon

                                          Audioデータをクラウドに送ってみました。 MQTT(basic ingest) + Amazon Kinesis Data Streams + Amazon Kinesis Data Firehose + S3 (バイナリ) | DevelopersIO
                                        • AWS CloudWatch Logs のログデータを S3 に配信する(Kinesis Data Firehose)

                                          公開日 2021.1.16更新日 2021.1.19カテゴリ:AWSタグ:AWS,S3,CloudWatchLogs,KinesisDataFirehose,terraform

                                            AWS CloudWatch Logs のログデータを S3 に配信する(Kinesis Data Firehose)
                                          • AWS WAFのBlockとCountログを抽出するパイプラインをFirehoseとLambdaで組んでみた | DevelopersIO

                                            WAFログ解析の効率化を図るため、Firehose と Lambda を利用したサーバレス な AWS WAF ログ処理パイプラインを試してみました。 AWSチームのすずきです。 AWS WAF のアクセスログは、Kinesis Data Firehose 経由でS3などに出力する事が可能です。 今回、Firehose と Lambda を利用して、AWS WAF で BLOCK 、COUNT と判定されたログを サーバレスに抽出するパイプラインを試す機会がありましたので、紹介させていただきます。 構成図 AWS WAFログサンプル BLOCK、COUNT に該当するログをS3から回収してサンプルとして利用しました。 ウェブ ACL トラフィック情報のログ記録 BLOCK 遮断設定をした WAFルールに該当したログです。 「action」が BLOCK と記録されます。 「terminat

                                              AWS WAFのBlockとCountログを抽出するパイプラインをFirehoseとLambdaで組んでみた | DevelopersIO
                                            • New Relic drinks straight from the Firehose: Consuming Amazon Kinesis data | Amazon Web Services

                                              AWS Big Data Blog New Relic drinks straight from the Firehose: Consuming Amazon Kinesis data February 9, 2024: Amazon Kinesis Data Firehose has been renamed to Amazon Data Firehose. Read the AWS What’s New post to learn more. New Relic can now ingest data directly from Amazon Kinesis Data Firehose, expanding the insights New Relic can give you into your cloud stacks so you can deliver more perfect

                                                New Relic drinks straight from the Firehose: Consuming Amazon Kinesis data | Amazon Web Services
                                              • Kinesis Data Firehose で Amazon S3 への動的パーティショニングのサポートを開始 | Amazon Web Services

                                                Amazon Web Services ブログ Kinesis Data Firehose で Amazon S3 への動的パーティショニングのサポートを開始 Amazon Kinesis Data Firehose は、ストリーミングデータをデータレイク、データストア、および分析サービスに確実にロードするための便利な方法を提供します。Amazon Simple Storage Service (Amazon S3)、Amazon Redshift、Amazon OpenSearch Service、汎用 HTTP エンドポイント、および Datadog、New Relic、MongoDB、Splunk などのサービスプロバイダーにストリーミングデータをキャプチャ、変換、配信することができます。Amazon Kinesis Data Firehoseは、データのスループットに合わせて自動的

                                                  Kinesis Data Firehose で Amazon S3 への動的パーティショニングのサポートを開始 | Amazon Web Services
                                                • [前編] Raspberry Piで取得したセンサーのデータをAWS IoTからKinesis Data Firehoseに流してS3に保存する | DevelopersIO

                                                  以前、以下のブログでRaspberry Piを使って取得した温度、湿度、気圧のデータをAWS IoTに送ってみました。 今回はAWS IoTに送信したデータをメッセージのルーティングを使ってKinesis Data Firehoseにデータを流し、その後にS3に保存する構成をCDKも使って構築してみましたので、その際のコードや設定などをまとめてみました。 本ブログは前半としてRaspberry Piのセンサーデータ取得とMQTT送信用のコードの解説を行い、後半ではAWS IoT,Kinesis Data Firehose,S3のAWSインフラを構築するAWS CDKによるコードの解説を行います。 システム構成 今回構築したシステム構成の概要図は以下のようになります。 使用するセンサーはBME280というBOSH社製の非常にコンパクトなものです。このセンサーは温度、湿度、気圧を取得できます。

                                                    [前編] Raspberry Piで取得したセンサーのデータをAWS IoTからKinesis Data Firehoseに流してS3に保存する | DevelopersIO
                                                  • DynamoDB ストリームから Lambda 関数を呼び出して Kinesis Firehose を経由して S3 バケットに出力してみた | DevelopersIO

                                                    コンバンハ、千葉(幸)です。 DynamoDB には DynamoDB ストリームという機能があり、DynamoDB テーブルのアイテムに変更があった場合にそれをキャプチャすることができます。 DynamoDB ストリームをイベントとして Lambda 関数を呼び出すことを俗に DynamoDB トリガーと呼びます。 また、DynamoDB テーブルではアイテムに有効期限(TTL)を設けて自動的な削除ができます。TTL により削除されたアイテムも DynamoDB ストリームのキャプチャ対象となるため、「期限切れで削除されたアイテムのみ Lambda 関数を用いて S3 にアーカイブ」ということもできます。 今回は、 DynamoDB ストリームで新規に追加されたアイテムをキャプチャし、 それをトリガーに Lambda 関数を呼び出し、 Kinesis Data Firehose 配信スト

                                                      DynamoDB ストリームから Lambda 関数を呼び出して Kinesis Firehose を経由して S3 バケットに出力してみた | DevelopersIO
                                                    • Lambdaで取得した画像をKinesis Firehose経由でS3にアップロードする - Qiita

                                                      「Create delivery stream」を押下 Kinesisから転送はしないので「Direct PUT」とし、流す先としてS3を選択 S3バケット名を指定 ここで指定したバケットへのアクセスを含めたIAMロールが自動生成される 他はデフォルトのまま、作成 数分後、作成されたことを確認 Python3.9にて作成 自動生成されたロールを選択 ロールにアタッチされているポリシーを以下のように修正 画像の取得元であるS3へのGetObjectを付与 今回は取得したバケットの別フォルダにアップロードする FirehoseへのPutRecordを付与 logsはデフォルトのまま { "Version": "2012-10-17", "Statement": [ { "Sid": "VisualEditor0", "Effect": "Allow", "Action": [ "s3:GetO

                                                        Lambdaで取得した画像をKinesis Firehose経由でS3にアップロードする - Qiita
                                                      • Fargate + Firelens + FluentBit + Firehose で S3(Firehose) と Datadog にログを送る - Qiita

                                                        Fargate + Firelens + FluentBit + Firehose で S3(Firehose) と Datadog にログを送るAWSDockerTerraformDatadogfluentbit Firelens + FluentBit を使って Datadog と S3(Firehose) にログを送る方法です。 今までは CloudWatchLogs, Lambda, StepFuntion を組み合わせて Datadog と S3 にログを送っていたのですが、Datadog にログを送る Lambda がたまにコケるので、Firelens と FluentBit を使ってログを送るようにしました。 Terraform を使って Fargate で Nginx を動かす まず、Terraform を使って Fargate で Nginx を動かします。 ファイル全文

                                                          Fargate + Firelens + FluentBit + Firehose で S3(Firehose) と Datadog にログを送る - Qiita
                                                        • Amazon CloudWatch Logsを別アカウントのKinesis Data Firehoseにプッシュする手順で脳内CPUが100%になったので図に描いてみた | DevelopersIO

                                                          こんにちは!コンサル部のinomaso(@inomasosan)です。 とある案件でAmazon CloudWatch Logsに保存したAmazon Auroraのログを、別アカウントのKinesis Data FirehoseにプッシュしS3に保存できるか調査しました。が、テキストだけ読んで理解しようとしたところ脳内CPUが高負荷で爆発しました。 そこで、今回は参考にした手順で作成するリソースを図に描いて、脳の負荷を軽減してみます。 まずはシングルアカウントでの手順を図にしてみる 理解を深めるために、まずはシングルアカウントでの手順から図にしてみます。 今回はAmazon Auroraの各種ログをCloudWatch LogsからS3に連携してみたを参考に、より詳細な図を描いてみました。 Amazon CloudWatch LogsとAmazon Kinesis Data Fireho

                                                            Amazon CloudWatch Logsを別アカウントのKinesis Data Firehoseにプッシュする手順で脳内CPUが100%になったので図に描いてみた | DevelopersIO
                                                          • Amazon CloudWatch を活用した Amazon Kinesis Data Firehose 配信ストリームの状態の把握 | Amazon Web Services

                                                            Amazon Web Services ブログ Amazon CloudWatch を活用した Amazon Kinesis Data Firehose 配信ストリームの状態の把握 本記事は Amazon Web Services, Startup Solutions Architect Manager である Alon Gendler によって投稿されたものです。 世界中で生成されるデータの量の増加がますます加速しています。データは、IoT、広告、ゲーム、セキュリティ監視、機械学習 (ML) など、増え続けるユースケースをサポートするために生成されています。これらのユースケースの発展がストリーミングデータの量と速度の両方を駆動させた結果、企業はデータをニアリアルタイムで取得、処理、変換、分析、さまざまなデータストアに取り込む必要が出てきています。 Amazon Kinesis Data

                                                              Amazon CloudWatch を活用した Amazon Kinesis Data Firehose 配信ストリームの状態の把握 | Amazon Web Services
                                                            • Kinesis→Redshift連携を、KCLからFirehoseに切り替えたお話

                                                              20190122 AWS Black Belt Online Seminar Amazon Redshift Update

                                                                Kinesis→Redshift連携を、KCLからFirehoseに切り替えたお話
                                                              • EC2にKinesisエージェントをインストールして、Kinesis Data Firehose経由でS3にログファイルを送信してみた | DevelopersIO

                                                                EC2にKinesisエージェントをインストールして、Kinesis Data Firehose経由でS3にログファイルを送信してみた こんにちは、ゲームソリューショングループのsoraです。 今回は、EC2にKinesisエージェントをインストールして、Kinesis Data Firehose経由でS3にログファイルを送信してみたことについて書いていきます。 構成 EC2にKinesis Agentをインストールして、Kinesis Data Firehoseを経由して、S3にログファイルを送信する構成です。 Kinesis Data FirehoseとS3の作成 Kinesis Data FirehoseとS3を作成します。(S3の作成は本記事では割愛します。) Kinesis Data Firehoseについて、ソースはDirect PUT、送信先はS3として作成したS3を指定しま

                                                                  EC2にKinesisエージェントをインストールして、Kinesis Data Firehose経由でS3にログファイルを送信してみた | DevelopersIO
                                                                • Amazon Kinesis Data Firehose が HTTP エンドポイントへのデータ配信のサポートを開始

                                                                  Amazon Kinesis Data Firehose が汎用 HTTP エンドポイントへのストリーミングデータ配信をサポートするようになりました。この機能では、完全マネージドサービスを利用して HTTP エンドポイントにデータをストリーミングできるため、カスタムアプリケーションの構築やデータ配信インフラストラクチャの操作と管理を心配する必要がなくなります。Amazon Kinesis Data Firehose には、エラー処理、自動スケーリング、変換、集計、圧縮が組み込まれており、組織全体でのデータストリームのデプロイを加速できます。 Amazon Kinesis Data Firehose は、ストリーミングデータをデータレイクやデータストア、分析ツールに確実にロードする最も簡単な方法を提供するサービスです。ストリーミングデータを取り込んで変換し、Amazon S3、Amazon

                                                                    Amazon Kinesis Data Firehose が HTTP エンドポイントへのデータ配信のサポートを開始
                                                                  • Kinesis Data Firehose と Fluent Bit for Amazon EKS on AWS Fargate によるサードパーティーへのログ送信 | Amazon Web Services

                                                                    Amazon Web Services ブログ Kinesis Data Firehose と Fluent Bit for Amazon EKS on AWS Fargate によるサードパーティーへのログ送信 この記事は Shipping logs to third-parties with Kinesis Data Firehose and Fluent Bit for Amazon EKS on AWS Fargate (記事公開日: 2022 年 4 月 20 日) を翻訳したものです。 AWS Fargate は EKS クラスターで Pod を動作させるためのキャパシティをオンデマンドで提供するテクノロジーです。Fargate は EC2 インスタンスの管理を必要とせずにコンテナアプリケーションを実行できるようにすることで、より手のかからない体験を提供します。AWS Farg

                                                                      Kinesis Data Firehose と Fluent Bit for Amazon EKS on AWS Fargate によるサードパーティーへのログ送信 | Amazon Web Services
                                                                    • [小ネタ] Kinesis Data FirehoseのIAMポリシーに含まれるプレースホルダーについて | DevelopersIO

                                                                      しばたです。 検証用にAmazon Kinesis Data Firehose(以後Kinesis Firehose)を手作業で作成した際に気が付いた点について、ネット上に意外と情報が無かったのでブログにしてみました。 配信ストリーム作成時に生成されるIAMロール マネジメントコンソールからKinesis Firehose配信ストリームを新規作成する場合、配信ストリームと同時にIAMロールを新規作成することが可能です。 例として下図の様にシンプルなS3への配信ストリーム(PUT-S3-Test1)を作る場合、 Advanced settingsの「Permissions」欄でIAMロールを新規作成するかどうかを指定できます。 ここでIAMロールを新規作成した場合以下の様なポリシーを持つロールとなり、ところどころに%FIREHOSE_POLICY_TEMPLATE_PLACEHOLDER%と

                                                                        [小ネタ] Kinesis Data FirehoseのIAMポリシーに含まれるプレースホルダーについて | DevelopersIO
                                                                      • Firehose で S3 に保存したgzipファイルが正常に解凍出来ない問題の対処方法 | DevelopersIO

                                                                        困っていた内容 Firehose で S3 に保存した gzip ファイルをダウンロードしたのですが、 解凍しようとするとファイル破損となり解凍できません。 原因 今回の事例では Firehose から S3 にファイルを保存する際に gzip 圧縮を行っています ※上記設定は Amazon Kinesis > Delivery streams > 対象の配信ストリームを選択 Configuration > Destination settings > Compression and encryption で確認できます。 この設定をしていた場合、 S3 に保存する際にメタデータとして Content-Encoding: gzip が付与されます このメタデータが付与されていると、ブラウザ経由でダウンロードした際に、gzip が自動で解凍(展開)されてしまう事があります。 しかし、ファイル

                                                                          Firehose で S3 に保存したgzipファイルが正常に解凍出来ない問題の対処方法 | DevelopersIO
                                                                        • Kinesis AgentとFirehoseを利用してEC2からS3にログを転送する

                                                                          参考 料金 – Amazon CloudWatch | AWS料金 – Amazon S3 |AWS料金 – Amazon Kinesis Data Firehose | AWS 途中でLambdaによるデータ加工処理を簡単に入れられる S3にログを送るだけなら、td-agentを利用しても要件を満たせると思います(未経験ですが)。しかし、Firehoseを使う利点の1つとして、途中にLambdaによるデータ加工処理を簡易的に実装できるということも挙げられると存じます。コンソールから選択するだけですからね。 td-agentでもデータ加工できる?……とりあえずKinesis Agentを使ってみたかったというのが正直なところです。 S3バケットを準備する まずは、ログを格納するS3バケットを準備します。特別な設定は指定していませんが、バケットにライフサイクルを設定することで、ログの保存期間

                                                                            Kinesis AgentとFirehoseを利用してEC2からS3にログを転送する
                                                                          • goで作るfirehoseのデータ変換lambda - Gunosy Tech Blog

                                                                            こちらの記事は Gunosy Advent Calendar 2020 の5日目の記事です。 昨日の記事はコウ(@yuanzhi.ke)さんの 新卒入社して半年が経ちました vol.4 〜クーポン改善〜でした!! おはようございます!こんにちは!こんばんは! 最近は goでlambda ばかり書いている @625 です。 世の中、生きているとlambdaのログをいい感じにaggregateしつつs3に出力しないといけない!みたいな状況、ありますよね。 そんなときには lambda + cloudwatch logs + subscription の firehose が役に立ちます! 全体の説明とかはだいたい以下のawsのドキュメントを見ていただければ良いので、cloudwatch logsのログをgoで書かれたlambdaを使っていい感じの形式に変えてs3に出力したいって部分だけを書きま

                                                                              goで作るfirehoseのデータ変換lambda - Gunosy Tech Blog
                                                                            • Amazon Kinesis Data FirehoseでDynamic Partitioningによる出力データの動的パーティショニングを試してみた(AWS CDK) | DevelopersIO

                                                                              Amazon Kinesis Data FirehoseでDynamic Partitioningによる出力データの動的パーティショニングを試してみた(AWS CDK) こんにちは、CX事業本部 IoT事業部の若槻です。 Amazon Kinesis Data Firehoseでは、S3 Bucketに出力されるデータのnamespace(プレフィックス)として、Timestampに加えて、レコード毎に指定のキー値を使用したプレフィクスを付与できるDynamic Partitioning(動的パーティショニング)という機能が利用できます。 Dynamic Partitioning in Kinesis Data Firehose - Amazon Kinesis Data Firehose 今回は、Amazon Kinesis Data FirehoseでのDynamic Partitio

                                                                                Amazon Kinesis Data FirehoseでDynamic Partitioningによる出力データの動的パーティショニングを試してみた(AWS CDK) | DevelopersIO
                                                                              • 【小ネタ】[Amazon Kinesis Data Firehose] Transform source records with AWS Lambda でレコード毎に改行を追加する | DevelopersIO

                                                                                1 はじめに IoT事業部の平内(SIN)です。 ストリームに流れるレコードを、そのままS3へ保存するような場合、Amazon Kinesis Data Firehoseが非常に便利に利用されると思います。そして、レコードが、JSONのようなテキスト形式だった場合に、レコード毎の区切りが分かるように改行等を入れて保存すると、利用しやすいかも知れません。 このことから、IoT Coreのルールでは、Amazon Kinesis Data Firehoseへ送る際、改行等のセパレータが指定可能になっています。 今回は、Amazon Kinesis Data Streamsを入力ソースとしたAmazon Kinesis Data Firehoseで、S3へ保存する前に、レコード毎に改行を挿入するLambdaを作成してみました。 レコードデータは、手元のMacからboto3で送信しています。 2

                                                                                  【小ネタ】[Amazon Kinesis Data Firehose] Transform source records with AWS Lambda でレコード毎に改行を追加する | DevelopersIO
                                                                                • Amazon Kinesis Data Firehose により、VPC のプライバシー内で Amazon Elasticsearch Service にストリーミングデータを取り込む | Amazon Web Services

                                                                                  Amazon Web Services ブログ Amazon Kinesis Data Firehose により、VPC のプライバシー内で Amazon Elasticsearch Service にストリーミングデータを取り込む  今日、新しい Amazon Kinesis Data Firehose 機能を追加します。これにより、Kinesis Data Firehose から Amazon Elasticsearch Service ドメインへの VPC 配信をセットアップできます。Amazon Kinesis Data Streams でカスタムアプリケーションを管理してトラフィックを非公開にしている場合は、Kinesis Data Firehose を使用して、VPC 内の Amazon Elasticsearch Service エンドポイントにデータをロードすることができ

                                                                                    Amazon Kinesis Data Firehose により、VPC のプライバシー内で Amazon Elasticsearch Service にストリーミングデータを取り込む | Amazon Web Services

                                                                                  新着記事