並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 77 件 / 77件

新着順 人気順

fluentdの検索結果41 - 77 件 / 77件

  • Fluentd v1.15.0リリース -- YAML形式サポートなどの新機能とin_tailの不具合修正 - 2022-07-05 - ククログ

    2022年6月29日にFluentdの最新版となるv1.15.0をリリースしました。 クリアコードはFluentdの開発に参加し、リリースを含めたメンテナンス作業を行っています。 今回はv1.15.0で追加された新機能を中心に紹介します。 CHANGELOG リリースアナウンス Fluentd v1.15.0の新機能 YAML形式の設定をサポート Fluentdの設定ファイルは、Apacheのhttpd.confの形式を模して、ディレクティブから成る形式を用いていました。 従来のFluentdの設定ファイルについて Apache HTTP サーバの設定ファイルについて 一方で以前から、YAMLやJSONなどのより一般的な形式を使いたいという声も挙がっていました。 Issue#554 本バージョンから、Kubernetesとの親和性を考慮して、YAML形式の設定ファイルも使用できるようになり

      Fluentd v1.15.0リリース -- YAML形式サポートなどの新機能とin_tailの不具合修正 - 2022-07-05 - ククログ
    • Fluentdのflush_mode immediateはいつ使うのか - たごもりすメモ

      Fluentd実践入門をあらためて手元でぱらぱらやってたら、しまった! この話をどこかにちょっとでも書こうと思ってたのに忘れてた! という話が出てきたので、忘れないうちに書いて放流する。 flush_modeとはなにか FluentdのOutputプラグインには<buffer>セクションで指定できるflush_modeというパラメータがあって、これはOutputプラグインがどういう基準でバッファ内のデータを書き出す(writeメソッドを呼ぶ)かという戦略をコントロールする。有効な値はdefault、immediate、interval、lazyの4つ。 ただし多くのケースでこのパラメータは明示的には指定されていないはず。というのも、デフォルト値であるところのdefaultの場合には、<buffer>セクションに指定されている他のパラメータ((と、例外的に<buffer>セクションの外側に指

        Fluentdのflush_mode immediateはいつ使うのか - たごもりすメモ
      • Athenaを使ったデータ処理基盤の設計 - Speee DEVELOPER BLOG

        こんにちは。UZOUのプロダクト開発をしているエンジニアの@kanga333です。 UZOUでは広告データの集計の一部にAmazon Athenaを採用しています。 この記事ではUZOUにおけるAthenaを使ったデータ処理基盤の設計について紹介したいと思います。 全体構成 データ処理基盤の全体構成は次のようになっています。 以後はそれぞれのコンポーネントについて順次紹介していきます。 FleuntdによるS3への集約 UZOUでは特にFluentdアグリゲータのような中継サーバは設けていません。広告配信サーバに常駐するFluentdがログを直接S3にプットしています。 以下はFluentdのS3 output部分の設定の一部抜粋です。 <buffer time> @type file timekey 60m </buffer> path example_table/dt=%Y%m%d/h

          Athenaを使ったデータ処理基盤の設計 - Speee DEVELOPER BLOG
        • FireLens(Fluent Bit)でエラーログだけはCloudWatch Logsへ、すべてのログはS3バケットへ保存を実現する設定例 | DevelopersIO

          本検証利用したFargateのCloudFormationテンプレート、FireLensのDockerfileなどは以下に置いてあります。タスクロールなどは必要に応じて確認してください。 Fargate一式 FireLensのDockerfile 設定ファイル 以下のFluent Bitの設定ファイルを作成しました。 extra.conf [SERVICE] Flush 1 Grace 30 # ELBヘルスチェックログ除外 [FILTER] Name grep Match *-firelens-* Exclude log ^(?=.*ELB-HealthChecker\/2\.0).*$ # エラーログにタグ付け [FILTER] Name rewrite_tag Match *-firelens-* Rule $log (emerg|alert|crit|error|\s4\d{2}\

            FireLens(Fluent Bit)でエラーログだけはCloudWatch Logsへ、すべてのログはS3バケットへ保存を実現する設定例 | DevelopersIO
          • Centralized Container Logging with Fluent Bit | Amazon Web Services

            AWS Open Source Blog Centralized Container Logging with Fluent Bit September 8, 2021: Amazon Elasticsearch Service has been renamed to Amazon OpenSearch Service. Visit the website to learn more. by Wesley Pettit and Michael Hausenblas AWS is built for builders. Builders are always looking for ways to optimize, and this applies to application logging. Not all logs are of equal importance. Some requ

              Centralized Container Logging with Fluent Bit | Amazon Web Services
            • Fluentdはデータ収集ソフトウェア最強のツールである

              はじめに 最近Fluentdを使い始め、あまりの使い心地の良さに「ああ、最高だ」という気持ちになったため、素晴らしさを共有すべくこの記事を執筆することに致しました。一からFluentdを自分でやろうとすると中々手が出なかったり、「完全に理解した」という状態になるまで二日くらい掛かったりするので、それがこの記事を10分程度読むだけで200倍くらいの時間圧縮に繋がれば良いなと思います。少なくとも自分だけで一から学ぼうとするよりはるかに効率が良いと考えております。 Fluentdは高信頼性のデータ収集ソフトウェア Fluentdはオープンソースのデータ収集ソフトウェアで、多機能で、高速かつ信頼性高くデータ転送を行ってくれます。なぜ信頼性が高いのかというと、データ転送時に一時的にバッファーに情報を蓄積出来る機構を持っているため、障害が発生してもログの再送制御を行い欠損を防ぐことが出来るからなんです

                Fluentdはデータ収集ソフトウェア最強のツールである
              • Under the hood: FireLens for Amazon ECS Tasks | Amazon Web Services

                Containers Under the hood: FireLens for Amazon ECS Tasks September 8, 2021: Amazon Elasticsearch Service has been renamed to Amazon OpenSearch Service. See details. Recently, Amazon ECS announced support for custom log routing via FireLens. FireLens makes it easy to use the popular open source logging projects Fluentd and Fluent Bit; enabling you to send logs to a wide array of AWS Services and pa

                  Under the hood: FireLens for Amazon ECS Tasks | Amazon Web Services
                • KubernetesでFluentdの信頼性を担保するための3つの観点

                  概要 GKEなどを使えば自動的に標準出力のログが集計&集約され、Cloud Loggingなどを通して可視化されますが、 オンプレミス環境でKubernetesクラスタを構築する場合そうはいきません。 また単純なアプリケーションログの集計以外にも、 Kubernetesを使ってログ、データ集計をしている人はFluentdを運用しなくてはならない人は多いと思います。 本記事では、ログの集計、集約のデファクトスタンダードであるFluentdをKubernetes上に展開する上で、 信頼性を担保するための観点を整理します。 想定アーキテクチャ 想定アーキテクチャとしては現場でよく構築されている、図のような構成を用います。 アーキテクチャの特徴 クラスタに、FluentdがForwarderとAggregatorという2つのロールでそれぞれ存在しています。 Forwarder DaemonSetで

                    KubernetesでFluentdの信頼性を担保するための3つの観点
                  • fluentdでOSのいろんなログをまとめてS3に出力する設定考えてみた | DevelopersIO

                    こんにちは、臼田です。 fluentdの設定は自由度が高くて、逆にどうやるのが最適なのかなーと悩むことがよくあります。 今回は「apacheのログを出力したい」のような単体のログではなくて、「OSに保存されているいろんなログを(比較的)楽にS3に出力したい」という需要に答える設定を考えてみました。用途としてはとりあえずローカルの出力されているいろんなアプリログを拾ったりですとか、あとはコンプライアンス用件で細かい様々なログを全てS3に保管したいといったところが上げられると思います。 fluentdの設定値の役割についてもある程度解説しつつ、設定を紹介したいと思います。 なお、インストール方法などは省略します。公式ドキュメントなどをご参照ください。 いろんなログをまとめてS3に出力する設定 まず/etc/td-agent/td-agent.confの設定を共有します。 # read apac

                      fluentdでOSのいろんなログをまとめてS3に出力する設定考えてみた | DevelopersIO
                    • Amazon.co.jp: Fluentd実践入門 ── 統合ログ基盤のためのデータ収集ツール (WEB+DB PRESS plus): 田籠聡: 本

                        Amazon.co.jp: Fluentd実践入門 ── 統合ログ基盤のためのデータ収集ツール (WEB+DB PRESS plus): 田籠聡: 本
                      • Fluentd/Elasticsearch7/Kibana7でsyslogを管理してみる

                        Elasticsearchの最新版は7.xであることに、どういうわけか前回の記事を公開してから気づいたので、大慌てで書き直しをした。やっぱり本家のインストールガイドをきちんと読まないといけないよな、ということで改めてFlutentdでsyslogを集めてKibana7で閲覧する環境を整えてみる。 全体の構成はこんな感じだ。 受信サーバのインストール受信サーバはCPU2コア、4GBメモリ、20GBディスクのサーバを用意した。どれぐらいのスペックが適切なのかよくわからなかったので、適当に準備してみたというのが正直なところだ。これにCentOS7.xを新規に入れて、最新状態にupdateしたところから始める。 Elasticsearch7のインストール最初にyumのrepoファイルを作成する。手動で作成することになるので、コピペ用にバッチ風のテキストを用意しておこう。 cat <<EOL >/e

                          Fluentd/Elasticsearch7/Kibana7でsyslogを管理してみる
                        • Fluentd向けApache Arrowプラグインについて - KaiGaiの俺メモ

                          構想は半年ほど前?ここ一ヶ月ほど集中して開発に取り組んでいた、Fluentd向けApache Arrowプラグインがようやく動くようになったので、今回はこちらのモジュールについてご紹介します。 そもそもPG-Stromは、IoT/M2M領域で大量に発生するデータを高速に処理できますというのがセールスポイントで、GPU-Direct SQLはじめ、各種の機能によってそれを実現しているワケですが、実際に運用する際には、発生したデータを『どうやってSQLで処理できるようDBにインポートするか?』という問題があります。 例えば、PostgreSQLに一行ずつINSERTするというのも一つの解です。ただし、単純なI/Oに比べると、DBへの書き込みはどうしても処理ボトルネックになりがちです。 そこで、大量に収集するログデータを、少ない時間ロスで(つまり一時ファイルに保存したデータを再度DBにインポート

                            Fluentd向けApache Arrowプラグインについて - KaiGaiの俺メモ
                          • fluentdを使ったRedshiftへのログ投入方法の変遷 - KAYAC engineers' blog

                            SREチームの竹田です。Tech Kayac Advent Calendar Migration Track 16日目の記事になります 弊社ではアプリケーションから出力されたログの集約管理ツールといえばfluentdほぼ一択になるでしょう。 プラグインやドキュメントも充実しており運用には欠かせない存在です。 「受信」「分類」「要素の置換/追加/削除」「転送」など様々な事をしてくれるのですが 、少々仕事をさせすぎてしまう傾向があります。 fluent-plugin-redshift 数年ほど前にリリースされたとあるサービスでログをRedshiftに投入したい要件がありました。 ログをfluentd経由でRedhshiftに投入したい場合fluent-plugin-redshiftを利用して投入することができます。 fluent-plugin-redshiftは内部で以下のようなことを行ってお

                              fluentdを使ったRedshiftへのログ投入方法の変遷 - KAYAC engineers' blog
                            • firelensを使用した、ログ分割と監視処理 - Qiita

                              ■1〜3回の内容を再設計した記事を書きました。 FireLens/fluentbit構成の見直しと改修 はじめに ここ最近、FireLensの機能選定を行っており fluentbitのカスタムイメージを作成し、FireLensに接続するまでの機能調査を行いました。 1回目の記事です。 2回目 ローカルで、datadog/S3へデータを転送できるdockerイメージを作成する 3回目 Firelensで、datadog/S3へデータを転送できるdockerイメージを作成する FireLens実装サンプル 概要 VPC内で稼働しているwebアプリケーションのEC2インスタンスを、fargate化したいという話がありました。 改修に伴い、fargateコンテナをステートレスにする為、ログの管理方法が話題に上がりました。 また、監視業務を内製化したいという要望もあった為、ログの検知システムも検討し

                                firelensを使用した、ログ分割と監視処理 - Qiita
                              • ログについて改めて考えてみた

                                プロトタイピングとユーザビリティテストで「UXデザイン」を練りあげよう! | UXデザイン基礎セミナー 第4回Yoshiki Hayama

                                  ログについて改めて考えてみた
                                • fluentdによる通知をRedash/Mackerelに移動させる - KAYAC engineers' blog

                                  ログの監視と通知方法 SREチームの竹田です。Tech Kayac Advent Calendar Migration Track 5日目の記事になります アプリケーションの挙動を監視し、ある閾値を超えたときにだけ通知が欲しい時があります。 ある程度の障害は想定内として頻繁に起きているときにだけエスカレーションさせたい場合などです。 障害頻度の把握と通知を実現するために、アプリケーションからログをfluentdで集約し、fluent-plugin-grepcounterで一定の閾値を超えたら通知がいくような仕組みを作りました。 しかし運用していく中で以下のような問題がでてきました 閾値を変更する際にはfluentdの設定を変更する必要がある 通知のテストが難しい fluentdのバージョンアップに追随しにくい そこで、ログ集約と通知を分離することにしました。 fluentdはログの集約に専

                                    fluentdによる通知をRedash/Mackerelに移動させる - KAYAC engineers' blog
                                  • AWS FireLensってなんだ? - Qiita

                                    What's? AWS FireLensについて、知っておきたかったので軽く調べてみました、と。 AWS FireLensとは? AWS FireLensとは、2019年9月に発表された、Amazon ECSで使用できるログルーターのことです。 Firelens の発表 – コンテナログの新たな管理方法 タスク定義の中に含めてサイドカーとして配置しつつ、他のコンテナからはログドライバーとして使用します。 カスタムログルーティング AWS FireLensからは、Amazon CloudWatch LogsまたはAmazon Kinesis Data Streams、Amazon Kinesis Data Firehose、そして別のFluentdやFluent Bitに転送することができます。 以下のタスク定義サンプルは、Firelens の発表 – コンテナログの新たな管理方法からの抜粋

                                      AWS FireLensってなんだ? - Qiita
                                    • 高負荷環境でFluentdを安定運用するための3つの観点

                                      本記事について Fluentdは機能としてはシンプルですが、 高負荷環境で安定的に運用するためにはある程度の知識が求められます。 そこで、本記事ではそれなりにログ流量の高い環境下で私が考慮した観点をまとめました。 本記事では、KubernetesでFluentdの信頼性を担保するための3つの観点に加え、 「高負荷時の安定運用」に焦点を当て、 負荷分散 適切なモニタリング トラブルシューティングとチューニング の3つの観点について整理しています。 前提となるアーキテクチャ アーキテクチャとしては実際に私が構築した図の構成を前提とします。 アーキテクチャの特徴 1つのKubernetesクラスタに、FluentdがForwarderとAggregatorという2つのロールで存在しています。 Forwarder DaemonSetでデプロイされる 各コンテナの出力ログをあつめ、Aggregato

                                        高負荷環境でFluentdを安定運用するための3つの観点
                                      • fluentdはじめる - Qiita

                                        fluentdについて 概要 fluentdとは、 fluentd は ログ集約ソフトウェア である 今回はdockerを用いて運用の実験を行なった。 検証1. fluentdの動作確認 目標 アプリケーションサーバとfluentdサーバの2つを使ってfluentdの機能を確かめる。 ファイル構造 |-- bottle_app | |-- app | |-- main.py  <- メイン | |-- bottle.py | |-- views <- htmlファイル群 | |-- fluentd |-- config |-- fluent.conf # coding: utf-8 from bottle import template, route, run, request import urllib # htmlファイルを返す関数 @route('/') def login(): p

                                          fluentdはじめる - Qiita
                                        • 今更ながらFluent Bitって何だ!?となったので調べてみた話

                                          こんにちは、Яeiです。 今回は現役エンジニアである私がFluent Bitって何だという話についてまとめたいと思います。 最近巷で良く聞くFluent Bitと呼ばれるものがありますが、そもそもこれって何なのか調査しましたのでシェア致します。 最後はdocker-composeを用いたサンプルも用意しましたので見てみて下さい。 Fluent Bit 概要は公式サイトに分かりやすく書かれておりますので興味のある方は一読しておくとよいでしょう。 参考 fluentbitfluentbit また、各種ドキュメントは以下公式資料に詳しく書かれておりますのでこちらを参考にしてもらえればと思います。 参考 Fluent Bit ドキュメント 概要 Fluent Bitとは、 アプリケーションから出力されたログファイルや標準出力ログなどのデータを収集し、フィルタリングして複数の宛先に送信できるツールと

                                            今更ながらFluent Bitって何だ!?となったので調べてみた話
                                          • Fluentdのバッファリングで抑えておくべき大事なポイント - Enjoy Architecting

                                            概要 Fluentdで障害設計をする上でバッファリングの概念は切っても切り離せません。 本記事では、ドキュメントだけでは拾いきれないものも踏まえ、 Fluentdのバッファリングで抑えておくべき情報を体系的にまとめます。 バッファリングとは? Fluentdではログをバッファリングしてまとめて送信するための仕組みが用意されています。 これは下記のような用途に用いることができます。 送信先がダウンしていたときに一時的に保管しておく 送信先のキャパシティに合わせて送信流量を制限する Fluentdにはメモリ上、もしくは永続化ディスク上にバッファを保管しておく仕組みが用意されています。 バッファの構造 バッファの構造は下記のようになっています。 引用: https://docs.fluentd.org/buffer Output Pluginごとに一つバッファ領域を持っており「stage」と「q

                                              Fluentdのバッファリングで抑えておくべき大事なポイント - Enjoy Architecting
                                            • dockerコンテナのログをelasticsearchに集めて解析する方法 - Qiita

                                              TL;DR dockerコンテナのログをfluentdに集める方法 の続編です. この記事から読み始めることもできます. Docker logdriverの機能を利用して,コンテナのログをelasticsearchに蓄積する仕組みを作ります https://github.com/myoshimi/es-docker-logging にdocker-compose.ymlがあります dockerコンテナのログをfluentd形式で送信します(logdriverの設定) fluentdコンテナでログを受け取り,elasticsearchに蓄積します kibanaで蓄積された情報を可視化,解析できます コンテナ構成例 下記のLogsパッケージ部分を作ります. 3つのコンテナから成ります データ転送サーバ Fluentd (fluentd) 全文検索エンジン Elasticsearch (es)

                                                dockerコンテナのログをelasticsearchに集めて解析する方法 - Qiita
                                              • FireLens を使って fluentd logging driver 起因の fluentd の負荷を分散させる

                                                Fluentd aggregator を構成する際に、Route 53 や NLB を使うことで、forwarder では 1 つのエンドポイントを指定しつつ簡単に fluend の台数を増減させることができます。ところが、Docker で fluentd logging driver を使う際にそのエンドポイントを指定すると、一度コネクションが確立されるとずっとそのコネクションが使い回されるため、大量のログを吐くコンテナと接続された fluentd ホストだけが高負荷な状態が続くことになります。 この問題を解消するために FireLens を使ってみたという話です。 Fluentd logging driver の実装 Fluentd logging driver の実装は daemon/logger/fluentd/fluentd.go ですが、コネクションにメッセージを書き込むところ

                                                  FireLens を使って fluentd logging driver 起因の fluentd の負荷を分散させる
                                                • AWSでFluentdを導入してS3にログアップロード - Qiita

                                                  AWSで運用されている方がよくやるfluentdを使ったログのS3アップロードです。 手順ではApacheが動いているサーバと仮定して、以下ログをアップロードします。 /var/log/httpd/access_log /var/log/httpd/error_log /var/log/messages 前提条件 OS:AmazonLinux 2017-09 IAM Role設定済みであること。IAM Roleはインスタンスに割り当てるといいです。 バケット名:logs IAM Role設定例 S3の特定バケット(ログ保管)へアクセスする為のポリシー。 ※ バケット名は適宜書き換えのこと。 ※ Sidも適当な文字列へ書き換えること。(日時などへ) { "Version": "2012-10-17", "Statement": [ { "Sid": "Stmt201803121612", "

                                                    AWSでFluentdを導入してS3にログアップロード - Qiita
                                                  • FluentdをDockerで試してみる

                                                    Fluentdって何? オープンソースのデータコレクター(収集)です。 JSONを利用したロギング 500以上プラグインがある リソースも少ない https://www.fluentd.org/architecture 日本人が元を作成していて、日本語の資料も多いです。 とりあえず、Dockerで試してみる。(ダラダラと試していくのでご了承ください。) ダラダラと試してみる。 Fluentdサーバの公式のイメージ 公式から探すと下記が公式イメージらしい とりあえず起動するだけなら下記でOK 利用するポート:-p 24224:24224 -p 24224:24224/udp 利用するディレクトリ:-v /data:/fluentd/log (この時点の推測だと、このフォルダにログ情報のJSONが吐き出されると思う…) docker run -d -p 24224:24224 -p 24224

                                                      FluentdをDockerで試してみる
                                                    • Pascal〜Puree + ngx_lua + Fluentd + BigQueryでつくるメルカリのログ分析基盤〜 | メルカリエンジニアリング

                                                      エンジニアではなくプログラマと呼ばれたい@cubicdaiyaです。今回はメルカリのログ分析基盤のお話です。 メルカリにおけるログデータ分析 メルカリでは初期の頃からログデータの分析をサービスの成長にとって重要なタスクとして位置づけ、そのための基盤作りに取り組んできました。ログの種類はいくつかありますが、中でも代表的なのがアプリケーションサーバで出力されるアクセスログやアプリケーション固有のログです。これらのログはサイズが大きいので効率良くログデータを転送するための工夫が必要になります。そこで活躍するのがFluentdです。 大雑把に説明するとアプリケーションサーバで出力されたログはFluentdから最終的にBigQueryやTreasure Dataといったクラウドサービスに転送されます。(上記の図は非常に簡単に済ませていますが、実際にはログの中継やフィルタリングをするためのFluent

                                                        Pascal〜Puree + ngx_lua + Fluentd + BigQueryでつくるメルカリのログ分析基盤〜 | メルカリエンジニアリング
                                                      • ローカルで、fluentbitからdatadog/S3へデータを転送できるdockerイメージを作成する - Qiita

                                                        ローカルで、fluentbitからdatadog/S3へデータを転送できるdockerイメージを作成するDockerdockerfileDatadogdocker-composeFireLens Firelens構築記事の2回目となります。 1回目 firelensを使用した、ログ分割と監視処理 3回目 Firelensで、datadog/S3へデータを転送できるdockerイメージを作成する githubのサンプルはfirelensとの連携まで完成しており、文章中の解説はサンプルベースで行います。 サンプル(Github) ローカルで動くサンプルの作成 fluentbitの調整をfargate上で行うと疲弊してしまうので docker-composeで構築のサンプルを作成し、正しく動作するfluentbitの構成ファイルを作成することにしました。 docker-compose.yml v

                                                          ローカルで、fluentbitからdatadog/S3へデータを転送できるdockerイメージを作成する - Qiita
                                                        • ECS の Daemon サービスで動かしている Fluentd を Logging Driver の接続先にすると Draining 時にコンテナが終了しないことがある問題とその対策

                                                          標題のとおり、ECS の daemon サービスで動かしている Fluentd を logging driver の接続先にすると、draining 時に Docker container with fluentd logging driver never stops if it can’t connect to fluentd · Issue #44511 · moby/moby で言及している問題が起きて、Fluentd が復活しない限り、logging driver で Fluentd を利用しているコンテナが無限に生き続けることになります。 本エントリーでは問題の再現方法と対策について解説します。 Issue についての解説 どうしてコンテナが終了しないかについての自分なりの仮説はコメントに書いたとおりです。 次のように 3 つの goroutine が関係していそうです。 gor

                                                            ECS の Daemon サービスで動かしている Fluentd を Logging Driver の接続先にすると Draining 時にコンテナが終了しないことがある問題とその対策
                                                          • GitHub - aws/aws-for-fluent-bit: The source of the amazon/aws-for-fluent-bit container image

                                                            The version of the AWS for Fluent Bit image is not linked to the version of Fluent Bit which it contains. What does the version number signify? We use the standard major.minor.patch versioning scheme for our image, AKA Semantic Versioning. The initial release with this versioning scheme is 2.0.0. Bug fixes are released in patch version bumps. New features are released in new minor versions. We str

                                                              GitHub - aws/aws-for-fluent-bit: The source of the amazon/aws-for-fluent-bit container image
                                                            • fluentdのbuffer周りで注意すべき点 - Qiita

                                                              topic buffering parameters flushing parameters retries parameters 公式ドキュメントを参照していますが、私の解釈が誤っている場合もあるため間違っていた場合はご指摘ください。 記事作成時点のfluentdの最新バージョンは1.2.2です。 主にbufferに関するパラメータは上記の三種類となります。 retryに関しては下記のページでも紹介しているので特にここでは記載しません。 参考: https://qiita.com/smith_30/items/1a8df503613f7e7e2904 https://qiita.com/tatsu-yam/items/bd7006e483f3b3c64309 また、buffer/chunk/flush/queue等の動作に関してもある程度上記で説明してくださっているので参考にしてみると良

                                                                fluentdのbuffer周りで注意すべき点 - Qiita
                                                              • Fluentdの監視 - grep Tips *

                                                                Fluentdの監視項目 Fluentdの監視をしたい項目は四つ。 port監視 バッファーに蓄積されているキューの数が上限に達していないか バッファーに蓄積されている合計サイズが上限に達していないか 再送を試みた回数が上限に達していないか 1のport監視はTCP通信であればZabbixの「シンプルチェック」で簡単に確認できる。 net.tcp.service[tcp,,24224] in_monitor_agentプラグイン 2, 3, 4を監視する方法として、in_monitor_agentプラグインを使用する。 https://docs.fluentd.org/v1.0/articles/in_monitor_agent 以下のようなsyslogからAmazon CloudWatch Logsにログを転送する設定があるとする。 <source> @type syslog port

                                                                  Fluentdの監視 - grep Tips *
                                                                • GKE はどのようにログを収集しているのか

                                                                  Ubie で SRE をしている @kamina_zzz です。 Ubie では Kubernetes を GKE で運用しているんですが、GKE だと container の STDOUT がいい感じに Cloud Logging へと集約されていますよね。 この経路、以前は Fluentd が使われていたんですが、近年は Fluent Bit が使われています。 Fluent Bit になってからどのようにしてログを集約していい感じに Cloud Logging へ送信しているのか気になってしまったので今回はこの辺りをまとめてみます。 さしあたって今回使用するバージョンはこんな感じです。 Kubernetes: v1.18.16-gke.502 Fluent Bit: v1.3.11[1] GKE にバンドルされてるバージョンがこれ はじめに そもそも Fluent Bit の用語や仕

                                                                    GKE はどのようにログを収集しているのか
                                                                  • ECSでfluentdを使ってコンテナ毎にlogging - Qiita

                                                                    背景 nginx -> appという流れのコンテナを組んでいます。 nginxはawslogsドライバを使って、cloudwatchにログを流しても全然問題無いんですが、appコンテナは諸事情でそうもいかない背景があり、fluentd経由でcloudwatchにログを送りたいと考えました。 願望 コンテナ内でlogrotationの設定はしたくない。 cloudwatchのログストリーム名はコンテナ毎にユニークにしたい。 FluentdコンテナをECSで起動する つくるもの 下記の図のようなものをつくります。 やること ECSでfluentd log driverを使うための起動テンプレートの設定 appコンテナ、nginxコンテナからfluentdコンテナに送らるログをユニークにする ECSでfluentd log driverを使うための起動テンプレートの設定 EC2インスタンス内で動

                                                                      ECSでfluentdを使ってコンテナ毎にlogging - Qiita
                                                                    • Sidecar方式のFluentdでCloudWatch logsへログを集約することについての検討 · Goldstine研究所

                                                                      @mosuke5です。 Kubernetes上でのアプリケーションのロギングについてFluentdを使ってどうできるか考えていきます。 今回はサイドカー方式という方法を使ってFluentdでAWS CloudWatch logsへ集約することについてやってみました。CloudWatch logsを例に取っていますが、それ以外でも考え方は応用できますので読んでみてください。 また、サイドカー方式以外の方式については、こちらの「Kubernetesのロギングパターンは結局どれを採用したらいいの?」を参照してください。 FluentdとAWSの連携については、以前に「NginxのログをFluentdでDynamoDBへ送る」もかきましたので、参考にしてください。自分も復習で見返しました。 実現すること 今回やりたいことは、Kubernetes上で動かしているアプリケーションに対して、サイドカーと

                                                                        Sidecar方式のFluentdでCloudWatch logsへログを集約することについての検討 · Goldstine研究所
                                                                      • FluentdでLinuxのcapabilityを処理するには - 2020-11-27 - ククログ

                                                                        はじめに クリアコードはFluentdの開発に参加しています。 Fluentdは主にLinux上やWindows Server上でのユーザーが多いです。 Fluentdの使われ方で特に多いのがLinuxで動いているサーバーのログの取得です。 筆者畑ケがFluentdでLinuxのcapabilityを扱えるようにした話をまとめてみます。 FluentdでLinuxのcapabilityを扱う機能はFluentd v1.12.0に入る予定です。 capabilityとは Linuxにはcapabilityという権限チェックを部分的にバイパスする機能があります。 この機能は、rootまでの権限は欲しくないけれど、システムの特定のパーミッションがあるように振る舞うユーザーやプロセスが欲しい時に有用です。 例えば、Linuxのsyslogのログファイルが/var/log/syslogにあるとすると

                                                                          FluentdでLinuxのcapabilityを処理するには - 2020-11-27 - ククログ
                                                                        • FargateでFireLensログドライバを使い自前で用意したfluentdを動かす - Qiita

                                                                          背景 FargateのログドライバはCloudWatch Logs,Splunkしか使用できず、その他のログ基盤に連携を行いたい場合はCloudWatch Logsから転送するか(CloudWatch Logsの料金がかかる)、ログドライバを使用せず共有ボリュームにログファイルを出力してサイドカーのFluentdで収集する(ボリュームは8GBまで)といろいろと制約があり、なかなかFargateに移行ができないでいました。 この度、FireLensがGAになり、自前のFluentdに転送できるとのことだったので試してみたところ、色々と詰まりましたのでメモとして残します。 開発 0. FireLensについて クラスメソッド様の記事がとてもわかり易いと思います。 1. 概要 作成、使用した環境はGitHubにあります。 構成としてはFargateでnginxのログをFirelens(fluen

                                                                            FargateでFireLensログドライバを使い自前で用意したfluentdを動かす - Qiita
                                                                          • AWS Container Services が AWS For Fluent Bit をリリース

                                                                            AWS Container Services が、Amazon CloudWatch と Amazon Kinesis Data Firehose プラグインがプリインストールされたコンテナイメージである AWS Fluent Bit をリリースします。これにより、お客様は CloudWatch、Amazon S3、Amazon Redshift、Amazon Elasticsearch Service などの複数の送信先にコンテナログをルーティングできるようになります。 Fluent Bit はオープンソースでマルチプラットフォームのログプロセッサおよびフォワーダーで、さまざまなソースからデータやログを収集し、それらを統合して複数の宛先に送信することを可能にします。Docker および Kubernetes 環境と完全に互換性があります。新しくリリースされた AWS Fluent Bit

                                                                              AWS Container Services が AWS For Fluent Bit をリリース