タグ

elasticsearchに関するjinjin252525のブックマーク (82)

  • Elastic CloudのElasticsearch Serviceに移行しています - スタディサプリ Product Team Blog

    こんにちは。Data Engineer の @shase です。 みなさんは全文検索エンジンに何を使われているでしょうか? 2020年現在では、比較的 Elasticsearchを使われている方が多いのでは無いかと思います。 Quipperでも、toC向けの検索機能をはじめとして、いくつかの社内システムでElasticsearchを使って全文検索を実現しています。 元々は別のElasticsearchマネージドサービスを使用していたのですが、昨年から各種システムをElastic CloudのElasticsearch Service(公式サイト)に移行作業を行っており、そのエッセンスについて、記事で紹介したいと思います。 Elastic Cloud/Elasticsearch Serviceの概要 Elastic CloudのElasticsearch Serviceは、Elastics

    Elastic CloudのElasticsearch Serviceに移行しています - スタディサプリ Product Team Blog
  • 検索結果の品質向上 Elasticsearch入門

    2019年度リクルート新人ブートキャンプ エンジニアコースの講義資料です

    検索結果の品質向上 Elasticsearch入門
  • Graylog ではじめるログ管理 - クックパッド開発者ブログ

    こんにちは。インフラストラクチャー部 セキュリティグループの星 (@kani_b) です。 主に "セキュリティ" や "AWS" といったタグのつきそうなこと全般を担当しています。 Fluentd などのデータコレクタ、Kibana やその他 SaaS による可視化、Kafka, Kinesis, Spark などのストリーム処理といった様々な分野で「ログの処理」がホットですが、アプリケーションのログ (行動ログなど) に関する話題が多くを占めています。 そうしたログの他に重要なのが OS や各種ミドルウェアのシステムログです。これらはトラブルシューティングであったり、セキュリティ上の問題を見つけたり、といったことに使われますが、最低限 syslog でどこかに集約しているだけ、といった例をよく見かけます。 これらのログをきちんと検索可能にし、分析することで、今まで気づかなかったような問

    Graylog ではじめるログ管理 - クックパッド開発者ブログ
  • CloudSearch vs. Elasticsearch Service | Recruit Jobs TECHBLOG

    こんにちは、mikotoです。 AWSには CloudSearch と Elasticsearch Service の2つの全文検索サービスがあります。 今回は、この2つを比較してみます。 ベースはほとんど同じ Solr と Elasticsearch のどちらもLuceneという検索エンジンをベースにしており、検索に関してはほとんど同じことができるのと同様に、CloudSearch と Elasticsearch Service でもほぼ同じことができます。 CloudSearch はベースのエンジンを明言してはいませんが、 Lucene のクエリパーサーが使えたり、利用できる型がほぼ同じであったりすることから、大部分が Lucene を参考にしていると思われます。 若干の癖がありますが、 Solr や Elasticsearch の経験があれば、 CloudSearch の利用はすんな

    CloudSearch vs. Elasticsearch Service | Recruit Jobs TECHBLOG
  • 知識ゼロからElasticsearchを実践で使えるようになろう! - $shibayu36->blog;

    以前少しだけElasticsearchを触った時に、自分流Elasticsearch入門 - $shibayu36->blog; というElasticsearchに入門した時のメモをまとめていた。しかし、その頃はElasticsearchを使って完全に一人で一つの機能を作るというところまではいけなかった。 最近になってまたElasticsearchを一から導入する仕事をすることになった。この時以前自分がまとめた記事を読みながらやっていたのだが、実践で一から導入するためにはこの記事だけでは知識が足りなかった。 そこで、前の記事の知識をベースに、一から導入するために少しずつ学んでいき、自分のブログにまとめるなどのことをしてきたので、今回はその締めくくりとして、知識ゼロからElasticsearchを使えるようになるために学習したことについて書いておきたいと思う。 今回書くこと・書かないこと 今

    知識ゼロからElasticsearchを実践で使えるようになろう! - $shibayu36->blog;
  • ElasticsearchとGCPのTCP Keepaliveではまった話

    今回はGCP上にElasticsearchクラスタを組もうとしてはまった話をします。ちゃんとドキュメント読めと言われればそこまでなんだけど、ミドルウェアが間に入ってて気づくのに遅れてしまった…。 TL;DR GCEのファイヤーウォールはinactiveコネクションを10分で切断するので、Elasticsearchのクラスタを構築する場合はnet.ipv4.tcp_keepalive_timeの設定を変える必要があるよ。 安定しないクラスタ 事の発端はGCEインスタンスで構築していたElasticsearchのクラスタが、一定間隔でノード間の疎通に失敗して切断・再接続を繰り返していました。 OS: CentOS 7.2 Elasticsearch: 2.3.1 [INFO ][discovery.gce ] [elasticsearch-1] master_left [{elasticsea

    ElasticsearchとGCPのTCP Keepaliveではまった話
  • Amazon EC2 を使用して Elasticsearch クラスタをセットアップする

    Amazon Web Service や、Microsoft Azure の IaaS 環境に、 Elastic Stack をインストールして運用されるケースが増えています。ここでは、Amazon EC2 インスタンスに Elasticsearch 2.3.2、Kibana 4.5.0 をインストールする方法を紹介します。 クラスタの構成VPCにひとつ、もしくは複数の EC2 インスタンスをセットアップし、それぞれに Elasticsearch をインストールするような構成を検討します。Kibana のインストール対象は専用の EC2 イスタンスでも、Elasticsearch をインストールしたものでも結構です。 EC2 インスタンスのセットアップAMIElasticsearch は、CentOS、Redhat、Ubuntu をはじめとして様々なオペレーティングシステムに対応しています

    Amazon EC2 を使用して Elasticsearch クラスタをセットアップする
  • JMeterの実行結果CSVデータをローカルMacにたてたElasticsearchとKibanaで可視化する | DevelopersIO

    「JMeterの結果CSV、216万行か〜。これくらいだったらJMeterの「グラフ表示」で読み込んで見られるかな〜」 CPU「ブオオオオオオオオン!」 はじめに システムの負荷試験において、Apache JMeterのようなツールを使って試験を実施・結果を出力するケースもあると思います。結果ファイルのサイズがそれほど大きくない場合は、全データを計算する(JMeterでいう「統計レポート」)で問題ありませんが、例えば、長時間負荷をかけたので時系列でデータをグラフ化したい、といったことになると事情が変わってきます。JMeterの結果CSVは手元にあるので、なんとかこれを活用したいところではありますが、数百万行レベルのデータになると、とたんにExcelなどでは辛くなります(というか最大行数的に無理な気がします)。 そこで、ちょうど、弊社木戸がElasticsearchシリーズを連載しているとこ

    JMeterの実行結果CSVデータをローカルMacにたてたElasticsearchとKibanaで可視化する | DevelopersIO
  • Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ

    Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ:Elasticsearch+Hadoopベースの大規模検索基盤大解剖(終)(1/2 ページ) リクルートの事例を基に、大規模BtoCサービスに求められる検索基盤はどう構築されるものなのか、どんな技術が採用されているのか、運用はどうなっているのかなどについて解説する連載。最終回は、監視、クラスタリング、ログ収集/解析、バックアップに使っているOSS技術と、その使いどころを紹介する。 連載目次 リクルートの全社検索基盤「Qass」の事例を基に、大規模BtoCサービスに求められる検索基盤はどう構築されるものなのか、どんな技術が採用されているのか、運用はどうなっているのかなどについて解説する連載。 最終回となる今回は、前回の「AWS+オンプレのハイブリッドクラウド

    Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ
  • elasticsearch勉強会に登壇してきました

    こんにちは、matsです。 昨日、行われていた第10回Elasticsearch勉強会に登壇してきました。 内容としては、AWS上にAutoScallingを利用して大規模なクラスターを組んでますよという事例紹介がメインになります。 1.5ヶ月でリリースまで持っていったこともあり、パフォーマンス(構成)の考察などはサービス提供上問題ないレベルであればOKを出していたので、正確性に欠けているな・・というのをまとめながら考えていました。 半分くらいは当たり前の内容を書いているつもりでしたが、意外に反響が大きかったのを見ると他社の事例というのは需要が大きいのかなぁといったところです。 また、他のESユーザの方のお話を伺うと、QPSやレイテンシなどを気にしている方が多いのが印象的でした。 IMの場合は、4億弱のdocumentに対して激しい集計をかけるような重いクエリが多く、どうしても数秒はかかっ

    elasticsearch勉強会に登壇してきました
  • Curator: 時系列インデックスの管理(日本語訳)

    Elasticsearchのcuratorのブログ記事を読んで、日語でツイートしたところ、Aaron Mildensteinさんから日語(ローマ字)で返信を頂きました。 せっかくなので、ブログ記事を翻訳してもいいかを尋ねたところ、快くOKを頂いたので、翻訳してみました。参考になればと。(誤訳など見つけたらコメントください。) @johtani Kore no hou ga ii. Nihongo de no Curator RT, arigatou gozaimasu! #elasticsearch #curator #logstash — Aaron Mildenstein (@theuntergeek) 2014, 1月 22 curator: 時系列インデックスの管理 原文:curator: tending your time-series indices 背景 数年前、Elas

    Curator: 時系列インデックスの管理(日本語訳)
  • curator で Kibana 用の elasticsearch のインデックスを定期的に削除する - Qiita

    2015/3/15 curator v3.0 から、コマンドオプションが変わったので改定しました。 正確には v2.0 から変わってましたけど。 Kibana でダッシュボード作っていると、基的に日時でインデックスファイルができて、ある程度溜まってくると、 elasticsearch が悲鳴をあげます(CPU的にも、メモリ的にも) ディスク容量が枯渇します ということで無限にサーバリソースが確保できない場合、Kibana の運用では定期的にインデックスファイルを削除する必要がでてきます。 この Index の削除を便利にしてくれるツールが curator です。 事前準備 Python と pip が必要なので、入れておきましょう。 $ sudo apt-get install python $ cd /tmp $ wget https://raw.github.com/pypa/pip

    curator で Kibana 用の elasticsearch のインデックスを定期的に削除する - Qiita
  • Elasticsearch勉強会第8回 ElasticsearchとKibanaで実現する 30億req/dayのリアルタイム分析

    Elasticsearch勉強会第8回 ElasticsearchとKibanaで実現する 30億req/dayのリアルタイム分析

    Elasticsearch勉強会第8回 ElasticsearchとKibanaで実現する 30億req/dayのリアルタイム分析
  • fluentd -> Elasticsearch 大量データ転送でトラブル | diaspora

    概要 fluentd でサービスの情報を転送し、Kibana で分析したい これまでの過去データを一度に放り込みたい データの件数が合わない Kibana でエラーが発生する 各種設定を見直すことで対応可能 背景 長い長いミーティングに疲れ、集中力を擦り減らしたアナタは 無意識のうちにブラウザを起動していました。 去年まで勤めていた会社の同僚がシェアした記事が目に止まります。 「fluentd + Elasticsearch + Kibana で今どきのログ分析!」 感化されやすいアナタはおもむろに VM を立ち上げ環境を構築します。 Web サーバから吐き出されたログはオシャレでイイ感じにチャート化され、 満足したアナタは VM を落とし、再び仕事に戻りました。 しばらく経ったある日のこと、ふと気づきます。 「ログだけじゃなくて、ユーザ属性の分析にもコレ使えそう。」 毎度オレオレ管理ペー

  • SSSSLIDE

    SSSSLIDE
  • ElasticSearch入門

  • なおべりーのTechブログ

    Linuxなどの、OSS関連の技術情報を書いています

    なおべりーのTechブログ
  • Kibana3+Elasticsearchを触ってみた話 - ほわいとぼーど

    最近Elasticsearchを触っているお話です。(といってもまだ1週間かそこら) 画像一杯で重いです注意・・・ 元々GrowthForecastでアクセスログを見れるようにしていました。 (まぁこれも割と最近やったんですが、、、) 例えばコチラを参考に、 とか表示してました。(まんまですね) GrowthForecastは気軽に簡単にグラフ化できてウォッチしやすいので助かるのですが、 アクセス内容からもう少し掘り下げたい要件なんかが出てきました。 折りしもElasticsearch勉強会もタイミングが重なり、非常に捗ったので頑張って書いてみます。 Elasticsearchを紹介する記事は増えてきたのですが、インストール系が多い気がするので 今回はまずはKibana3の見た目と使い方から入ってみようと思います。 インストールもmappingなんかも済んでデータも入ってるものとします。

    Kibana3+Elasticsearchを触ってみた話 - ほわいとぼーど
  • Elasticsearchにmappingをtemplate設定してみた - ほわいとぼーど

    Elasticsearchはスキーマレスなのでそのままデータ突っ込んでも動きますが、 デフォルトだとStringとして取り込まれるし、無駄に要素解析されます。 効率や検索性を考えて部分的にスキーマを先に設定しておきます。 自分の場合、今回はApacheなログだったので、 ・request_time:ログ日付をdate_formatで認識させたい ・req_size, response_time: 数字として認識させたい ・protocol, method, code: 要素解析しない みたいなmappingを設定をしました。 なお、res_sizeも数字にさせたかったのですが、 method:HEADみたいな時に「-」が入ってきてしまってParseErrorだったので、 とりあえず今はStringで我慢しています。 ということで書いたのは以下。 { "template_1" : { "te

    Elasticsearchにmappingをtemplate設定してみた - ほわいとぼーど
  • Elasticsearch config description – OpenGroove

    cluster.name オートディスカバリ機能で識別するクラスタ名。デフォルトはelasticsearch。 また、このクラスタ名がそのままデータパスのディレクトリ名になる。 node.name ノード名指定。指定しておかないと、起動の都度ノード名が変わる。 node.master ノードをマスタとして起動するかどうか。デフォルト true。 node.data ノードでデータを保持するか。デフォルト true。 node.rack キーバリューの属性。例:rack314 node.max_local_storage_nodes 同一サーバで複数ノードの起動を許可するか。デフォルトは許可。無効にするには1をセット。 index.number_of_shards インデックスのシャード数。デフォルト 5。 index.number_of_replicas インデックスのレプリカ数。デフォル