タグ

HBaseに関するwata88のブックマーク (5)

  • Apache Kudu - Fast Analytics on Fast Data

    Home Overview Documentation Releases Blog Community GET IN TOUCH Mailing Lists Slack Channel Events and Meetups Project Committers Ecosystem How to Contribute DEVELOPER RESOURCES GitHub Gerrit Code Review JIRA Issue Tracker SOCIAL MEDIA Twitter Reddit APACHE SOFTWARE FOUNDATION Security Sponsorship Thanks License FAQ Apache Kudu is an open source distributed data storage engine that makes fast ana

    wata88
    wata88 2015/09/30
    ロゴがかわいい
  • Kuduリリース!

    オープンソースの新しいストレージエンジン、Kudu ついに日アナウンスされた Kudu (クドゥ)、次世代ハードウェアにも対応するオープンソースのストレージエンジンです。まだベータ版ですが、3年もの開発期間を経てついに公開されました! Super excited to finally talk about what I've been working on the last 3 years: Kudu! http://t.co/1W4sqFBcyH http://t.co/1mZCwgdOO5 — Todd Lipcon (@tlipcon) September 28, 2015 数日前にリークされた記事に「KuduはHDFSやHBaseを置き換えるものだ」と書かれていましたが、それは間違いです。詳細はFAQなどにも書かれていますが、HDFSとHBaseを補う新しいストレージエンジンです

    Kuduリリース!
  • fluentdでHBaseに送り込んだログをImpala or Hiveで集計 – OpenGroove

    fluentdでnginxのログをHBaseとHDFSに送り込み、それぞれHive or Impalaで遊んで集計かけてみた。 実行環境は以下2台。 nginx + td-agent (Amazon EC2 t1.micro、CentOS) Hive + Impala + HBase (Amazon EC2 m1.large、CentOS、CDH4.3のHadoop疑似分散モード) ログを送り込むための設定は以下のようにした。テーブルマッピングは実際のHBaseテーブルに沿って記述する。一応ローカルマシンにも書き込む設定にした。 /etc/td-agent/td-agent.conf <source> type tail format apache path /var/log/nginx/access.log pos_file /var/log/td-agent/nginx.pos tag

  • nginxのログをfluentdからHBaseに送る – OpenGroove

    まだやるもんねfluentdシリーズ、今回はHBase編。環境は、AWSマシンのnginxサーバ + Hadoop疑似分散モード上のHBaseの2台。nginx側の設定などは過去記事参照願う。 参考 https://github.com/Furyu/fluent-plugin-hbase ではnginxサーバにプラグインをインストール。 # /usr/lib64/fluent/ruby/bin/gem install fluent-plugin-hbase HBase側マシンでhbase-thriftをインストール。これが必要とのこと。 # yum install hbase-thrift -y HBase起動後、hbase thrift serverを起動。コンソールログが出力されるのでバックグラウンドで実行。 # hbase thrift start -threadpool & HBa

  • cdh-twitter-exampleで遊ぶ

    この記事はHadoop Advent Calendar 2013, 13日目のエントリです。ブログなんざ書いたことないので勝手が良く分かりませんが@sudabonさん@kernel023さんのお前も何か書けやコラという圧力に負けてBloggerにページを用意してみました。 Hadoopの利用目的としてデータの分析に取り組んでいる、もしくはこれから取り組もうとしているユーザは多いのではないかと思います。中でもログ分析と並んでソーシャルメディアの分析は各社が積極的に取り組もうとしているテーマであり、私が勝手にTwitter分析3部作と呼んでいる以下のブログを読まれた方も多いのではないでしょうか: http://blog.cloudera.com/blog/2012/09/analyzing-twitter-data-with-hadoop/ http://blog.cloudera.com/b

    cdh-twitter-exampleで遊ぶ
    wata88
    wata88 2014/05/20
    cdh-twitter-example
  • 1