タグ

dwhとrdbに関するsh19910711のブックマーク (5)

  • [GCP Datastream] AWS RDS から BigQuery へのレプリケーションを試してみた

    概要 PostgreSQLMySQL などの運用データベースから、GCP のデータウェアハウスである BigQuery に、直接かんたんにデータをレプリケートできる Datastream for BigQuery のプレビュー版が提供されました。 BigQuery のスキーマ定義、BigQuery に適したデータ型への変換、データを BigQuery に送信するバッチ処理などが不要になることが期待されたので、試してみました。 構成 記事では以下の構成で GCP Datastream for BigQuery を試しました。 AWS EC2 : RDS の踏み台サーバー AWS RDS (MySQL) : ソース GCP BigQuery : レプリカ GCP Datastream : RDS のデータを BigQuery にレプリケート 手順 Datastream 公式ドキュメント

    [GCP Datastream] AWS RDS から BigQuery へのレプリケーションを試してみた
    sh19910711
    sh19910711 2022/10/03
    Datastream + RDS / "AWS での操作手順も細かく書かれており、基本的にはつまづかずに進められ / フォワード SSH トンネルもサポートされており、踏み台サーバー経由で RDS にアクセスできる / データの鮮度を調整できる"
  • Magic Data Apps with Snowflake, Streamlit, and DuckDB

    sh19910711
    sh19910711 2022/07/17
    Snowflake + DuckDB + Streamlit / SnowflakeでCloud Storageに書き出したParquetファイルをDuckDBでWebアプリのデータベースとして利用する事例だ。参照系はPandasを使わなくても `SELECT * FROM read_parquet('temp.parquet')` でいけるのか👀
  • federated queryを使ったSpannerからBigQueryへのデータ転送 - Qiita

    はじめに こんにちは、この記事はUnipos Advent Calender 2021の16記事目です UniposではデータをDataStoreとSpannerにもち、それらのデータを集計するためにBigQueryにデータを転送しています この記事ではSpannerからBigQueryへのデータ転送について紹介します 公式ドキュメント に詳しいことは書いてありますが、このブログでは具体的な操作、具体的な値について書いていきます 事前準備 BigQuery Connection APIを有効にする Spanner情報の追加 BigQueryのエクスプローラの「3点リード」→「データを追加ボタン」→「外部データソース」の順にクリック 情報を入力する 接続タイプ : Cloud Spanner 接続ID : 英数字、ダッシュ、アンダースコアで構成される文字列 データのロケーション : BQのロ

    federated queryを使ったSpannerからBigQueryへのデータ転送 - Qiita
    sh19910711
    sh19910711 2021/12/26
    "SpannerのTIMESTAMPではナノ秒までの情報を持っていますが、BQではミリ秒まで / Spannerの情報入力で、「データを同時に読み込む」というチェックボックスがありました + データを並列に読み込んでくれます"
  • データウェアハウス ClickHouse を使ってみた話。 | Basicinc Enjoy Hacking!

    こんにちは、ベーシックのDevOpsエンジニア 渡辺です。 主にインフラ保守運用や新しい技術の検証、データ解析周りなどをやっています。 今回はアクセスログなど時系列のデータを保存、集計するのに便利なデータウェアハウス ClickHouse をご紹介します。 https://clickhouse.yandex/ ClickHouseとは? ClickHouseとは、SQLクエリを使用してリアルタイムで分析データレポートを生成できるオープンソースの列指向データベース管理システムです。 時系列データの保存、集計に特化していてクエリ検索パフォーマンスがとても優れています。 データの更新(UPDATE)ができなかったり削除(DELETE)に制約があったりと通常のRDBMSでできることがClickHouseではできないこともありますが、ログを登録して集計することだけと考えればとてつもなく良いパフォーマ

    データウェアハウス ClickHouse を使ってみた話。 | Basicinc Enjoy Hacking!
    sh19910711
    sh19910711 2020/08/15
    "ClickHouseはMySQLと親和性が高く、SQLクエリ自体も比較的似ています / 2018年1月のアップデートでClickHouseからMySQLへ直接クエリを投げられるようにもなりました。"
  • Google BigQueryにMySQLのデータを入れる | Ore no homepage

    肋骨が折れたかもしれん。痛え。それは置いといて…BigQuery。処理能力を体感したかったのでとりあえずMySQL番データをつっこんだ。fluentdでログも突っ込んでるんだけど、そっちはデータが溜まってないからまだおもしろくないかな。それについてはまた別途。まあ、fluentdでデータ突っ込むのはいろんな人がqiitaとかブログに上げてるし書くまでもないかもしれないけどね。 0. 作業の流れ MySQLからダンプを抜く ダンプをCloud Storageにuploadする Cloud Storage からbigqueryにインポートする クエリ投げる という流れになる。この記事では深く言及しないが、Google Compute Platformのコンソールでプロジェクトの作成やら課金の登録やらが済んでいて、作業を行うマシンにはコマンドラインツールがインストール済みであるとする。 コマ

  • 1