並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 701件

新着順 人気順

bigqueryの検索結果361 - 400 件 / 701件

  • ブラウザのログをCloud RunのREST APIで受けBigQueryに流す - Koichi Ishida blog

    目次 構築方法 まとめ 最近はすべてのログはBigQueryに流すという運用をしています。iOS/AndroidのアプリログはFirebase AnalyticsでログをとってFirebaseの設定からBigQueryにエクスポートできます。 ブラウザの場合は自分は定まった方法をもっていなくて、Google Analyticsのカスタムイベントを送るとかがあるかなと思いますが今回はCloud RunのREST APIを使ってさくっと構築できる方法があったので構築方法を紹介します。 構築方法 構成は以下のようになります。 Cloud RunにREST APIを作ってGoのプログラムを実行し標準出力にJSON形式でログを出力します。そのログをLoggingのフィルタ機能を使ってフィルタし、エクスポート機能でBigQueryに出力します。 Cloud RunはUsing Cloud Pub/Su

      ブラウザのログをCloud RunのREST APIで受けBigQueryに流す - Koichi Ishida blog
    • Firebase Analyticsの導入を検討している担当者へ送る、Firebase Analyticsの特徴とモバイルアプリ向けGoogleアナリティクスとの比較、活用例をご紹介! - Real Analytics (リアルアナリティクス)

      今回の記事は、ウェブアナリスト・コンサルタントとして株式会社プリンシプルで活躍されているRayさんにご提供いただきました。 大作です!ありがとうございます。*1 twitter.com それでは、早速どうぞ! Firebase Analyticsについて ①イベントヒットデータとしての集計 ②自動収集イベント ③BIツールに接続する際はBigQueryを ④カスタム定義がユーザープロパティに ⑤カスタムレポートが存在しない ⑥データ保持期間設定が厳しい Firebase Analyticsをより活用するポイント ①BigQueryと接続してより詳細なデータを入手・可視化 ②AnalyticsデータからセグメントをしてA/Bテストをしながらアプリ改善 ③広告やGoogle Play、Slack等とも連携が可能 これからFirebase Analyticsの導入をされる場合 ①収集すべき指標

        Firebase Analyticsの導入を検討している担当者へ送る、Firebase Analyticsの特徴とモバイルアプリ向けGoogleアナリティクスとの比較、活用例をご紹介! - Real Analytics (リアルアナリティクス)
      • Ingestly / リアルタイムウェブ解析 - Qiita

        Ingestlyとは ざっくりIngestlyとは 大手企業が取り組むようなウェブ解析を「民主化」 リアルタイムデータを最短でクエリー可能に インフラコスト最小、メンテナンス工数がゼロ コーディング無し、極力自動計測 UXに影響しないモダンなタグ、最速の応答時間 追記1:まずは試してみたい方へ 実装についても書きました。 Ingestly の計測エンドポイントを構成する (Fastly + BigQuery) Ingestly の計測タグをウェブサイトに設置する 追記2:HTTPS化のハードルが下がりました Fastlyが5ドメインまで無償のTLSサービスを開始し、Let's Encryptが発行する証明書が入手・利用できるようになりました。 こんな課題ありませんか? 課題:リソースの制約 大手企業が発表していた事例を参考にしたいが… - インフラ構築や保守に人を貼り付けるなんて無理 -

          Ingestly / リアルタイムウェブ解析 - Qiita
        • Real Time Data Engineering Pipeline for Machine Learning -

          Our focus in this post is to leverage Google Cloud Platform’s Big Data Services to build an end to end Data Engineering pipeline for streaming processes. So what is Data Engineering? Data Engineering is associated with data specifically around data delivery, storage and processing. The main goal is to provide a reliable infrastructure for data which includes operations such as collect, move, store

            Real Time Data Engineering Pipeline for Machine Learning -
          • マーケティングで使えるBigQueryMLテンプレート

            2019/07/11の"Google ML Summit"で登壇しました『マーケティングで使えるBigQueryMLテンプレート』の資料となります。 『ですます』とか整理出来てなくてすいません!!!Read less

              マーケティングで使えるBigQueryMLテンプレート
            • 【書き起こし】BigQueryのコンピューティングリソース管理の取り組み – Go Kojima【Merpay & Mercoin Tech Fest 2023】 | メルカリエンジニアリング

              Merpay & Mercoin Tech Fest 2023 は、事業との関わりから技術への興味を深め、プロダクトやサービスを支えるエンジニアリングを知ることができるお祭りで、2023年8月22日(火)からの3日間、開催しました。セッションでは、事業を支える組織・技術・課題などへの試行錯誤やアプローチを紹介していきました。 この記事は、「BigQueryのコンピューティングリソース管理の取り組み」の書き起こしです。 @gouki:「BigQueryのコンピューティングリソース管理の取り組み」にと題して発表します。 株式会社メルペイ ソフトエンジニアのGo Kojimaです。よろしくお願いします。私は2年前にメルペイにジョインし、当初は機械学習システムの基盤開発に携わりました。その後、現在も所属しているデータマネジメントチームに異動し、主に今回発表するBigQueryコンピューティングリソ

                【書き起こし】BigQueryのコンピューティングリソース管理の取り組み – Go Kojima【Merpay & Mercoin Tech Fest 2023】 | メルカリエンジニアリング
              • グロービスにおけるデータ基盤のアーキテクチャについて|グロービス・デジタル・プラットフォーム

                はじめにはじめまして!! 株式会社グロービスのデジタル・プラットフォーム部門、データサイエンスチーム、データエンジニアリングユニットにてソフトウェアエンジニアをしております、爲岡 (ためおか) と申します。 (肩書きが長くてすみません。) グロービスには当初、機械学習エンジニアとして入社しましたが、現在は機械学習や分析に利用するためのデータ基盤の開発・運用をメインで担当しています。 この記事では、グロービスのデータエンジニアリングユニットが運用しているデータ基盤のアーキテクチャについてご紹介できればと思います。 グロービスについて突然ですが、皆様はグロービスに対してどのようなイメージをお持ちですか? 特にテクノロジーの領域で働く方々にとって、そもそもグロービスという企業を知らない、という方が大半なのではないか、と思っています。 また、もしご存じだとしても、経営大学院や研修事業など、テクノロ

                  グロービスにおけるデータ基盤のアーキテクチャについて|グロービス・デジタル・プラットフォーム
                • BigQueryとAirflowを活用したDataPlatform運用の10のケース・スタディ

                  この記事は Eureka Advent Calendar 2019 11日目の記事です。 10日目は スーパーCompSREエンジニア恩田による「AWSのマルチアカウント管理におけるIAMマネジメントで試行錯誤した話」でした。 こんにちは。BIチームのデータアナリストの栗村(@t-kurimura)です。主にPairsの機能に関する分析を行っていますが、最近は分析を行うまでのデータを整えるデータアーキテクト的お仕事の比率も増えてきています。 さて、この記事では弊社のDataPlatform運用において、試行錯誤してきた中での運用の学びをケース・スタディ的にご紹介します。 エウレカのDataPlatformの現状前提として、弊社では3つの層にわけて、アプリケーションログやマーケティングに関連するデータをより分析しやすいデータへと加工しています。 Dataをほぼそのまま保存しているDataLa

                    BigQueryとAirflowを活用したDataPlatform運用の10のケース・スタディ
                  • ビッグデータ活用時のワークフローの大切さ ZOZO研究所のエンジニアが感じた次元が違う300万画像の処理

                    ZOZO Technologies Meetup は、「ZOZOテクノロジーズの大規模データ活用に興味のある方」を対象としたイベントです。ZOZO研究所の渡辺氏からは大規模データを対象とした画像検索システムのワークフローについての事例を紹介しました。後半は画像検索のワークフローの流れについて。 画像検索のワークフローの流れ 渡辺慎二郎氏:というところの話になってきて、これがワークフロー、それを毎日のように準備するという仕組みになります。先ほど見せた図で言うと、この部分ですね。 このワークフロー、今回ではComposerというGKEのマネージドサービスを使っています。これの中身、具体的な仕組みは置いておいて、流れをご紹介します。 まずBigQueryから、本日今時点で有効になっている、使える、発売になっている商品情報をダーッと取ってきます。だいたいこれが300万画像ぐらい。その日によって違っ

                      ビッグデータ活用時のワークフローの大切さ ZOZO研究所のエンジニアが感じた次元が違う300万画像の処理
                    • 位置情報を利用してサイトのアクセス元を可視化|とくきち(tokukichi)

                      エンジニア|事業サービス会社に所属|得意領域はマーケティングオートメーション、WEB接客サービス、データ基盤、BigQuery 個人メディア→ https://tokukichi.com/

                        位置情報を利用してサイトのアクセス元を可視化|とくきち(tokukichi)
                      • GA4のBigQuery SQLを書くときに便利なライブラリ「BigQuery Utils」 | 株式会社プリンシプル

                        Googleアナリティクス4では無償版であっても、BigQueryにエクスポートされたローデータを活用することができます。 このGA4 BigQueryからデータを取得するSQLクエリですが、覚えることが多かったり、煩雑な処理が増えてしまったりで初心者にとっては難しいものです。 本記事では、筆者が見つけた「BigQuery Utils」というライブラリを紹介するとともに、その中で特に「GA4 BigQueryを使うに当たって便利な関数」を紹介したいと思います。 BigQuery Utilsとは? 「BigQuery Utils」は、Google社がメインで管理しているオープンソース・プログラムの1つです。BigQueryをより便利に使うためのプログラムを、様々な開発者が開発しています。そして世界中の誰もが簡単に利用できるように公開しています。 BigQuery Utils – GitHub

                          GA4のBigQuery SQLを書くときに便利なライブラリ「BigQuery Utils」 | 株式会社プリンシプル
                        • Nature のデータ基盤のご紹介 - Nature Engineering Blog

                          Nature でデータエンジニアをしている原( @toohsk )です。 データ分析を行う一方で、Nature に所属しているメンバーが幅広くデータの参照、分析ができるようになるためにデータ分析基盤の構築も行っています。 今回は、Nature で構築しているデータ分析基盤を紹介したいと思います。 どのようなデータ基盤にしたいのか Nature の重要なカルチャーでもありますが、Nature においてProduct Driven で事業が進みます。 speakerdeck.com Nature におけるプロダクトは、スマートフォンのアプリのみならず、ハードウェアやファームウェアなどの開発が含まれます。したがって、一重にエンジニアといえど、得意な技術領域は幅広くなります。また、エンジニア以外のメンバーも含めてサービスのデータにアクセスし、ファクトベースに意思決定できる環境を用意したいと考えてい

                            Nature のデータ基盤のご紹介 - Nature Engineering Blog
                          • Google BigQueryの既存テーブルをパーティション化

                            こんにちは。 GMOアドマーケティングの@zakisanbaimanです。 弊社ではDWHとしてBigQueryを採用しているのですが、テーブルサイズが巨大になりそのクエリコストが課題になっていました。 そこでテーブルにパーティションを設定し、クエリの書き方を工夫することによってコストを抑えようと試みたので内容を共有します。 パーティションテーブルとは 1つのテーブルを指定した単位で分割させることでクエリ時に参照するレコード数を削減し、クエリコストの削減やパフォーマンス向上を狙うことができます。 RDBMSのパーティショニングに近い機能ですね。 パーティションは1テーブルに対して1つのみ設定でき、「時間単位の列(TIMESTAMP型やDATETIME型)」、「整数型の列」、「取り込み時間」に対して設定できます。 今回はTIMESTAMP型の列に対して”HOUR”単位でパーティションを設定し

                              Google BigQueryの既存テーブルをパーティション化
                            • 自然言語でデータ分析ができるGemini in BigQuery(データキャンバス)を試してみた - G-gen Tech Blog

                              はじめまして!4月に G-gen に入社した奥田梨紗です。この度 Google Cloud Next '24 in Las Vegas で発表された Gemini in BigQuery を試してみたので手順等をご紹介します。 はじめに Gemini in BigQuery とは 試したこと Google Cloud 側へ利用申請を行う BigQuery キャンバスを作成 Gemini in BigQuery を用いて SQL やグラフを作成 例1: 特定の数値でデータを分類する 例2: 分類分け 例3:グラフを作成 関連記事 はじめに Gemini in BigQuery とは Google Cloud Next '24 で発表された Gemini for Google Cloud の機能の1つです。 データキャンバスを作成し、自然言語(いわゆる普段話す言葉)をプロンプトに入力することで

                                自然言語でデータ分析ができるGemini in BigQuery(データキャンバス)を試してみた - G-gen Tech Blog
                              • BigQueryのコストを抑えろ! DeNAが取り組む「BQドクター」の実態 1年で1600万円を削減見込み

                                BigQueryのコストを抑えろ! DeNAが取り組む「BQドクター」の実態 1年で1600万円を削減見込み(1/2 ページ) 米Google Cloudが提供するクラウドデータウェアハウス「BigQuery」。くら寿司やヤフーなど、さまざまな企業がデータ分析に活用している。ディー・エヌ・エー(DeNA)もその1社で、数百以上のプロジェクトに取り入れるなど、全社的に活用しているという。 ただ、DeNAではBigQueryの活用に課題を抱えていた。社内におけるBigQuery活用の統制・管理が徹底できていなかったことだ。特にコスト管理や、事故による予算超過を防ぐ仕組みが確立できていなかったという。 一方、DeNAでは対策も進めている。同社では「BQドクター」と題し、BigQueryの課題改善に向けた取り組みを実施している。コスト管理の仕組み作りなどを進めた結果、2022年度は年間で約1600

                                  BigQueryのコストを抑えろ! DeNAが取り組む「BQドクター」の実態 1年で1600万円を削減見込み
                                • BigQueryってなんだっけ? そんな君たちに教えたい本見つけた�のでまとめてみる。 - Qiita

                                  対象読者 データ分析基盤を作ってみたいけど、分析基盤の作り方がわからない BigQueryって聞いたことあるけど、実際に使ったことがない。興味ある。 BigQueryって使おうと思ってググってみたけどあんまりまとまった情報がない そのような気持ちを持つ方が読者想定です。 自身もこの本に出会う前には、同じようなBigQuery童貞でした。 (結論)イイタイコト BigQuery初心者や、これから導入考えてる人が、読むべき本を見つけました!! Google Cloud Platform実践ビッグデータ分析基盤開発 ストーリーで学ぶGoogle BigQuery です。 あまりBigQueryの本がなく、半信半疑で読みましたがBigQueryの全体像が捉えられる良書でした。 この本のイイところ この本のイイところは3つあります。 BigQueryの概要が難しすぎず、ちょうどかゆいところに手が届く

                                    BigQueryってなんだっけ? そんな君たちに教えたい本見つけた�のでまとめてみる。 - Qiita
                                  • [GA4] BigQuery Export スキーマ - アナリティクス ヘルプ

                                    この記事では、BigQuery にエクスポートされる Google アナリティクス 4 プロパティのデータおよび Firebase 向け Google アナリティクスのデータの形式とスキーマについて説明します。 データセット BigQuery にリンクしている Google アナリティクス 4 プロパティおよび Firebase プロジェクトごとに、「analytics_<property_id>」という名前の 1 つのデータセットが BigQuery プロジェクトに追加されます。プロパティ ID は、アナリティクスのプロパティ ID を指します。これは、Google アナリティクス 4 プロパティのプロパティ設定、および Firebase のアプリ分析の設定で確認できます。BigQuery へのエクスポートが有効になっている Google アナリティクス 4 プロパティとアプリごとに 1

                                    • IP 制限付きで AWS EC2 から BigQuery にアクセスしてみた | DevelopersIO

                                      こんにちは、みかみです。 GCP & BigQuery 勉強中です。 実際に業務で使用するとなると、セキュリティの考慮は必須です。 普段業務で使っている AWS 環境では、セキュリティグループで IP 制限をかけ、許可されていない IP からのアクセスはできないようにしています。 GCP でも IP 制限かけられるの? どうやって? どの範囲で? ということで。 やりたいこと GCP ではどうやって IP 制限するのか学びたい EC2 から BigQuery に IP 制限付きでアクセスしたい GCP の IP 制限 AWS 同様 GCP でも VPC(VPC Service Controls)があり、Access Context Manager でアクセスレベルを設定できるそうです。 Access Context Manager では、IP アドレスやリージョン、デバイス単位でアクセスを

                                        IP 制限付きで AWS EC2 から BigQuery にアクセスしてみた | DevelopersIO
                                      • How to use Dynamic SQL in BigQuery

                                        Let’s say that we want to find the number of confirmed COVID cases over the past 3 days in various Canadian provinces. There is a BigQuery public dataset with information published by Johns Hopkins, and we can query it as follows: SELECT * FROM `bigquery-public-data`.covid19_jhu_csse.confirmed_cases WHERE country_region LIKE 'Canada'We get: There is a column for every dateYikes! There is a column

                                          How to use Dynamic SQL in BigQuery
                                        • https://services.google.com/fh/files/blogs/esg_economic_validation_google_bigquery_vs_cloud-based-edws-september_2019.pdf

                                          • BigQuery 特集: データ操作(DML) | Google Cloud 公式ブログ

                                            ※この投稿は米国時間 2020 年 11 月 13 日に、Google Cloud blog に投稿されたものの抄訳です。 BigQuery 特集の以前の投稿で、BigQuery にデータを取り込み、データセットに対してクエリを実行する方法について説明しました。このブログ投稿では、BigQuery でデータ操作ステートメントを実行して、BigQuery に保存されているデータを追加、変更、削除する方法について解説します。さっそく始めましょう。 BigQuery でのデータ操作BigQuery では 2016 年以降、標準 SQL のデータ操作言語(DML)機能がサポートされています。DML を使うと、BigQuery データセットの行と列の挿入、更新、削除が可能になります。BigQuery の DML では、単一ジョブでテーブル内の多数の行のデータを操作したり、テーブルに対して無制限の数の

                                              BigQuery 特集: データ操作(DML) | Google Cloud 公式ブログ
                                            • UNNESTを知らないとBigQueryを使えない?

                                              GoogleアナリティクスのデータをBigQueryで集計・分析可能に!GA4がリリースされて、無料版のWebデータ(イベントなど)をBigQueryに格納することができるようになりました。以前はGA360(月額100万円以上)を契約しないとできなかったのができるようになったのはとても大きいです。 「SQLを使って購入時のユーザーIDと商品IDを抽出しよう!」 SELECT event_date, user_pseudo_id, items.item_id FROM `xxxxxx.analytics_1XXXXXX7.events_20201125` WHERE event_name ='purchase' ;エラーが出て実行できない。。。 BigQueryには配列が入っている上記のエラーは「配列内の要素(item_id)にはアクセスできません」ということです。 「配列??」「テーブルに

                                                UNNESTを知らないとBigQueryを使えない?
                                              • 【TROCCO®︎体験記 第1回】TROCCO®︎を使ってみた by yuzutas0(ゆずたそ)

                                                以前 DLG Cross というイベントで「データマネジメントなき経営は、破綻する」という講演を行ったところ、とある企業様から「法人営業部のDX(デジタルトランスフォーメーション)を手伝ってほしい」と相談を受け、業務フローの見直しやデータ整備を支援しています。 営業データはこれまで十分に使えていなかったため、新規のデータ連携になります。同社のソフトウェアエンジニア(A氏)に社内調整を進めていただきました。本番データにいきなりアクセスするのは怖いので、トライアル的に行いましょうという会話になりました。 なお、今回の作業を進めるに当たって、primeNumberのCPOである小林さん(@hiro_koba_jp)とembulk-input-kintone開発者である@giwaさんにサポートいただきました。 kintoneの準備 TROCCOの画面を開く前に、kintoneでダミーAppを作成し

                                                  【TROCCO®︎体験記 第1回】TROCCO®︎を使ってみた by yuzutas0(ゆずたそ)
                                                • Welcoming Dataform to BigQuery: Create and manage your data transformations within your data warehouse | Google Cloud Blog

                                                  Dataform is joining Google Cloud: Deploy data transformations with SQL in BigQuery The value of data—and the insights it contains—only continues to grow, and Google has invested in technologies to empower teams to do more with that data for more than a decade. We were honored to be named a Leader in Gartner’s first-ever Magic Quadrant for Cloud Database Management Systems (DBMS). BigQuery, our clo

                                                    Welcoming Dataform to BigQuery: Create and manage your data transformations within your data warehouse | Google Cloud Blog
                                                  • GCPの割り当て(クオータ・Quotas)をAPIから変更する情報見つけたのでやってみる - YOMON8.NET

                                                    BigQueryの割り当て(クオータ・Quotas)をAPIから変更する方法を探していましたが、GCP公式ドキュメント見てもコンソールでの作業ばかりしか記載が見つかりません。 cloud.google.com GCPの公式ドキュメントはほとんどの項目でgcloud等で設定するパターンが書かれているので、これは無いのではと思い情報を探していました。 情報を見つけた そこで以下のブログに出会いました。 medium.com I tried to understand how the API worked in the console thanks to the developer mode of Chrome and I found a workaround. Chromeの開発者モードで見ればやり方わかるよ! なるほど!と思い、やってみたら見つけました。ブログに記載されているAPIが確かに実

                                                      GCPの割り当て(クオータ・Quotas)をAPIから変更する情報見つけたのでやってみる - YOMON8.NET
                                                    • Bigqueryを基盤としたCDP環境の構築

                                                      Exadata Database Service on Dedicated Infrastructure(ExaDB-D) UI スクリーン・キャプチャ集

                                                        Bigqueryを基盤としたCDP環境の構築
                                                      • 【BigQuery】クエリの単体テストを書こうと思ったけど壁が厚くてどうしようか悩んでいる話 - St_Hakky’s blog

                                                        こんにちは。 久しぶりのブログ投稿になってしまったのですが、今日は「クエリの単体テストを書こうと思ったけど、壁が厚くてどうしようかなと思った話」を書きたいと思います。 はじめに言っておきますが、この記事は特に何か解決策があるわけでもなんでもなく、「ただ、クエリの単体テストを書こうとするとこんな問題にぶち当たって、それに対してこうしたらいいとは思ったけど、誰か最高のソリューションない?笑」って聞きたかったから書いただけの記事です笑*1 この記事のモチベ 最近、BigQueryを使ったデータ分析基盤とやらを開発しているのですが、「テスト書いてないとかお前それ @t_wada さんの前でも同じこと言えんの?」って言う状態になり、「これ真面目にやろうとするとどうなるんだ」って言うことで真面目に対峙してみました*2。 ここで言う「真面目に」と言うのは、「入り得る全パターンのデータに対する集計があって

                                                          【BigQuery】クエリの単体テストを書こうと思ったけど壁が厚くてどうしようか悩んでいる話 - St_Hakky’s blog
                                                        • Google アナリティクス for FirebaseでBigQueryエクスポートの設定方法とデータ活用 | はじめての「Google アナリティクス for Firebase」入門

                                                          Google アナリティクス for Firebase (以下GA4F)は、GA360と同様、サンプリングされていない生データを無料でBigQueryへエクスポートできます。 BigQueryへエクスポートしたデータを利用すると、GA4FやGoogle アナリティクス 4 プロパティ (以下GA4)のレポート画面では難しいカスタム分析やアプリ以外の外部データと組み合わせた分析が可能になります。 さらに、BigQueryへエクスポートしたデータはデータポータルなどのBIツールと連携すればカスタムレポートの作成も可能となります。 今回はGA4Fのデータ活用をテーマに、次の内容を紹介します。 BigQueryエクスポートの設定手順データポータルのBigQuery接続方法・レポートの作成方法 BigQueryエクスポートの設定手順GA4FのデータをBigQueryへエクスポートする方法は2種類あり

                                                            Google アナリティクス for FirebaseでBigQueryエクスポートの設定方法とデータ活用 | はじめての「Google アナリティクス for Firebase」入門
                                                          • Microsoft AccessのリンクテーブルからGoogle BigQuery のデータを利用 - CData Software Blog

                                                            CData Japan 技術ディレクター桑島です。本記事では、多くのお問い合わせをいただいている Microsoft AccessのリンクテーブルでGoogle BigQueryのデータを利用する方法をご紹介します。 利用製品 利用方法 Google BigQuery側の設定 ODBC Driverのインストール Google BigQueryへの接続設定 OAuthでの接続方法 DSN構成画面からの設定 Microsoft Accessリンクテーブルからのアクセス リンクテーブルの作成 リンクテーブルからの利用 Tips 集 データセット、課金プロジェクトの指定 プロキシ・ファイアウォール設置環境での利用 大量データが格納されているテーブルへのアクセス 選択クエリからの利用 データ型が長いテキスト型となってしまう BigQueryへのAPIリクエストの確認 テクニカルサポートについて ま

                                                              Microsoft AccessのリンクテーブルからGoogle BigQuery のデータを利用 - CData Software Blog
                                                            • グーグルクラウド、BigQueryにアバランチなど11のブロックチェーンを追加

                                                              新たに11のブロックチェーンデータを提供 Google Cloud(グーグルクラウド)は22日、BigQuery(ビッグクエリ)公開データセットにアバランチ(AVAX)など11の暗号資産(仮想通貨)ブロックチェーンを追加したと発表した。 グーグルのビッグクエリはエンタープライズ向けのデータウェアハウス(大量の業務データを保存するシステム)である。2018年にビットコイン(BTC)ブロックチェーンのデータを組み込んで以来、イーサリアム(ETH)、ライトコイン(LTC)、ドージコイン(DOGE)など10のネットワークを掲載していた。 今回新たに追加となったのは、次のブロックチェーンである。 アバランチ(AVAX) アービトラム(ARB) クロノス(CRO) イーサリアムのテストネット(Goerli) ファントム(FTM) ニアプロトコル(NEAR) オプティミズム(OP) ポルカドット(DOT

                                                                グーグルクラウド、BigQueryにアバランチなど11のブロックチェーンを追加
                                                              • Google Analytics 4移行とBigQueryエクスポートでつまずかないための6つのポイント|Dentsu Digital Tech Blog

                                                                こんにちは、電通デジタル開発部エンジニアのリチャードです。 前回の記事ではGoogle Analytics 4プロパティの基礎知識について、GA4移行を技術的に正しく理解しながら進めるために、事前に抑えておくべきポイントを紹介しました。 前回の記事からの続きで後半にあたる本記事では、GA4移行ステップとそれに伴って私たちが行ったBigQueryエクスポートの設定をもとに、これらの作業でつまずかないための6つのポイントを紹介します。ビデオや公式ヘルプを見るだけでは設定を間違ってしまいそうな部分を中心に説明し、公式資料を見た方が早い部分についてはリンクを貼って、公式資料と重複する説明は避けています。 本記事の想定読者層本記事は主にエンジニアに読まれることを想定して書いています。自分が担当するアプリケーションにすでにGoogle Analyticsが導入されていて、ビジネスサイドからの要求などに

                                                                  Google Analytics 4移行とBigQueryエクスポートでつまずかないための6つのポイント|Dentsu Digital Tech Blog
                                                                • Cloud DLP を使って BigQuery の個人情報を検出してみた。 | DevelopersIO

                                                                  こんにちは、みかみです。 やりたいこと Cloud Data Loss Prevention(DLP)とはどんなものか、実際に触って確認してみたい BigQuery に格納済みの個人情報を Cloud DLP で検出してみたい DLP(Data Loss Prevention)とは? DLP(Data Loss Prevention)とは、セキュリティを強化するためのシステムの一つであり、機密情報や重要データの紛失、外部への漏えいを防ぐシステムのことを指します。 抜粋:DLPとは?従来の情報漏洩対策との違いから、機能、活用事例まで紹介 | IT トレンド 近年特に重要視される個人情報などの機密情報を保護するための仕組みです。 Google Cloud の DLP(Data Loss Prevention)サービスである Cloud DLP では、 GCS や BigQuery、Datast

                                                                    Cloud DLP を使って BigQuery の個人情報を検出してみた。 | DevelopersIO
                                                                  • BigQuery DataFramesを使ってみる | DevelopersIO

                                                                    このデータをBigQuery DataFramesで扱います。内容としては{project_id}.data_set_test.jp_weatherのデータを使ってPandasで行う一般的な分析操作を行います。コードは以下になります。 import os import bigframes.pandas as bpd bpd.options.bigquery.project = os.environ.get("GOOGLE_PROJECT_ID") bpd.options.bigquery.location = "asia-northeast1" df1 = bpd.read_gbq("{project_id}.data_set_test.jp_weather") # df1 = bpd.read_gbq("SELECT * FROM {project_id}.data_set_test.j

                                                                      BigQuery DataFramesを使ってみる | DevelopersIO
                                                                    • BigQuery ML の Matrix Factorization で映画の推薦を行ってみる

                                                                      こんにちは。データサイエンスチームの t2sy です。 Google BigQuery は、Google が提供する高スケーラビリティでコスト効率に優れたサーバーレス型のクラウド データウェアハウス (DWH) です。BigQuery ML を使用すると標準 SQL クエリを用いて機械学習モデルを作成・実行できます。 2020/4/17 に BigQuery ML の Matrix Factorization (Beta) がリリースされました。 この記事では、 Using BigQuery ML to make recommendations from movie ratings のチュートリアルを参考に BigQuery ML の Matrix Factorization を MovieLens 20M Dataset に適用し、各ユーザへの映画の推薦を生成してみます。 BigQuer

                                                                        BigQuery ML の Matrix Factorization で映画の推薦を行ってみる
                                                                      • Spark(DataProc)からBigQuery MLに移行してコストを削減した話 - Platinum Data Blog by BrainPad

                                                                        本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 自社開発サービスである「Rtoaster(アールトースター)」は、2019年にユーザー分析機能の「自動クラスタリング機能」をSpark(DataProc)からBigQueryMLに移行しました。 ブレインパッドの新卒2年目の自社サービス開発エンジニアが、新卒1年目で取り組んだ、この大きなプロジェクトでの経験についてご紹介します! はじめに 背景 ユーザー分析機能と自動クラスタリング 移行前の環境と問題点 BigQuery ML について 実装 モデル移行の実装 結果 料金の削減 実行時間の削減 運用の問題解消 最後に はじめに 本記事は、ブレインパッドの自社サービスである「Rtoaster(アールトースター)」のユーザー分析機能のチームで開発をしている、新卒入社2年目のエンジニア柴内がお送

                                                                          Spark(DataProc)からBigQuery MLに移行してコストを削減した話 - Platinum Data Blog by BrainPad
                                                                        • 安い速い旨い BigQuery の 20 の最適化法 - Qiita

                                                                          はじめに: Google BigQuery は速くて安い Google BigQuery を使うと、テラバイト程度のデータに対しても、速く安く機械学習前処理を行うことができます。2019/12/06 現在、Redshift Spectrum と同じく、オンデマンドクエリはクエリが参照するデータの容量に対して $5/TB が課金されます。その上、Redshift Spectrum より早いのですから、使わない理由がありません。 その課金形態ゆえ、BigQuery でデータ処理を行う際には、処理単位でテーブルを出力し、入力を繰り返すのではなく、テーブル参照を最小化した上で、全てを一つのクエリにおさめ、一度に全ての処理を完了するように書くことで料金を最小化することができます。 6 時間以内に完了しないクエリは、Operation timed out after 6.0 hours. Consid

                                                                            安い速い旨い BigQuery の 20 の最適化法 - Qiita
                                                                          • PythonでBigQueryの料金を監視する

                                                                            この記事は  GMOアドマーケティングAdvent Calendar 2020   2日目の記事です。 皆さん こんにちは、GMOアドマーケティングのS.Rです。 GoogleのBigQuery(Google Cloud Platform)という大規模なデータ分析ツールを使ったことがありますか? BigQueryでは1PB(ペタバイト)あるいは10億行といった膨大なデータに対して、SQLで集計・分析処理を極めて高速に実行できます。 ただBigQueryのQueryを実行するには、気を付けなければ高い料金が課せられます。 今回は、Pythonで、GCPのSDKでBigQueryの実行する状況を監視するプログラムを作る方法を、皆さんへ紹介させていただきます。 プログラムの構成 プログラムの構成は下記です。 Service account を作成&権限を設定 GCPの管理画面のService a

                                                                              PythonでBigQueryの料金を監視する
                                                                            • Cost optimization best practices for BigQuery | Google Cloud Blog

                                                                              Cloud cost optimization: principles for lasting successLearn organizational principles that can help you run your cloud environment efficiently and cost effectively. By Justin Lerma • 11-minute read Understanding the basics of pricing in BigQueryLet’s look at the pricing for BigQuery, then explore each billing subcategory to offer tips to reduce your BigQuery spending. For any location, the BigQue

                                                                                Cost optimization best practices for BigQuery | Google Cloud Blog
                                                                              • BigQuery リモート関数で Natural Language API を使って、SQL でお客様レビューの感情分析してみた。 | DevelopersIO

                                                                                BigQuery リモート関数で Natural Language API を使って、SQL でお客様レビューの感情分析してみた。 こんにちは、みかみです。 Google Cloud 認定 Data Engineer の勉強してたら思ってた以上に ML 要素が強そうで現実逃避したくなってきたので、大好きな BigQuery と遊ぶことにしました。。(ML わけがわからないよ。 はじめに リモート関数とは BigQuery から SQL を実行する時に呼び出せる外部関数で、ユーザー定義関数(UDF)と同じように使えます。 API コールなど、BigQuery 内で完結できない処理もリモート関数を使えば実装できちゃいます。 2022/05/20 現在、まだプレビューの機能ですので、利用する際にはご留意ください。 リモート関数の操作 | BigQuery ドキュメント Extending Bi

                                                                                  BigQuery リモート関数で Natural Language API を使って、SQL でお客様レビューの感情分析してみた。 | DevelopersIO
                                                                                • GA4データをBigQueryにエクスポートするかを決める時に考慮する要素 | 株式会社プリンシプル

                                                                                  2023年7月にユニバーサルアナリティクスが新規処理を停止するというアナウンスがありました。これまで様子見であった各企業も、GA4導入に向けて動き出すことになるかと思います。 そこで企業としてGA4を利用するにあたり、データをBigQueryにエクスポートするかどうかを迷うケースがあると思います。当記事では「GA4データをBigQueryにエクスポートするべきかどうかを決定する際、どのような要素を考慮するべきか?」を網羅的に紹介致します。 GA4データをBigQueryにエクスポートするか判断する6つの要素 GA4データをBigQueryにエクスポートするかどうかを判断する際に考慮すべき要素を、この記事では以下の6つにまとめてみました。 要素1. SQLの書き手の有無 データベースのひとつであるBigQueryからデータを取得、整形、分析ためには、SQLと呼ばれるデータベース操作言語が必要

                                                                                    GA4データをBigQueryにエクスポートするかを決める時に考慮する要素 | 株式会社プリンシプル