並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 134件

新着順 人気順

redshiftの検索結果1 - 40 件 / 134件

  • Announcing enhanced manageability and usability features for Amazon Redshift Serverless

    Today, Amazon Redshift announces enhanced manageability and monitoring for features for Amazon Redshift Serverless, including cross-account cross-VPC, custom domain name(CNAME), snapshot scheduling, cross-region copy (CRC), improved visibility for serverless billing in the Redshift console, and version tracking. These features provide you with seamless data access, robust data protection, and cost

      Announcing enhanced manageability and usability features for Amazon Redshift Serverless
    • Amazon Redshift announces general availability of row-level security enhancements

      Amazon Redshift announces CONJUNCTION TYPE support for row-level security (RLS) policies and RLS support on standard views and late binding views, which enables you to apply granular access controls and ensure that users can only access rows that they are authorized to see, even when the underlying data evolves or user permissions change. RLS support on standard views and late binding views applie

        Amazon Redshift announces general availability of row-level security enhancements
      • [速報] Amazon Aurora PostgreSQL, Amazon DynamoDB, Amazon RDS for MySQL で Amazon Redshift とのゼロ ETL が発表されました (Preview) #AWSreInvent | DevelopersIO

        AWS事業本部の森田です。 本日より、Amazon Aurora PostgreSQL, Amazon DynamoDB, Amazon RDS for MySQL で Amazon Redshift とのゼロ ETL がプレビューで利用できるようになりました! ゼロ ETL ゼロ ETLを利用することで、Amazon Redshift から各データベースのデータにアクセスして、ほぼリアルタイムの分析や機械学習が可能となります。 また、「ゼロ」と名前についているように ETL オペレーションを実行する複雑なデータパイプラインの構築なしで上記が実現可能となります。 ゼロ ETL については、昨年の reInvent で発表されたサービスととなっており、Aurora MySQL で一足先に一般提供を開始となっております。 プレビュー対象 以下のデータベース・リージョンで新たにプレビューでの利用

          [速報] Amazon Aurora PostgreSQL, Amazon DynamoDB, Amazon RDS for MySQL で Amazon Redshift とのゼロ ETL が発表されました (Preview) #AWSreInvent | DevelopersIO
        • AWS announces support for large language models in Amazon Redshift ML (Preview)

          Amazon Redshift enhances Redshift ML to support large language models (LLM). Amazon Redshift ML enables customers to create, train, and deploy machine learning models using familiar SQL commands. Now, you can leverage pretrained publicly available LLMs in Amazon SageMaker JumpStart as part of Redshift ML, allowing you to bring the power of LLMs to analytics. For example, you can make inferences on

            AWS announces support for large language models in Amazon Redshift ML (Preview)
          • Amazon Redshift announces support for CNAME

            Amazon Redshift now supports Canonical Name (CNAME) or custom domain name, an easy-to-read Domain Name System (DNS) record that routes SQL client connections to either the endpoint of your Amazon Redshift cluster or Amazon Redshift Serverless workgroup. With CNAME, you don’t need to expose your Redshift endpoint in the database connection, which enhances your security and it’s easier to recall and

              Amazon Redshift announces support for CNAME
            • Zero-ETL integrationの実用を試みた。 しかし、Aurora MySQLの中身の〇〇が多すぎて失敗した。 - KAYAC engineers' blog

              SREチームの池田です。 Redshiftが大好きなバケツアイコンの人です。 先日、Aurora MySQL と RedshiftのZero-ETL integrationがGA(Generally Available、一般提供開始)しました。 aws.amazon.com この記事は、早速Zero-ETL integrationの実戦投入を試してみたという内容です。 なお、この記事は失敗事例になりますが、Zero-ETL integrationはとても素晴らしい機能ですので、皆様も是非お使いください。 はじめに Zero-ETL integrationは、Aurora MySQLのデータをニアリアルタイムでRedshiftに同期してくれる素晴らしい機能です。 マネージメントコンソールから数ステップでAurora MySQLの中の すべてのテーブルを Redshiftに同期してくれます。

                Zero-ETL integrationの実用を試みた。 しかし、Aurora MySQLの中身の〇〇が多すぎて失敗した。 - KAYAC engineers' blog
              • Amazon RedshiftへのAurora MySQL zero-ETLが一般提供を開始しました | DevelopersIO

                Amazon Aurora MySQL zero-ETL integration with Amazon Redshiftが一般提供を開始しました! データアナリティクス事業本部 機械学習チームの鈴木です。 Amazon RedshiftへのAurora MySQL zero-ETLが一般提供を開始しました。東京リージョンでも利用可能です! Aurora MySQL zero-ETLとは Aurora MySQLからAmazon Redshiftへほぼリアルタイムの連携し、Redshiftでの分析と機械学習ができる、Amazon Aurora MySQL向けの機能になります。 この設定をしておくことにより、データがAuroraに書き込まれてから数秒以内に、そのデータはAmazon Redshiftで利用できるようになるという、非常に強力な機能です。 昨年のre:Invent2022で発表さ

                  Amazon RedshiftへのAurora MySQL zero-ETLが一般提供を開始しました | DevelopersIO
                • Amazon Aurora MySQL zero-ETL integration with Amazon Redshift is now generally available | Amazon Web Services

                  AWS News Blog Amazon Aurora MySQL zero-ETL integration with Amazon Redshift is now generally available “Data is at the center of every application, process, and business decision,” wrote Swami Sivasubramanian, VP of Database, Analytics, and Machine Learning at AWS, and I couldn’t agree more. A common pattern customers use today is to build data pipelines to move data from Amazon Aurora to Amazon R

                    Amazon Aurora MySQL zero-ETL integration with Amazon Redshift is now generally available | Amazon Web Services
                  • Amazon Aurora MySQLとAmazon Redshiftをニアリアルタイムに同期する「Amazon Aurora MySQL zero-ETL integration with Amazon Redshift」パブリックプレビュー

                    Amazon Aurora MySQLとAmazon Redshiftをニアリアルタイムに同期する「Amazon Aurora MySQL zero-ETL integration with Amazon Redshift」パブリックプレビュー Amazon Web Services(AWS)は、Amazon Aurora MySQLのデータをAmazon Redshiftにニアリアルタイムで同期させる新サービス「 Amazon Aurora MySQL zero-ETL integration with Amazon Redshift」(以下、ゼロETL)をパブリックプレビューとして提供開始したことを発表しました。 東京リージョンでも利用可能となっています。 OLTPのデータをほぼリアルタイムに分析可能に Amazon Auroraは高速なトランザクション処理を特徴とするリレーショナルデ

                      Amazon Aurora MySQLとAmazon Redshiftをニアリアルタイムに同期する「Amazon Aurora MySQL zero-ETL integration with Amazon Redshift」パブリックプレビュー
                    • AWS announces Amazon Aurora MySQL zero-ETL integration with Amazon Redshift (Public Preview)

                      Amazon Aurora MySQL zero-ETL integration with Amazon Redshift is now available in public preview. This feature enables near real-time analytics and machine learning (ML) on petabytes of transactional data stored in Amazon Aurora MySQL-Compatible Edition. Data written into Aurora is available in Amazon Redshift within seconds, so you can quickly act on it without having to build and maintain comple

                        AWS announces Amazon Aurora MySQL zero-ETL integration with Amazon Redshift (Public Preview)
                      • AWS が Amazon Aurora MySQL と Amazon Redshift のゼロ ETL 統合 (パブリックプレビュー) を発表

                        Amazon Aurora MySQL と Amazon Redshift のゼロ ETL 統合のパブリックプレビューがリリースされました。この機能により、Amazon Aurora MySQL 互換エディションに保存されているペタバイト単位のトランザクションデータに対してほぼリアルタイムの分析と機械学習 (ML) を実行できます。Aurora に書き込まれたデータが数秒以内に Amazon Redshift で利用できるようになるため、複雑なデータパイプラインを構築したり管理したりせずに、データをすばやく処理できます。Amazon Aurora MySQL と Amazon Redshift のゼロ ETL 統合は、Amazon Aurora Serverless v2 と Provisioned、Amazon Redshift Serverless と RA3 のインスタンスタイプでご

                          AWS が Amazon Aurora MySQL と Amazon Redshift のゼロ ETL 統合 (パブリックプレビュー) を発表
                        • Provisioned Redshift クラスターのノードタイプとノード数をワークロードに合わて選択する方法を教えてください | DevelopersIO

                          困っていた内容 プロビジョニングされた Redshift クラスターを利用する予定なのですが、ワークロードに合わせたノードタイプとノード数を見積もる方法はありますか? あまりオーバースペックにはしたく無いので、ある程度の基準が分かると助かります。 結論 マネジメントコンソール上で Provisioned Redshift クラスターを作成する際に、「クラスターのサイズを選択する」の項目で「選択のヘルプ」をご利用ください。 クラスターの作成 クラスターのサイズがわからない場合は、[Help me choose (選択ヘルプ)] を選んでください。これにより、データウェアハウスに保存する予定のデータのサイズとクエリの特性について質問するサイジング計算ツールが起動されます。 やってみた 1. マネジメントコンソール上で、サービス Amazon Redshift を選択した後に、画面左ペインで「プ

                            Provisioned Redshift クラスターのノードタイプとノード数をワークロードに合わて選択する方法を教えてください | DevelopersIO
                          • 7年使ったRedshiftから6ヶ月かけてSnowflakeへ移行した話 〜手の内全部お見せします〜

                            SNOWDAY JAPAN 2023で「7年使ったRedshiftから6ヶ月かけてSnowflakeへ移行した話 〜手の内全部お見せします〜」というタイトルで登壇した資料です。 https://www.snowflake.com/about/events/snowday-japan-2023/?lang=ja 独自のテレビ視聴質データを利用したCM効果分析サービスを提供するREVISIO株式会社の片岡が、7年間使用してきたRedshiftからSnowflakeへ移行した際の手法やツール、検証内容や両DWHの差異などについて詳しく語りました。 スライド内で発表した移行ツールはOSSで公開中です。 https://github.com/tvision-jp/redshift-to-snowflake-migration-utils https://revisio.co.jp/

                              7年使ったRedshiftから6ヶ月かけてSnowflakeへ移行した話 〜手の内全部お見せします〜
                            • Amazon Redshift + dbt ユーザー必読の書「Best Practices for Leveraging Amazon Redshift and dbt」を読んでみた | DevelopersIO

                              Amazon Redshift + dbt ユーザー必読の書「Best Practices for Leveraging Amazon Redshift and dbt」を読んでみた データアナリティクス事業本部のコンサルティングチームの石川です。今日は、AWSが執筆した Amazon Redshiftとdbtを活用するためのベストプラクティスをまとめたホワイトペーパーを紹介します。 Best Practices for Leveraging Amazon Redshift and dbt™ リンクから誰でもダウンロードできます。 Redshift + dbtを導入しているけれど、果たしてこれが正しい使い方なのかモヤモヤしている方は少なくないと想像してます。筆者もその一人ですが、そのような方々の道標になれば幸いです。 目次 Abstract Introduction Amazon Reds

                                Amazon Redshift + dbt ユーザー必読の書「Best Practices for Leveraging Amazon Redshift and dbt」を読んでみた | DevelopersIO
                              • RedshiftのMERGE SQL commandがGAになりましたね。 - KAYAC engineers' blog

                                SREチームの池田です。 今回はAmazon RedshiftのMERGE SQL commandがGAになりましたので、MERGE SQL commandの何が嬉しいのかを話をしたいと思います。 SRE連載 4月号になります。 aws.amazon.com 3行でまとめ RedshiftのMERGE SQL commandがGAになりました。 Bulk UpsertをSQL1文で実行できるものです。 以前と比べるとスッキリします。 複数のデータソースから算出されるレポートの更新に使うと嬉しい。 以前のRedshiftにおけるBulk Upsertについて ご存知かもしれませんが、『なかったらInsert、あったらUpdate』を通称Upsertといいます。 Redshiftにおける、Upsertのやり方ですがMERGE SQL commandが出る前のRedshiftでは以下のドキュメン

                                  RedshiftのMERGE SQL commandがGAになりましたね。 - KAYAC engineers' blog
                                • 【レポート】Amazon Redshift クエリパフォーマンスチューニング Deep Dive(AWS-36) #AWSSummit | DevelopersIO

                                  【レポート】Amazon Redshift クエリパフォーマンスチューニング Deep Dive(AWS-36) #AWSSummit どーも、データアナリティクス事業本部コンサルティングチームのsutoです。 この記事は、5月26日に行われた AWS Summit Tokyo(2023)のセッション『Amazon Redshift クエリパフォーマンスチューニング Deep Dive(AWS-36) 』のセッションレポートとなります。 セッション概要 経験や勘に頼らず、Amazon Redshift のクエリのボトルネックをシステマチックに分析してチューニングする実践的な手法を紹介します。マネジメントコンソールやシステムテーブル・ビューから時間ベースでボトルネックを特定して、チューニングを行う手法を理論と実践の両面から実例を交えて紹介します。 スピーカー アマゾン ウェブ サービス ジャ

                                    【レポート】Amazon Redshift クエリパフォーマンスチューニング Deep Dive(AWS-36) #AWSSummit | DevelopersIO
                                  • AWS Glue visual ETL now supports new native Amazon Redshift capabilities

                                    AWS Glue Studio now supports new native Amazon Redshift connector capabilities: browse Amazon Redshift tables directly in Glue Studio, add native Redshift SQL, execute common operations while writing to Amazon Redshift including drop, truncate, upsert, create or merge. AWS Glue Studio offers a visual extract-transform-and-load (ETL) interface that helps ETL developers to author, run, and monitor A

                                      AWS Glue visual ETL now supports new native Amazon Redshift capabilities
                                    • SNOWDAYで紹介しきれなかったRedshiftとSnowflakeの違い42選 - REVISIO Tech Blog

                                      REVISIOのエンジニア片岡です。 先日2月14日、Snowflakeの大規模イベントSNOWDAY JAPANに参加・登壇してきました。 登壇資料はこちら。 speakerdeck.com ANAインターコンチネンタルホテル東京+オンラインでの開催でしたが、オフラインイベントの独特の雰囲気と盛り上がりを久しぶりに体感できて非常に楽しかったです。 沢山の興味深いセッションや趣向を凝らした会場設営、コミュニティイベント含めてSnowflakeの世界観が感じられたイベントでした。 さて、タイトルにあるようにSNOWDAYでは時間の都合で紹介しきれなかった部分があったので、ここに書いておこうと思います。 RedshiftとSnowflakeは別の製品なので、当然違いは沢山あります。 ただ、Redshiftを色々なシーンで使用している状況から移行しようとするのであれば、ある程度同じ挙動をして欲し

                                        SNOWDAYで紹介しきれなかったRedshiftとSnowflakeの違い42選 - REVISIO Tech Blog
                                      • AWSが提唱するゼロETLとは何か?概念と登場の背景の推察 - NRIネットコムBlog

                                        こんにちは、佐々木です。年末に書こうと思って、すっかり忘れていた宿題です。 2022年末のre:InventのキーノートでAWSのCEOであるAdam Selipskyが、『A Zero ETL future』という概念が提唱しました。言わんとすることは解るのですが、これは一体どういう文脈で、なんのためなのだろうと疑問に思う方は多いと思います。そこで、自分なりにデータ分析を取り巻く現状と課題、ゼロETLの概念が出てきた理由をまとめてみます。これは私自身の思考なので、全然違う可能性が高いですので、悪しからず。 データ分析とETLの現状と課題 ゼロETLの話をする前に、データ分析とETLの現状の話をしましょう。データ分析をする際には、必ずデータが必要です。では、そのデータはどこからやってくるのか?単一のシステム内で分析する場合もありますが、多くの場合はいろいろなシステムから必要なデータを集めて

                                          AWSが提唱するゼロETLとは何か?概念と登場の背景の推察 - NRIネットコムBlog
                                        • 【AWS】SAA資格取得のための学習用備忘録(データベースサービス) - ポンサラの逆襲

                                          メモ 以前取得したAWSの資格「クラウドプラクティショナー」に続き「ソリューションアーキテクトアソシエイト(SAA-C03)」取得を目指して勉強中! いつも何か勉強するときは基本的に書きながら覚えるのでここでアウトプットします。 有益な情報かどうかは不明(笑) AWSのデータベースサービス システムの構成要素としてデータベースはなくてはならない存在。 1998年以降、データベースにも複数のアーキテクチャやデータモデルが登場しており、システムの特徴に応じて最適なDBを選択することが重要なポイントとなってきている。 AWSではデータベースサービスとして8つのサービスを提供している。 ソリューションアーキテクトとしてそれぞれのサービスの特徴を理解し、最適なサービスを選択する力を身につける。 データベースの2大アーキテクチャ AWSが提供するデータベースサービスは以下の9つ。 ・RDS ・Reds

                                            【AWS】SAA資格取得のための学習用備忘録(データベースサービス) - ポンサラの逆襲
                                          • Redshift ServerlessとProvisioned Cluster のちょっとした違い

                                            多すぎた「隠し味」-シェフ秘伝のレシピから見えてくるものとは? / Too many “hidden flavors”

                                              Redshift ServerlessとProvisioned Cluster のちょっとした違い
                                            • Amazon Redshift のパフォーマンスチューニング 十ヶ条まとめ - Qiita

                                              Amazon Redshift は Serverless版もGAされ、さらにATO:Automatic Table Optimization(自動テーブル最適化)など、従来からある Provisioned版含めてパフォーマンスチューニングがどんどん自動化されてきている。 一方で、実運用では高負荷など使い方によって問題が全く起こらないことは考えにくく、困った時にチューニングの余地があることはメリットでもある。 以下の公式ブログの Tips をもとに困った時のチューニング対処ポイントをまとめる ※ 記事は 2020年 のものなので、その後新機能でカバーできる点や、主観的な考えについて適宜補足しています。 [1] マテリアライズドビューを使う 予測可能で何度も繰り返されるクエリに特に効果を発揮する 内部テーブルだけでなく、外部テーブル(Spectrumやフェデレーション)にも使える マテビューの

                                                Amazon Redshift のパフォーマンスチューニング 十ヶ条まとめ - Qiita
                                              • Amazon Redshift テーブル設計詳細ガイド –分散スタイルとソートキーの決定方法–

                                                © 2017, Amazon Web Services, Inc. or its Affiliates. All rights reserved. アマゾン ウェブ サービス ジャパン株式会社 柴田竜典 2017/6/1 Amazon Redshift テーブル設計詳細ガイド 分散スタイルとソートキーの決定方法 自己紹介 柴田竜典[シバタツ] • データベース関連の 相談ごと何でも担当 • AWSへの移行を機に RDBMSをAuroraに 乗り換えたい • オンプレミスOracleを AWSにフォーク リフティングしたい • 好きなAWSのサービス: S3 @rewse すでにRedshiftをお使いの方の悩み • クエリー性能をさらに向上させたい • 同時実行を上手にさばきたい • 料金を抑えたい などなど クエリー性能向上に大切なことは何か 最良のソートキーの選択 最適な分散スタイルの

                                                • Go言語のためのRedshift Data API sql driver 『redshift-data-sql-driver』 - KAYAC engineers' blog

                                                  この記事はAWS Analytics Advent Calendar 2022の16日目です。 こんにちは、SREチーム所属の@mashiikeです。 13日目にも記事を書いて、なんと欲張って2回目も書いてます。 13日目の記事は『redshift-data-set-annotator』に関してでした。 このような形で、私は用途がニッチな物を作ることが多いのですが、本日はニッチシリーズの中からGo言語のためのRedshift Data API sql driverについて話します。 Redshift Data API Redshiftへ接続する際は、通常VPCへのアクセスが必要になります。 (Public AccessibilityをONにすればその限りではありませんが、セキュリティを考えると中々ONにすることはためらわれます。) そのため、psqlクライアント等を使って手元から接続するの

                                                    Go言語のためのRedshift Data API sql driver 『redshift-data-sql-driver』 - KAYAC engineers' blog
                                                  • RedshiftとQuickSightの間にあるちょっとした隙間を埋めるツール 『redshift-data-set-annotator』 - KAYAC engineers' blog

                                                    この記事はAWS Analytics Advent Calendar 2022の13日目です。 こんにちは、SREチーム所属の@mashiikeです。 皆様 Amazon RedshiftとAmazon QuickSightを使ってますでしょうか? こちらの記事はこの2つのサービスの間に存在しているちょっとした隙間に関しての記事になります。 それは、カラムコメントとデータセットのフィールド名にまつわる話になります。 メタデータ と QuickSightのデータセット 皆様、Amazon Redshift上にデータマートをたくさん作っていると思いますが、そのデータマートのメタデータをどうやって管理していますか? 最近のデータカタログ製品は非常に便利で、そういった製品を使って管理しているという方もいると思います。 筆者は実はデータカタログ製品に疎く、今まで『えっ? 必要ならDWHのテーブルコメ

                                                      RedshiftとQuickSightの間にあるちょっとした隙間を埋めるツール 『redshift-data-set-annotator』 - KAYAC engineers' blog
                                                    • なぜETLではなくELTが流行ってきたのか - Qiita

                                                      概要 troccoの生みの親で、現プロダクト責任者をしている @hiro_koba_jp です。 troccoアドベントカレンダー2022の1記事目書いていきます!(みんなも参加してね) データ分析やデータエンジニアリングにおいてETL(Extract Transform Load)という言葉を耳にしたことがある方は多いのではないでしょうか? 一方、「ETLではなくELT(音楽グループではない)が主流になりつつある」といったような論調も増えてきました。 この記事では、ETLとELTの違いや、なぜELTにシフトしつつあるのか、この先どうなるのか(予想)について、私なりの見解を書いてみようと思います。 一昔前まではETLパターンが多かった Redshiftが登場した2013年頃、人々はデータレイク層はS3上で構築し、データウェアハウス層〜データマート層はRedshift上に組む人が多かったよう

                                                        なぜETLではなくELTが流行ってきたのか - Qiita
                                                      • 非同期の Amazon Redshift Data API を Amazon EventBridge で上手に取り扱う - Qiita

                                                        Amazon Redshift Data API は SQL を簡単に実行することができる非同期APIです。 非同期なので、SQL が完了するまで待たずにレスポンスを返却します。 APIリクエストが完了したかどうか繰り返しポーリングするような仕組みが必要かな?と思いましたが、必要なさそうでした。 WithEvent パラメータに True を指定すれば Amazon EventBridge にイベントを送信することができます。 Amazon EventBridge でルールを設定しておけば、完了イベントを拾って後続処理に繋げることもできそうです。 Amazon EventBridge が対応している他のサービスとも連携しやすいですね。 非同期 API なので AWS Lambda 上で実行する場合には、実行時間を極小化することができ、コスト最適化にもつながりそうです。 長時間実行 SQL

                                                          非同期の Amazon Redshift Data API を Amazon EventBridge で上手に取り扱う - Qiita
                                                        • [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表

                                                          [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表 Amazon Web Services(AWS)は、米ラスベガスで開催中の年次イベント「AWS re:Invent 2022」で、Amazon S3からAmazon Redshiftへデータを自動的にコピーする新サービス「Amazon Redshift auto-copy from S3」を発表しました。 これによりETLやデータロードのためのツールなどを用いることなく、簡単にAmazon Redshiftへデータを流し込めるようになります。 Amazon S3にファイルを置くとRedshiftに自動で取り込まれる Amazon Redshiftは大規模なデータを保存し分析を行う、データウェアハウスの機能を提供するサービス

                                                            [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表
                                                          • Amazon Redshift now supports auto-copy from Amazon S3

                                                            Amazon Redshift launches the preview of auto-copy support to simplify data loading from Amazon S3 into Amazon Redshift. You can now setup continuous file ingestion rules to track your Amazon S3 paths and automatically load new files without the need for additional tools or custom solutions. Amazon Redshift customers run COPY statements to load data into their local tables from various data sources

                                                              Amazon Redshift now supports auto-copy from Amazon S3
                                                            • AWS announces Amazon Aurora zero-ETL integration with Amazon Redshift

                                                              Amazon Aurora now supports zero-ETL integration with Amazon Redshift, to enable near real-time analytics and machine learning (ML) using Amazon Redshift on petabytes of transactional data from Aurora. Within seconds of transactional data being written into Aurora, the data is available in Amazon Redshift, so you don’t have to build and maintain complex data pipelines to perform extract, transform,

                                                                AWS announces Amazon Aurora zero-ETL integration with Amazon Redshift
                                                              • [速報]Amazon AuroraのOLTPとRedshiftのDWHを統合する「Amazon Aurora zero-ETL integration with Amazon Redshift」発表。AWS re:Invent 2022

                                                                Amazon Web Services(AWS)の年次イベント「AWS re:Invent 2022」が米ラスベガスで開催中です。 2日目の基調講演には、AWS CEOのAdam Selipsky氏が生バンドの演奏とともに登場しました。 Selipsky氏は、さまざまなデータを分析する上で多数の分析ツールのあいだでデータを転送しなければならない問題を指摘し、データ転送ツールであるETLがなくなることが同社のビジョンだと説明。 新サービスとして「Amazon Aurora zero-ETL integration with Amazon Redshift」を発表しました。 Amazon Auroraは高速なトランザクション処理を特徴とするリレーショナルデータベースであり、Amazon Redshiftは大規模データの高速分析を特徴とするデータウェアハウスのサービスです。 新サービス「Amaz

                                                                  [速報]Amazon AuroraのOLTPとRedshiftのDWHを統合する「Amazon Aurora zero-ETL integration with Amazon Redshift」発表。AWS re:Invent 2022
                                                                • 【初心者】CSVファイルをRedshiftにインポートするまでの軌跡 - Qiita

                                                                  最初に 今までMySQL workbench を使っていて「RedshiftのテーブルにCSVからインポートするだけ? 簡単でしょ」と思っていましたが、初心者には低いハードルではありませんでした。。。 エラーとの闘いと完遂までの軌跡を、自分用のメモも兼ねて引っかかった部分をまとめます。 前提 TeratermからEC2にSSH接続 EC2からRedshiftにログイン コピー先のテーブルは "CREATE TABLE" であらかじめ作成済 1. EC2から直接COPYするのが難しかった 最初に試したのは、EC2にCSVファイルを置いて、COPYコマンドで指定する方法でした。ですがパスを指定しても一向に動かない…… ドキュメントを確認したところ、Redshiftにインポートするには データファイルまたは Amazon DynamoDB テーブルから、テーブルにデータをロードします。ファイルは

                                                                    【初心者】CSVファイルをRedshiftにインポートするまでの軌跡 - Qiita
                                                                  • Redshift Serverless について見かけた課題と対応策 - Qiita

                                                                    Redshift Serverless について見かけた課題と対応策(2022年7月19日時点)をまとめました。GitHubリポジトリ「Awesome Redshift JP」にまとめた内容の転記です。 概要 プレビュー料金に見える→金額あってそう 名前空間やワークグループの削除エラー→英語表示 ProvisionedとAPIが違う→ラッパーを使う 時間課金でストリーミング不向き→二台構成 or マイクロバッチ化 Redshift Serverless の料金表が「プレビュー」のままに見える(2022年7月19日時点) 日本語だと「プレビュー」の記載がありますが、英語だとPreviewの記載は外れています。 料金表の内容も同じなので、日本語の翻訳が間に合っていないようです。 日本語の料金表: 英語の料金表: Redshift Serverless の名前空間やワークグループの削除ができない

                                                                      Redshift Serverless について見かけた課題と対応策 - Qiita
                                                                    • Amazon Redshift Serverless 本番環境に向けた「設定をカスタマイズ」による環境構築手順 | DevelopersIO

                                                                      データアナリティクス事業本部コンサルティングチームの石川です。「デフォルト設定を使用」で構築するのであれば、ワンクリック3分で構築可能です。 しかし、本番環境のように任意のVPCに構築するには「設定をカスタマイズ」による環境構築が必要です。 1つ目のRedshift Serverless環境の構築は、「デフォルト設定を使用」を用いた環境構築 もしくは「設定をカスタマイズ」による環境構築のいずれかです。2つ目以降は、下記のサーバーレスダッシュボードの[ワークグループを作成]から環境構築します。この手順は、「設定をカスタマイズ」とほぼ同じで、RPUの設定が追加されたものとそれほど変わりません。 本日は、Redshift Serverlessを構築するための設定項目の整理して、「設定をカスタマイズ」による環境構築する手順について解説します。 環境構築するための設定項目 最初にRedshift S

                                                                        Amazon Redshift Serverless 本番環境に向けた「設定をカスタマイズ」による環境構築手順 | DevelopersIO
                                                                      • データベースの性能検証に利用されるTPC-HとTPC-DSに関するざっくりとした整理 - Qiita

                                                                        概要 データベースの性能検証によく利用されるTPC-HとTPC-DSをざっくり整理する。 TPCとは TPCとは、Transaction Processing Performance Councilの略であり、トランザクション処理性能評議会である。データベースのトランザクション性能検証を作成・検証を目的とした団体である。複数の性能検証ベンチマークがあり、TPC-E、TPC-H等が有名である。 TPCのテスト一覧 TPCのActive Benchmarksには下記のものがあり、TPC-HとTPC-DSはそのうちの1つのベンチマークである。 Benchmark/Document Current Version Specification Source Code

                                                                          データベースの性能検証に利用されるTPC-HとTPC-DSに関するざっくりとした整理 - Qiita
                                                                        • Redshift の自動パフォーマンスチューニング機能まとめ - Qiita

                                                                          はじめに Amazon Redshift には機械学習ベースで自動的にパフォーマンスを最適化する機能が複数あります。数が増えて追いきれなくなってきたので以下にまとめます。 Automatic Vacuum Delete デフォルトで有効 2018/12/19 に追加 UPDATE や DELETE オペレーションにより論理削除された行数にもとづいてバックグラウンドで自動的に VACCUM DELETE を実行します。これにより断片化で消費されていたスペースが解放され、ワークロードのパフォーマンスが向上します。 低負荷のときに実行するようにスケジュールされ、負荷が高い間は操作を停止します。 Automatic Analyze デフォルト有効 2019/1/18 に追加 バックグラウンドで自動的に ANALYZE を実行し、テーブルの統計情報を更新します。これにより最適なクエリの実行計画の作成

                                                                            Redshift の自動パフォーマンスチューニング機能まとめ - Qiita
                                                                          • AWS、DWHサービスのサーバーレス版「Amazon Redshift Serverless」を一般提供開始

                                                                              AWS、DWHサービスのサーバーレス版「Amazon Redshift Serverless」を一般提供開始
                                                                            • Amazon Redshift Serverless が新機能を備えて一般公開開始 | Amazon Web Services

                                                                              Amazon Web Services ブログ Amazon Redshift Serverless が新機能を備えて一般公開開始 昨年の re:Invent で、Amazon Redshift Serverless のプレビュー版を紹介しました。これは、データウェアハウスのインフラを管理しなくても、自由にデータを分析できるAmazon Redshift のサーバーレスオプションです。データを読み込んでクエリを実行するだけで利用でき、料金は使用した分だけです。これにより、利用頻度が少ない分析処理や夜間のみ実行されるワークロードなど、データウェアハウスを常時利用しないユースケースの場合に、より多くの企業がモダンデータ戦略を構築することができます。また、データ利用ユーザーが拡大している新しい部門において、データウェアハウスインフラストラクチャを所有せずに分析を実行したいというニーズにも適用でき

                                                                                Amazon Redshift Serverless が新機能を備えて一般公開開始 | Amazon Web Services
                                                                              • Amazon Redshiftを 1年運用して感じた教訓とその対策方針

                                                                                2022/03/24 15:05 - 15:35 AWS で実践!Analytics Modernization ~事例祭り編~ 面白法人カヤック 池田将士 @mashiike Amazon Redshiftを 1年運用して感じた教訓とその対策方針 アジェンダ ● 自己紹介・会社紹介・事業紹介 ● Redshift導入背景と採用理由 ● 1年運用して感じた教訓とその対策 ○ Ep1: 開発環境に関して (教訓1) ○ Ep2: Redshiftの新機能を試したい (教訓2) ○ Ep3: Clusterのお引越し (教訓3 ~ 5) ● まとめ 自己紹介 池田 将士 (@mashiike) 技術部 SREチーム所属 データにまつわる技術を担当 好きなAWSサービス Amazon S3 Amazon Kinesis Data Firehose Amazon Redshift 2016年末に新

                                                                                • Amazon Redshift re-invented

                                                                                  The Amazon Artificial General Intelligence (AGI) team is looking for a passionate, highly skilled and inventive Senior Applied Scientist with strong machine learning background to lead the development and implementation of state-of-the-art ML systems for building large-scale, high-quality conversational assistant systems. Key job responsibilities - Use deep learning, ML and NLP techniques to creat

                                                                                    Amazon Redshift re-invented