エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Redisで100万件のデータを0.3秒で読み込む - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Redisで100万件のデータを0.3秒で読み込む - Qiita
まえがき 梅雨のせいでコインランドリーで乾燥機を回している時ふと、 「どれくらいのデータ量だとRedis... まえがき 梅雨のせいでコインランドリーで乾燥機を回している時ふと、 「どれくらいのデータ量だとRedis(キャッシュ)導入に価値がある? だって、一般的な処理だと早くなっても数ミリ秒の世界だし」と考え始めました。(唐突) とりあえず100万件のデータでRedis導入にどれ程の価値があるのか、いざ検証してみます。 検証環境 ローカルPC (RAM 8GB) Redis 6.0.5 (maxmemory 0=無制限) Rails 6.0.3 (API mode) MySQL ※ 今回はDBに存在する100万件のレコードをそのままRedisに突っ込みます。 100万件の投稿データ作成 今回検証のアプリケーションとしてRailsを使うのでseed ※でデータ投入しても良かったんですけど、何分遅いのでストアドプロシージャでinsertしていきます。 delimiter // create proce