2022/9/9に開催されたSNIA日本支部主催「2022年度ストレージトレンドセミナー(第一回)」で発表したスライドです
Ubuntu Weekly Recipe 第725回Rcloneと専用GNOME Shell拡張機能を併用して、Ubuntuからさまざまなクラウドストレージサービスにアクセスする 今回はRcloneと専用GNOME Shell拡張機能であるrclone-managerを併用し、さまざまなクラウドストレージサービスをまるで専用クライアントを使用しているかのようにアクセスする方法を紹介します。 Ubuntuとさまざまなクラウドストレージサービス 世の中にはさまざまなクラウドストレージサービス(以下サービス)があります。そのうちのいくつかは第682回のオンラインアカウント機能で扱えるようになりますが、いくつかとはいいつつ事実上Google DriveとNextcloudくらいのものです。 中にはDropboxのようにUbuntuのリポジトリからパッケージ(この場合は「nautilus-dropb
テクニカルセールスGの大本です。こんにちは。 前回はPowerScale F200のラッキングについてblogを書きましたが、今回はPowerScale/IsilonのOSであるOneFSをv8.2以降にバージョンアップする際の注意点と、その前振りを兼ねてSmartConnectという機能について紹介していこうかと思います。(※やれバッグの中身だラッキングだ、と、お前はそんなネタばかりかーいと思われてしまうので、たまには技術的な事も書かないとね・・・。) 目次: ・PowerScale/Isilonにおけるユーザアクセス負荷分散機能 ・アプライアンス機器によるロードバランシングの動作 ・DNSラウンドロビンの動作 ・SmartConnectの動作とDNSラウンドロビンの比較 ・OneFS v8.2からの注意点 ←※ここ重要 (SmartConnectについてご存知の方は、すっとばしてOn
Kubernetes Native Storage OpenEBSができること NVMe-oFのCSI Driver PersistentMemoryとCSI Driver PersistentMemory(永続メモリ:PMEM)とは PMEMの使い方 PMEMを使っている製品 PMEM用のCSI オブジェクトストレージ向け標準I/F(COSI) ストレージ(CSI)の自動復旧 バックアップの強化 Kubernetes Native Storage OpenEBS/Longhornが書いてあったのでみていく。 OpenEBSができること Local Volumes - PVの作成、管理 Replicated Volumes - PVを複数Nodeに分散化し、Node障害時にもI/Oが行えるようにする Welcome to OpenEBS Documentation · Local Volu
はじめに Kubernetes v1.22にてPVC/PVの新しいAccessModeとして登場したReadWriteOncePod (RWOP)について、これまでのAccessModeのReadWriteOnce (RWO)との違いを動作検証を交えながら紹介します。 AccessModeとは PVC/PVにて使用するオプションで、これによりマウントする際のアクセス権が指定されます。 Kubernetes v1.21まではReadWriteOnce (RWO), ReadOnlyMany (ROX), ReadWriteMany (RWX)の3つがありました。 このAccessModeに、Kubernetes v1.22 ではアルファ機能としてReadWriteOncePod (RWOP)が新たに追加されました。 ReadWriteOnceとReadWriteOncePodの違い Read
はじめに こんにちは、Necoプロジェクトのsatです。Necoプロジェクトではサイボウズのクラウドサービスcybozu.comの次期インフラ基盤を開発しています。その根幹となるコンポーネントの一つがお客様のデータをあずかるストレージです。本記事ではNecoのストレージの本番適用に向けた取り組みの一つを紹介いたします。 たくさんの取り組みをしているのですが、ここではストレージシステムの運用にあたって、データを格納するRook/Cephクラスタの運用に必要なオペレーションを作る部分について扱います。 用語解説 ここでは本記事を読むにあたって必要になるCephの用語について、いくつか説明しておきます。 OSD OSDとはCephクラスタに組み込まれる個々のディスク上に存在している、ユーザの実データを保存する領域です。Cephは自身を構成するノード上にあるOSDを束ねてストレージプールを作ります
In 2019 I published a blog: Kubernetes Storage Performance Comparison. My goal was to evaluate the most common storage solutions available for Kubernetes and perform basic performance testing. I had results for GlusterFS, CEPH, Portworx and OpenEBS (with cStor backend). This blog has been popular and I received a lot of positive feedback. I’ve decided to come back with few updates on progress in t
こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」13日目は、前回|【ストレージ初心者向け】分散ストレージ、Cephの速度を計る(1)に引き続きましてCephの性能測定ネタを提供していきたいと思います。 思った以上に前回の記事でご反響がいただけたようで、大変嬉しい限りです。 はじめに さて、先週の記事ではストレージの性能指標やCephのアーキテクチャ上の特性を記載しました。 今回は実際にストレージ性能の測定ツールを動かしていこうと思います。 目次 第一回は、知識ベースの話を記載しました。 第二回では実際に動かし、ベンチマークする上でのテクニックに関して記載します。 第一回(6日目) ディスクIOの仕組みについてある程度理解する Rook/Cephのアーキテクチャについて留意しておく 第二回(13日目) なにを測定したいのかを明確に
こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」6日目は、タイトルの通り、ストレージ初心者だった筆者がCephのベンチマークを計測した際に学んだストレージシステムの性能指標とCephに代表されるような分散ストレージを計測する上での特徴や注意点について簡単にまとめます。 Rookではなくてもクラウドネイティブなストレージに関する投稿であればヨシという参加条件でしたので、Rookでもよく利用されているCephをこよなく愛する筆者としては、のりと勢いだけで応募しました。ろくに熟考もせず記載しているため間違いがあれば優しくご指摘ください! はじめに さて、本記事は上記の通り、ストレージ素人だった筆者がCephのベンチマーク等を担当したときに、事前にこんな知識を知っておきたかったと感じた事柄について、記載したいと考えております。 また断り
State of Persistent Storage in K8s — A Benchmark This is an unscientific review of storage solutions for Kubernetes. This solves a problem where you need to provision a Persistent Volume using the nodes disk storage, while having a redundancy if a node is damaged or restarted. My motivation is that I´m migrating my company fleet of servers from multiple Bare Metal dedicated servers to a Kubernetes
まいど。レッドハットでストレージを中心にクラウドインフラを生業にしている宇都宮です。 Red Hat Forum Tokyoの準備にかまけてすっかり間があいてしまいました(汗) 去る11/15にRed Hat Forum Tokyoがありました。足を運んでくださった皆さん、ありがとうございました。 今年のForumではROOK CHALLENGEという展示ブースの一角を担当させていただきました。中身はほぼDIY工作だったのでめっちゃ疲れましたが、めっちゃ楽しかったです。とにかく目立つ異様な一角を提供できたかなーと思います。 ROOK CHALLENGEは12/09開催予定のJapan Rook Meetup#1と、12/20開催予定のOpenShift.RUNの両方で展示する予定です。 引き続き、RookとOpenShift Japan CommunityのTwitterアカウント、@ja
TL;DR CSIはKubernetesなどからストレージを扱うインターフェースのこと。 Kubernetes CSI Developer Documentationに実装すべき事項、サンプルが整理されている。 Rook v1.0+Ceph CSIも上記に準拠して実装されていることを確認する。 そもそもCSIとは CSIはContainer Storage Interfaceの略で、ここからも分かるとおり、Kubernetesだけを対象としたものではなく、コンテナオーケストレーションツールからストレージを扱うインターフェースを定めた規格です。 Kubernetesでは1.13からGAとなっているため、先日書いたこの投稿やこちらでも1.13.4を使って検証を行っています。 CSIがそれ以前のストレージ関連機能と何が違うのか?という観点では、in-treeかout-of-treeかということが
DBのようなデータを抱えるStatefulアプリケーションを動かすためには、Kubernetesと連携したストレージが必要不可欠です。特にプライベートクラウドでは、Kubernetesと相性の良いストレージを選ぶことが重要になります。本講演では、弊社で取り組んでいるStatefulアプリケーション向けKubernetesにおけるストレージ選びの5つのポイントについて紹介します。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く