並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 93件

新着順 人気順

RDMAの検索結果1 - 40 件 / 93件

  • Linus Torvalds 氏の理想の git 運用と GitHub

    Note 本記事の内容は Linus 氏の発言が人を傷つける場合に筆者がそれを良しと考えるといった意図はございません 少し古い記事になるが、 Linus Torvalds 氏 の GitHub に対する苦言が記事になっていた。 LinuxカーネルにNTFSドライバーが追加、トーバルズ氏はGitHub経由のマージに苦言 - ZDNet Japan Linus 氏が GitHub について苦言を呈するのは今に始まったことではない(後述)が、 別に GitHub のすべてを否定しているわけではない。[1] では一体何が不満なのか。Linus 氏の理想とする git の開発フローを考察した上で、整理してみたい。 Linus 氏の理想 結論からいうと、 「意味あるコミットを作れ」「コミットを大事にしろ」 という思想が伺える。 では 「意味あるコミット」「大事にされたコミット」 とは何なのか。 筆者な

    • 仮想マシンのメモリを、ネットワーク経由でほかのサーバから拝借して増やせる「VMware Cluster Memory」、VMwareが開発中

      仮想マシンのメモリを、ネットワーク経由でほかのサーバから拝借して増やせる「VMware Cluster Memory」、VMwareが開発中 VMwareは、仮想マシンに別のサーバに搭載されているメモリをネットワーク経由で利用する能力を持たせることで、ホストサーバが搭載する物理メモリ以上のメモリ容量を仮想マシンで利用できるようにする「VMware Cluster Memory」機能を開発していることを、VMworld 2019 USのセッションで明らかにしました。 RDMAを使って高速に別サーバのメモリにアクセス 「VMware Cluster Memory」実現の背景には、ネットワークの高速化が進んだことで、ネットワーク経由でのリソースアクセスのレイテンシがマイクロセカンドレベルにまで縮小し、ネットワーク経由でメモリにアクセスするRDMA(Remote Direct Memory Acc

        仮想マシンのメモリを、ネットワーク経由でほかのサーバから拝借して増やせる「VMware Cluster Memory」、VMwareが開発中
      • 秒速で10億レコードを処理する話 - KaiGaiの俺メモ

        これまでのPG-Stromの性能測定といえば、自社保有機材の関係もあり、基本的には1Uラックサーバに1CPU、1GPU、3~4台のNVME-SSDを載せた構成のハードウェアが中心だった。*1 ただソフトウェア的にはマルチGPUやNVME-SSDのストライピングに対応しており、能力的にどこまで伸ばせるのかというのは気になるところである。 そこで、方々に手を尽くして、次のようなベンチマーク環境を整備してみた。 (機材をお貸し頂いたパートナー様には感謝感激雨あられである) 4UサーバのSYS-4029GP-TRTというモデルは、GPUをたくさん乗っけるためにPCIeスイッチを用いてPCIeスロットを分岐している。ちょうど、PCIeスイッチ1個あたり2個のPCIe x16スロットが用意されており、同じPCIeスイッチ配下のデバイス同士であれば、完全にCPUをバイパスしてPeer-to-Peerのデ

          秒速で10億レコードを処理する話 - KaiGaiの俺メモ
        • Linux でのハングタスクについて - 赤帽エンジニアブログ

          Red Hat でコンサルタントをしている菅原と申します。 この記事では、意外とあまり説明されていないような気がする Linux システムで発生するハングタスクについて少し説明したいと思います。現場のシステムでもハングタスク検知の設定がされていることが多いと思いますが、ハングタスクとは何なのかを正しくご理解いただくことで、ハングタスク検知を行う目的が明確になること、また、実際の障害事例もご紹介することで、通常あまりハングタスクと関連づけて考えないような設定でもハングタスク発生につながる場合があることを知っていただき、少しでもシステム管理や障害の理解、障害対応などのお役に立てれば幸いです。 なお、この記事では RHEL のみを対象に書いていますが、他の Linux ディストリビューションにも適用される内容と思います。 ハングタスク (hung tasks) とは ハングタスクとは読んで字のご

            Linux でのハングタスクについて - 赤帽エンジニアブログ
          • Google、イーサネットをさらに高速にするハードウェア支援型の新トランスポート技術「Falcon」を公開

            Google、イーサネットをさらに高速にするハードウェア支援型の新トランスポート技術「Falcon」を公開 Googleは、イーサネットでさらなる高速通信を実現するハードウェア支援型の新しいトランスポートレイヤの技術「Falcon」を、米カリフォルニア州サンノゼで開催されたデータセンター向けハードウェアを対象としたイベント「2023 OCP Global Summit」で発表したことを明らかにしました。 AIや機械学習のような大規模かつ高速性を要求される処理が増え続けるデータセンターにおいて、より高速なネットワーク技術への要求も高まっています。Falconはこうしたニーズに対応するための技術だと説明されました。 Falconは複数の技術の集合体 Falconは複数の技術の集合体となっており、ハードウェア支援型トランスポートレイヤーとして信頼性、高性能、低レイテンシーを実現するよう設計されて

              Google、イーサネットをさらに高速にするハードウェア支援型の新トランスポート技術「Falcon」を公開
            • 不揮発メモリに対するLinux周辺動向 (2021年版) - Qiita

              はじめに この記事は Fujitsu Advent Calendar 2021 25日目の記事です。(記事は個人の見解であり、組織を代表するものではありません。) さて、今年もこれまでと同じく不揮発メモリの記事を書きます。今回は以下の内容です。 不揮発メモリ周りの規格・新仕様(CXL, RDMA) メモリ不足時の不揮発メモリの活用 Filesystem-DAXの動向 不揮発メモリ周りの規格・新仕様 今年は規格回りでいくつか新仕様が策定されています。まずは、それらについてざっくりと解説していきましょう。 CXLの不揮発メモリ対応 これまではNVDIMM、すなわちDRAMと同じようにCPU中のメモリコントローラからDDR4で直接つながるデバイスであった不揮発メモリですが、ここへきて新たな接続方法が追加されようとしています。それがCompute Express Link(CXL)です。 コンピュ

                不揮発メモリに対するLinux周辺動向 (2021年版) - Qiita
              • 不揮発性メモリに最適化したMySQLの高可用性構成

                ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog みなさん、こんにちは! ヤフーでデータベースエンジニアをしている松浦です。 以前、不揮発性メモリに最適化したMySQLのストレージエンジン開発についてのブログ記事を執筆いたしました。 今回のブログ記事は、その続報です。不揮発性メモリ上のデータベースにおける、高可用性構成やその監視・運用に関わる研究開発成果をご紹介します。 前回記事の振り返り さて、本題に入る前に、まずは、前回のブログ記事の簡単な振り返りをさせてください。 前回のブログ記事では、DRAMのようにバイト単位でアクセスが可能だが、DRAMとは異なり、サーバの電源遮断後もデータが残り続け、また、NVMe SSDよりも高速な記憶デバイスである「不揮発性メモリ」の紹介をしまし

                  不揮発性メモリに最適化したMySQLの高可用性構成
                • GPUDirect SQL on NFS-over-RDMAを試す - KaiGaiの俺メモ

                  タイトルでほぼほぼ出オチですが、先日、NVIDIAからCUDA Toolkit 11.4と共にリリースされた新機能GPUDirect Storage 1.0のドキュメントを読んでいると、面白い記述を見つけた。 曰く、MOFEDドライバ5.3以降と、Mellanox Connect-X4/5の組み合わせで、NFS-over-RDMAとGPUDirect Storageを組み合わせ、リモートのNFS区画からローカルのGPUへと直接のデータ転送を行う事ができるようになる、と。 14.10. NFS Support with GPUDirect Storage This section provides information about NFS support with GDS. 14.10.2. Install GPUDirect Storage Support for the NFS Cli

                    GPUDirect SQL on NFS-over-RDMAを試す - KaiGaiの俺メモ
                  • NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog

                    『NVLink Bridgeで複数GPUを繋いだら、それらが1GPUとして扱えるようになるんでしょ?』という誤解をされているお客様をしばしばお見受けいたします。こちらの記事では、それが誤解であること、また、SLIやUnified Memoryといった関連する情報についても整理して解説いたします。間違った期待を抱いて失敗しないように、正しい理解を深めていきましょう。 GPUのメモリ空間は他デバイスから隔絶されています GPU上には演算するためのプロセッサと、データを一時的に置いておくためのメモリ(VRAM)が搭載されています。GPUのメモリを、CUDAで書かれたプログラムから利用するには、cudaMallocでメモリ領域を確保し、cudaMemcpyを使ってホスト(CPU側)のメモリとデータの送受信を行い、GPU上で演算kernelとする関数(以下、GPU-Kernel)を呼び出し、最後にc

                      NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog
                    • cgroupsに影響するLinuxの新たな脆弱性CVE-2022-0492 コンテナエスケープの条件は

                      By Yuval Avrahami March 3, 2022 at 5:09 PM Category: Cloud Tags: containers, CVE-2022-0492, Linux, vulnerabilities This post is also available in: English (英語) 概要 2022年2月4日、Linuxはカーネルにおける新たな特権昇格脆弱性CVE-2022-0492を公表しました。CVE-2022-0492はコンテナの基本構成要素であるLinuxの機能、コントロールグループ(cgroup)における論理バグです。この問題は最近発見されたLinuxの権限昇格脆弱性のなかでもとりわけその単純さできわだつもので、「Linuxカーネルが誤って特権的オペレーションを非特権ユーザーに公開してしまった」という内容になっています。 さいわい、ほとんどのコン

                        cgroupsに影響するLinuxの新たな脆弱性CVE-2022-0492 コンテナエスケープの条件は
                      • 2022年の不揮発メモリとLinux対応動向について - Qiita

                        この記事は、Fujitsu Advent Calendar 2022の25日目の記事です。 「え、まだこのネタで書くの?」と思う方もいらっしゃるかもしれませんが、ええ、今年もこのネタで書きます。 1. NVDIMMの終焉とCXLの台頭 1.1 Intel Optane Persistent Memory これを読む皆さんはおそらくご承知のことでしょう。NVDIMMの最有力製品であったIntel Optane Persisntent Memoryのビジネスは、残念ながら終焉に向かうことが以下のように発表されました。 In Q2 2022, we initiated the winding down of our Intel Optane memory business. 実は発表と同時にすぐに製品出荷を終了してしまったわけではありません。以下の記事から少し引用します。 既存のOptane永続

                          2022年の不揮発メモリとLinux対応動向について - Qiita
                        • [PATCH 000/190] Revertion of all of the umn.edu commits - Greg Kroah-Hartman

                          linux-kernel.vger.kernel.org archive mirror help / color / mirror / Atom feedFrom: Greg Kroah-Hartman <gregkh@linuxfoundation.org> To: linux-kernel@vger.kernel.org Cc: Greg Kroah-Hartman <gregkh@linuxfoundation.org>, Linus Torvalds <torvalds@linux-foundation.org>, Aditya Pakki <pakki001@umn.edu>, Kangjie Lu <kjlu@umn.edu>, Qiushi Wu <wu000273@umn.edu>, x86@kernel.org, Bjorn Helgaas <bhelgaas@googl

                          • 深層学習のための分散キャッシュシステム - Preferred Networks Research & Development

                            エンジニアの上野です。Cluster Servicesチームという、PFNのKubernetesベースの機械学習基盤を開発・運用するチームに所属して、基盤の改善や新機能の開発に務めています。本記事では、深層学習における学習データセット読み込み速度の改善を目指して開発し、現在もKubernetes上で運用中の分散キャッシュシステムを紹介します。 PFNの機械学習基盤については、ブログ「2022年のPFNの機械学習基盤」もご参照ください。 深層学習における学習データセット読み込み 深層学習を高速化するため、深層学習に向いたアクセラレータの開発が日々続けられています。PFNで開発しているMN-Coreシリーズや、NVIDIA社製GPUもそのひとつです。これらのアクセラレータは高速に行列演算を行うことができ、深層学習の1イテレーションにかかる時間を高速化、ひいては深層学習を活用する研究開発全体を加

                              深層学習のための分散キャッシュシステム - Preferred Networks Research & Development
                            • Accidentally Turing-Complete

                              Accidentally Turing-Complete Some things were not supposed to be Turing-complete. This is a collection of such accidents. Stuff which is somehow limited (stack overflows, arbitrary configuration, etc) is still considered Turing complete, since all "physical" Turing machines are resource limited. C++ Templates Although they were initially not supposed to, C++ templates are Turing-complete. For proo

                              • Intelのプロセッサの脆弱性を利用したNetCAT攻撃はSSHセッションの入力内容や通信内容の窃取が可能

                                by david latorre romero Intelのプロセッサに搭載されている、処理速度向上と消費電力削減を実現するData Direct I/O(DDIO)技術を悪用することで、キーの入力内容やサーバーとの通信内容を盗み取られる恐れがあると研究者が警告を発しています。 INTEL-SA-00290 https://www.intel.com/content/www/us/en/security-center/advisory/intel-sa-00290.html NetCAT - VUSec https://www.vusec.net/projects/netcat/ Weakness in Intel chips lets researchers steal encrypted SSH keystrokes | Ars Technica https://arstechnica

                                  Intelのプロセッサの脆弱性を利用したNetCAT攻撃はSSHセッションの入力内容や通信内容の窃取が可能
                                • MN-2が動き出しました - Preferred Networks Research & Development

                                  先日リリースさせて頂いたとおり,MN-2の構築を行っています.MN-2は最新世代の,1024基のNVIDIA(R) V100 GPUが計算力の主力となります.現在利用しているMN-1およびMN-1bにおいて1024基のP100と512基のV100を稼動させていますが,MN-2の追加によりGPU数換算で合計2560基となり,保有計算力を大幅に強化しました.とはいえ,現時点ではKubernetesをはじめとしたソフトウェアサービススタックのセットアップ中であり,GPUは主にベンチマークを実施して状態確認を行っている段階です. PFNでリサーチャをやっている,土井裕介です.最近はリサーチ業務はあまりやっておらず,社内インフラ関係の全体の世話役のような業務が主担当になっています.今回,物理構築が一段落したのでBlogにてMN-2の概要やポイントを紹介させて頂きます. なぜMN-2を作るのか? よく

                                    MN-2が動き出しました - Preferred Networks Research & Development
                                  • 【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】

                                      【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】
                                    • コンテナ関連技術の現状を確認しておく

                                      はじめに 今回から、コンテナのセキュリティについて考えるコラムを始めます。ここで言うコンテナは、OSコンテナではなくアプリケーションコンテナです。 このコラムでは以下の用語を使用します。 コンテナ(=アプリケーションコンテナ) Docker CE Containerd コンテナオーケストレーションツール Kubernetes Swarm コンテナおよびオーケストレーションツールにも複数の実装があります。ここでは、OSSで公開される上記のプロジェクトを対象とします。 Docker以前のコンテナ技術 アプリケーションコンテナの歴史は、いわゆる汎用機の仮想化機能まで遡ります。その後UNIX(およびUNIX like OS)では、概ね以下の順でsystem callや準仮想化(Para-Virtualization)の技術を使ってきました。 chroot(UNIXおよびUNIX like OS)

                                        コンテナ関連技術の現状を確認しておく
                                      • Building Meta’s GenAI Infrastructure

                                        Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters. We are sharing details on the hardware, network, storage, design, performance, and software that help us extract high throughput and reliability for various AI workloads. We use this cluster design for Llama 3 training. We are strongly committed to open compute and open source. We built these clusters on top of

                                          Building Meta’s GenAI Infrastructure
                                        • FocalFossa/ReleaseNotes - Ubuntu Wiki

                                          Introduction These release notes for Ubuntu 20.04 LTS (Focal Fossa) provide an overview of the release and document the known issues with Ubuntu 20.04 LTS and its flavors. For details of the changes applied since 20.04, please see the 20.04.6 change summary. The release notes for 20.04, 20.04.1, 20.04.2, 20.04.3, 20.04.4 and 20.04.5 change summary are available as well. Support lifespan Maintenanc

                                          • AI/ML基盤の400G DCネットワークを構築した話 - JANOG52 Meeting in Nagasaki

                                            JANOGプログラム内田 泰広(株式会社サイバーエージェント) 小障子 尚太朗(株式会社サイバーエージェント) |10:15|10:45 English information here 概要 サイバーエージェントではCycloudという社内向けのプライベートクラウドを構築・運用しています。 ML Platformとして独自の機械学習基盤を提供しており、今回初めてGPU間を高速接続するためのロスレス・低遅延な400Gインターコネクトを構築しました。 本発表では、国内外で事例の少ない400G DCネットワークを導入するにあたって工夫したことと苦労したことを共有し、 これからのネットワークとコンピューティングに求められる技術や課題などについて議論できればと思っています。 場所 2F コンベンションホール 日時 Day3 2023年7月7日(金) 10:15~10:45(30分) 発表者

                                              AI/ML基盤の400G DCネットワークを構築した話 - JANOG52 Meeting in Nagasaki
                                            • PFNのKubernetesクラスタのCNI Plugin - Preferred Networks Research & Development

                                              エンジニアの清水です。PFNでは、計算アクセラレータとしてGPUを採用するMN-2と自社開発のMN-Coreを採用するMN-3をKubernetesクラスタとして運用しており、その中でCNI Pluginを内製開発して使っています。このブログでは、内製CNI Pluginの話を中心にこれまでPFNのKubernetesクラスタのネットワーク部分、特に、CNI Pluginの構成とその変遷について紹介し、また最後に今後の展望についても触れます。 目次 なぜCNI Pluginを内製したのか? 内製CNI Pluginの特徴 Kubernetesクラスタのネットワーク構成(第1世代) 運用中に見つかった課題 時間が経過すると割り当て可能なVFが無くなる Podの起動直後にCluster IPを使った通信ができない kube-proxyのリソース使用量が増加し続ける Kubernetesクラスタ

                                                PFNのKubernetesクラスタのCNI Plugin - Preferred Networks Research & Development
                                              • 第48回 cgroup v2から使うコントローラとmiscコントローラ | gihyo.jp

                                                5.13カーネルを使っており、デフォルトでcgroup v2のみがマウントされているUbuntu 21.10の環境では、root cgroup配下のcgroup.controllersは次のようになっています。 $ uname -r 5.13.0-21-generic $ grep cgroup /proc/self/mountinfo 35 25 0:30 / /sys/fs/cgroup rw,nosuid,nodev,noexec,relatime shared:9 - cgroup2 cgroup2 rw,nsdelegate,memory_recursiveprot $ cat /sys/fs/cgroup/cgroup.controllers cpuset cpu io memory hugetlb pids rdma misc Ubuntu 21.10のような新しい環境では、

                                                  第48回 cgroup v2から使うコントローラとmiscコントローラ | gihyo.jp
                                                • Sending Udp Multicast Messages From Container To Host

                                                  Visiteurs depuis le 26/01/2019 : 4344 Connectés : 1 Record de connectés : 16 Sending Udp Multicast Messages From Container To Host CrosswordI have a container based on a Ubuntu 16.04 image running on my Mac, and I would like to send UDP messages to UDP Multicast group at. Multicast message delivery provides the fastest means of delivering messages to a large set of receivers. Low Latency Messaging

                                                    Sending Udp Multicast Messages From Container To Host
                                                  • 新たにカーネルでTCPオプションヘッダに書き込んだ情報をTCPセッション確立時にユーザランドでどう取得すべきか - 人間とウェブの未来

                                                    追記:2020-06-05 このエントリの背景が雑だったので以下に補足記事を書きました。先にこちらに目を通していただいた方が良いかもしれません。 https://hb.matsumoto-r.jp/entry/2020/06/05/110709 speakerdeck.com 今tcprivというソフトウェアを開発しているのだが、細かい内容については上記のスライドを見てもらうとして、やりたいことは、TCPセッションを確立するプロセスのオーナ情報を接続先のプロセスで透過的に検証するという処理である。 github.com 以下ではその実装の概要を紹介しつつ、今検討していることについてお話したい。 接続元プロセスは一般ユーザを想定しており、脆弱性などによって悪意のあるユーザにのっとられることもありうるし、とあるプロセスが利用する認証情報も漏れることがあることを想定している。 しかし、情報が漏れ

                                                      新たにカーネルでTCPオプションヘッダに書き込んだ情報をTCPセッション確立時にユーザランドでどう取得すべきか - 人間とウェブの未来
                                                    • オラクル、OLTP/OLAP性能ともに最大で3倍以上とする「Oracle Exadata X10M」発表、96コアの第四世代AMD EPYCに最適化

                                                      オラクル、OLTP/OLAP性能ともに最大で3倍以上とする「Oracle Exadata X10M」発表、96コアの第四世代AMD EPYCに最適化 Exadataはハードウェア、OS、ネットワーク、ストレージ、コンピュートをすべてデータベースに最適化して構築されたデータベース専用マシンです。 OLTPだけでなく内部でデータベースをインメモリのカラム型データベースに変換することで高速なOLAP処理も実現します。 Exadata X10Mの筐体内ではRoCE(RDMA over Converged Ethernet)により100GB/sのRDMAで高速なデータ転送を実現。コンピュートやストレージを増設することで性能や容量が向上するスケールアウト構成を可能にしています ソフトウェアをAMD EPYCに最適化し、大幅性能向上 主なハードウェア仕様は、最大でデータベースサーバに96コアCPU、3T

                                                        オラクル、OLTP/OLAP性能ともに最大で3倍以上とする「Oracle Exadata X10M」発表、96コアの第四世代AMD EPYCに最適化
                                                      • Windows10 Insider 18917 で WSL2 が来たので雑にボリュームマウントのベンチマークとってみた(追記あり) - Qiita

                                                        Windows10 Insider 18917 で WSL2 が来たので雑にボリュームマウントのベンチマークとってみた(追記あり) WSL2 とは 2019年5月に開催された Build 2019 で発表されたもので、今までの Windows Subsystem for Linux(WSL) のアーキテクチャから大きく変えたものとして発表されたものになります。 今までの WSL では Linux カーネルは動いておらず Linux のシステムコールを変換して動いていましたが、WSL2 では Hyper-V 上で Linux の軽量VM を動作させるという形に変わりました。 遠くから目を細めて眺めると、Docker Desktop(以前はDocker for Windowsと呼ばれていたもの)と同じように見える感じになったので、じゃあどれくらい違うのかといったことを雑にボリュームマウント周り

                                                          Windows10 Insider 18917 で WSL2 が来たので雑にボリュームマウントのベンチマークとってみた(追記あり) - Qiita
                                                        • 中国のGPUメーカー「Moore Threads」がAIトレーニングやデータセンター向けGPU「MTT S4000」を発表

                                                          中国の新興GPUメーカー「Moore Threads」が、2023年12月19日にAIのトレーニングやデータセンター向けGPU「MTT S4000」を発表しました。公式発表によると、MTT S4000のMUSIFYツールはNVIDIAのCUDAとの完全な互換性があるとのことです。 摩尔线程首个千卡智算中心落地,从算力到生态全面加速大模型发展 | 摩尔线程 https://www.mthreads.com/news/146 Nvidia's biggest Chinese competitor unveils cutting-edge new AI GPUs — Moore Threads S4000 AI GPU and Intelligent Computing Center server clusters using 1,000 of the new AI GPUs | Tom's H

                                                            中国のGPUメーカー「Moore Threads」がAIトレーニングやデータセンター向けGPU「MTT S4000」を発表
                                                          • 最新ハードウェアを活用するMySQLストレージエンジンの共同研究

                                                            ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog 現在、ヤフーではLINEと協働して、最新ハードウェアを有効活用する独自のMySQLストレージエンジンの研究開発を行っています。まずは共同研究開発の動機となる「Unleash the Power of Data:データの力を解放する」のコンセプトについて説明します。 データが人々の活動を支えると同時に、人々の活動も有益なデータを生み出します。人々の知る、買う、つながる、楽しむといった活動はデータによって支えられています。 例えば、インターネットで物を買う場合、商品情報はデータベースにデータとして保存されます。インターネットで音楽を楽しむ場合に、音楽のデータもデータベースに保存されます。ヤフーとLINEでも、インターネットにおける人々

                                                              最新ハードウェアを活用するMySQLストレージエンジンの共同研究
                                                            • Intelの次期CPU「Alder Lake」、2種類のCPUコアを積む構造と性能 - Intel Architecture Day 2021レポート

                                                              レポート Intelの次期CPU「Alder Lake」、2種類のCPUコアを積む構造と性能 - Intel Architecture Day 2021レポート 先日Intelはプロセスロードマップを紹介するIntel Acceleratedを開催したが、これに引き続き8月18日に、やはりオンラインの形でIntel Architecture Day 2021を開催して製品ロードマップや新製品の紹介を行った。 ちなみに来週開催されるHotChips 33でIntelはAlder Lake/Sapphire Rapids/Ponte Vecchio/Mount Evansに関して論文発表を行うほか、初日のTutorial Sessionでは"Intel packaging technologies for chiplets and 3D"と題したTechnology Providerセッション

                                                                Intelの次期CPU「Alder Lake」、2種類のCPUコアを積む構造と性能 - Intel Architecture Day 2021レポート
                                                              • 実効速度 Over 20G 高速ネットワークを予算1.5万円で作る - Qiita

                                                                なんと GbE は HDD よりも遅い. このHDDの記録は自宅にあった WD Blue 5400RPM を適当に Crystal Disk Mark で計測したものです.特にハイエンドHDDというわけではありませんがHDDよりもGbEの方が遅いのです. 更に業務PCや逸般の誤家庭などで,HDDやSSD数枚でRAIDで組んだり,NASだけどNVMe SSDで構成しているような場合は 10GbE でもネットワークがボトルネックになります. 例えば映像クリエイターで動画素材をサーバーに置いた状態でレンダリングをするレンダークラスタをお持ちの方や,サーバーいじりや機械学習などで大量のデータが入ったVHDをNASに置いて運用しているなどの状況ではモロにこのGbEがボトルネックになります. 我が家の場合はサーバーに置いた動画データやVHDのコピーや,デスクトップPCのバックアップをサーバーに転送して

                                                                  実効速度 Over 20G 高速ネットワークを予算1.5万円で作る - Qiita
                                                                • Apache Arrow Flightの紹介:高速データトランスポートフレームワーク

                                                                  Published 13 Oct 2019 By Wes McKinney (wesm) Translations 原文(English) この1.5年、Apache ArrowコミュニティーはFlightの設計と実装を進めてきました。Flightは高速なデータトランスポートを実現するための新しいクライアント・サーバー型のフレームワークです。Flightを使うとネットワーク越しに大きなデータセットを送る処理を簡単に実現できます。Flightは特定用途向けに設計されたものではないため、幅広い用途で利用できます。 Flightの実装は、まず、gRPCを使ったArrow列指向フォーマット(つまり「Arrowレコードバッチ」)のトランスポートの最適化に注力しました。gRPCはGoogleが開発しているHTTP/2ベースのRPCライブラリー・フレームワークで、広く利用されています。gRPCも特定用途

                                                                    Apache Arrow Flightの紹介:高速データトランスポートフレームワーク
                                                                  • 第782回 MellanoxのOFEDドライバーをセキュアブートが有効化されたUbuntuにインストールする | gihyo.jp

                                                                    NVIDIA MellanoxのNICである「ConnectX」シリーズはUbuntuカーネルに組み込まれたドライバーでも基本的な機能は動くのですが、Mellanox自身がより高機能な周辺ツールを含むソフトウェアパッケージを「OFEDドライバー」として提供しています。今回はこのOFEDドライバーを、セキュアブートが有効化されたUbuntuにインストールする方法を紹介しましょう。 SmartNICで使えるInboxドライバーとOFEDドライバー 2019年にNVIDIAに買収されたMellanoxは、HPC(High-Performance Comuting)やデータセンターなどに向けて、高速なネットワークデバイスを提供する会社でした。現在でもMellanox時代に由来する製品は、Mellaoxのブランド名を冠して提供されています。そのNVIDIA Mellanoxの代表的な製品のひとつが「

                                                                      第782回 MellanoxのOFEDドライバーをセキュアブートが有効化されたUbuntuにインストールする | gihyo.jp
                                                                    • MITの分散システムの講義 6.824: Distributed Systems が面白かった件 - Qiita

                                                                      これは何? 分散システム初学者が、MITの院生向け講義 6.824: Distributed Systems を一通りやってみたので、その内容をまとめる。 分散システムなる分野に入門したいと思った際の一つの選択肢として個人的にオススメできるコンテンツだったので、この場で広く推すために書いている。 Lab3で扱うRaftのアーキテクチャ図より引用1 きっかけ 元々のモチベーションとしては、お仕事周りでAurora2やDynamo3、EBS4といった文献に目を通す中で、そもそも根底にある分散システムという分野を全然知らない。俺たちは雰囲気でクラウドをやっている(画像略)5…という気分になったのがきっかけだった。 ちょうど年末の空き時間に分散システムのオススメコンテンツを探している中で、推されていたこのコンテンツに出会ったのが12月末。その後は仕事の後など空き時間にちまちまやって、結局Lab3ま

                                                                        MITの分散システムの講義 6.824: Distributed Systems が面白かった件 - Qiita
                                                                      • AWSが拓いたLustreファイルシステム新時代 -1- | HPCシステムズ Tech Blog

                                                                        はじめに HPCとはHigh Performance Computingの略で、一般には科学技術計算を意味すると認識されています。ところが、この中にどこにも「科学」とか「技術」とかの単語はありません。HPCの定義として高速にデータ処理をするもの全般として広くとらえた方が良いと、ずっと個人的には考えていますが、まだまだ一般的な考え方とは言えないのが現状です。 さて、最初にAWSがLustreをやると聞いた時は、旧来のHPC以外の人はそもそもLustreなんて知らないし、使う理由もないのでは?と思っていました。実際、Lustreをメインのストレージとして使うには初期投資が大きくなりがちで、性能要件から構成を決定する必要もあり、大容量(数百TB〜数PB)が前提となるため、クラウドに組み込むには面倒なわりに、多くのケースにフィットしないように思えます。実際、かなり以前からMarketPlaceにA

                                                                          AWSが拓いたLustreファイルシステム新時代 -1- | HPCシステムズ Tech Blog
                                                                        • 同じSSDでもなぜ「NVMe」接続はSASやSATAとは“別物”なのか?

                                                                          関連キーワード SSD | 半導体ストレージ | ハードディスク | ストレージ SSDをより深く知る上でとりわけ重要であり、ストレージの購入や運用においても頻繁に接することになるのが「NVMe」(Non-Volatile Memory Express)だ。これがストレージの接続に関わる仕組みであることを知っている人は少なくない。 NVMeは「SATA」(Serial ATA)のような類似する規格とは何が違い、そうした規格とは“別物”だと見ることができるのはなぜなのか。その根拠となる点を解説しよう。 「NVMe」がSASやSATAとは“全然違う”理由はこれだ 併せて読みたいお薦め記事 駆逐するSSD、生き残るHDD 第1回:SSD、HDDの違いが消える 「HDD不要論」は“ガセ”じゃなかった? 第2回:SSDによる「HDD代替」をリアルな話に変えた“QLCの進化”とは? 第3回:SSDには

                                                                            同じSSDでもなぜ「NVMe」接続はSASやSATAとは“別物”なのか?
                                                                          • 【InfiniBandの現在】HBAとMPIとの組み合わせで、低レイテンシーを安価に実現した「RDMA」【ネット新技術】

                                                                              【InfiniBandの現在】HBAとMPIとの組み合わせで、低レイテンシーを安価に実現した「RDMA」【ネット新技術】
                                                                            • FocalFossa/ReleaseNotes/Ja - Ubuntu Wiki

                                                                              イントロダクション このリリースノートには、Ubuntu 20.04 LTS (Focal Fossa) のリリース概要と Ubuntu 20.04 LTS とそのフレーバーに関する既知の不具合を記述しています。20.04から適用された変更の詳細については、20.04.1 変更の概要(英語)を確認できます。同様に20.04のリリースノートも確認できます(訳注:原文も現在は同じページにリダイレクトしています)。 サポート期間 Ubuntu Desktop、Ubuntu Server、Ubuntu Cloud、Ubuntu Coreのメンテナンスアップデートは 2025年4月 まで5年間サポートされます。そのほかすべてのフレーバーは3年間サポートされます。追加のセキュリティサポートはESM (Extended Security Maintenance) が利用できます。 公式フレーバーのリリー

                                                                              • DBの負荷分散手法 | エンジニアの何でもメモ帳

                                                                                DBの負荷分散の手法について世の中にある手法についてかなり忘れてしまってきているので、最勉強を兼ねてざっくりと調べてみました。 設計の見直しとチューニング 負荷分散では無いですが、分散設計を考える前に、設計の見直しや、チューニングで救えるケースの方が多いと思うので少しだけ。 設計の見直しやチューニングをしないと、無限にリソースが必用になるので、ここはある程度きちんとやった方が良いと思う。(オンプレでは新規 HWを調達するのは難しいので、通常これをやるしかなくなる) DBの設計を見直す 正規化(データの冗長製の排除)だけだとデータ結合が必用になる事がありパフォーマンスに問題が出ることがある。非正規化(データを冗長に持つ)事も考える。 「スケールアウト」の所で後述するが、既存の DB でデータのリレーションが薄いものは、別 DBとして分割する事で負荷分散される事もできる。 DBのチューニング

                                                                                  DBの負荷分散手法 | エンジニアの何でもメモ帳
                                                                                • RDMA はいかにして高速ネットワークを加速するようになったのか | NVIDIA

                                                                                  お使いのブラウザーは対応していません。 お使いのウェブブラウザーはこのウェブサイトでは対応していません。いくつかの機能が正常に動作しない可能性がございます。アップグレートいただくか下記のブラウザーのどれかをインストールください。よろしくおねがいします。 世界最大級のスーパーコンピューターやデータセンターを加速するネットワーク技術が今年トップクラスの合併を生み、AI の進化に拍車をかける 高速ネットワークを実現する優れたアイデアでありながらも人目につかなかったリモート ダイレクト メモリ アクセス (RDMA) が、世界最速のスーパーコンピューターのジェット燃料へと上り詰めるまでには、2 つの偶然の出会いがありました。 それらの幸運の始まりは、RDMA ベースのネットワークである InfiniBand に社運をかけていたイスラエル拠点のスタートアップに訪れた運命的な縁でした。後に、そのスター

                                                                                    RDMA はいかにして高速ネットワークを加速するようになったのか | NVIDIA