タグ

KVMに関するrin51のブックマーク (33)

  • KVM ライブマイグレーションの仕組み - Qiita

    はじめに 記事では、以下に示す KVM(QEMU) でライブマイグレーションを行う際の代表的な3つの方式とそれぞれの特徴について説明する。 Pre-Copy ライブマイグレーション Post-Copy ライブマイグレーション Hybrid-Copy ライブマイグレーション 実際に商用環境で VM を使用する状況において、場合によっては dirty ページ率の高い VM やメモリサイズの大きい VM は、アプリケーション特性に合わせて、マイグレーション方式の変更やチューニングの検討を行うことも必要となってくる。 その際に、記事で記載しているような基的なライブマイグレーションの内部処理については抑えておいた方が検討や対応スムーズに行えると思う。 VM ライブマイグレーションとは VM ライブマイグレーションとは、VM 上のアプリケーションを停止することなく、VM を自身が配置されている物

    KVM ライブマイグレーションの仕組み - Qiita
  • libvirt: virsh

  • 8 Linux virsh subcommands for managing VMs on the command line

  • KVM Cheatsheet | Programster's Blog

    Programster's Blog Tutorials focusing on Linux, programming, and open-source Table of Contents Related Posts Guest Management List Guests Change Guest State (Shutdown/Reboot etc) Save Guest Load Guest (restore) Clone Guest Migrate Guest Rename Guest Define Guest Undefine Guest Edit Guest Configuration Autostart Management Console Guest Querying Snapshotting Networking CPU Management Resizing Memor

  • QEMUとNVMMによるハイパーバイザの利用

    QEMUとNVMMによるハイパーバイザの利用 NVMMとは NVMMのインストール NetBSDカーネルとモジュールのビルド qemu-nvmmパッケージのインストール 使い方 参考文献 NVMMとは NVMM(NetBSD Virtual Machine Monitor)はNetBSD x86_64アーキテクチャ上でハイパーバイザを提供するNetBSDカーネルの機能です。Xenと同じくNetBSDのソースコードに取り込まれているハイパーバイザですが、Xenと違いゲスト仮想マシン用のカーネル(Domain-U)を別途用意しなければならなかったり、ホスト側のカーネルがマルチコアに対応していたりしないわけではありません。LinuxカーネルのKVMやNetBSDのHAXMと同じく、ハードウェア仮想化にQEMUを用いて、QEMUのプラグインとしてハードウェアアクセラレーション(hardware-a

  • IBM Developer

  • KVMの仕組み - Qiita

    KVMとQEMU プロセスメモリの仮想化、Java仮想マシン、RubyマシンYARV、ネットワークの仮想化などなど、とかくこの世の中仮想しまくっっている。ということでこの前ハードウェア(CPUと各デバイス)をまるごと仮想化する仕組みKVMとQEMUをCentOS7上で操作してみたので自分なりに用語などまとめてみた。 KVMってなに? カーネル・モジュール。カーネルの機能。ロードするだけで仮想化機能使える。 実体はこの/dev/kvmデバイスファイル?。これを各プロセスがオープンすることで各プロセスが独自のメモリそしてソフトウェア的なCPUをもつこと。なのでKVMはこの一連の仕組の枠組みといえるはず。 タイプ ハイパーバイザ(完全仮想化)というタイプに分類。完全とはBIOSも含めたハードウェアを全部を仮想化すること。 同用語として仮想マシンモニタ CPU KVMを使用するにはCPUが仮想化に

    KVMの仕組み - Qiita
    rin51
    rin51 2020/12/06
  • VirtualBoxでUbuntu Core 18を試す - Qiita

    Ubuntu Core 18リリースのニュースを見たので、VirtualBoxで試してみました。 英Canonical、IoT向けとなる「Ubuntu Core 18」を公開。10年間のセキュリティアップデートを約束 https://mag.osdn.jp/19/01/23/163000 公式サイトにはKVMでのインストール手順がありましたが、VirtualBoxで試します。 Ubuntu Coreとは 上記サイトから引用すると以下の通りです。 Ubuntu Coreは、IoTや組み込み端末に向けたUbuntuベースのディストリビューション。コンテナでの利用にも適しているとしている。パッケージを最小構成にすることで260MBと軽量にし、セキュリティ、信頼性の向上も図っている。 試した環境 MacmacOS High Sierra(10.13.6) VirtualBox : 6.0.4

    VirtualBoxでUbuntu Core 18を試す - Qiita
  • 第441回 QEMU/KVMでUEFIファームウェアを使う | gihyo.jp

    UEFI(Unified Extensible Firmware Interface)はOSとファームウェアの間の橋渡しを行うインターフェースの仕様です。今回はQEMU/KVMで、このUEFIをサポートしたファームウェアを使用する方法を紹介します。 UEFIとQEMU/KVMとOVMF いわゆる「PC/AT互換機」とも呼ばれるIntel系CPUを搭載したPCでは、電源投入後からハードウェアの初期化、ブートローダーの起動などを「BIOS」と呼ばれるファームウェアが担っていました[1]⁠。UEFIはこのBIOSを置き換えるための仕様で、機能の強化や起動の高速化、業界団体による標準化などが行われています。ここ数年のx86マシンであればほぼすべてUEFIファームウェアに置き換わっていますし、ARMプラットフォームでもよく使われるU-Bootが最近UEFIをサポートするようになりました。連載の読者

    第441回 QEMU/KVMでUEFIファームウェアを使う | gihyo.jp
  • qemuでuefi - φ(・・*)ゞ ウーン カーネルとか弄ったりのメモ

    そういえばqemuもuefi対応してたようなってことで試してみたら上手くできました。 参考にしたのは前回のエントリでも参考にしたこちら。英語じゃないので内容は読んでないのですがコマンドラインとかから大まかなことは把握できますねw ということで、使うコマンドの詳細はefi-hello-worldのページを参照ください<(_ _)> 手順は以下のようになります。 qemuで使うUEFI firmwareのファイル(OVMF)ダウンロードして展開する(ここでは展開してできたディレクトリは~/OVMFとします) ddで空のイメージファイルを作る(bs=512でcountが2880ということで1.44MBのフロッピーですね) 先のイメージファイルを適当なところにマウントして/some where/efi/bootというディレクトリ構造を作る 動かしたいuefiのバイナリをsome where/efi

    qemuでuefi - φ(・・*)ゞ ウーン カーネルとか弄ったりのメモ
  • KMC Staff Blog:QCOW2 形式の仮想ディスクを作成する

    2013年01月08日 QCOW2 形式の仮想ディスクを作成する QEMU のイメージファイル(仮想ディスクとして使用)を配布する際には、実際に使ったぶんだけファイルサイズが大きくなる(あるいは、別ファイルに差分だけを書き出せる)、QCOW2 形式(QEMU Copy-On-Write image file format version 2)が便利です。 buildroot でビルドした rootfs.tar から、QCOW2 形式のイメージファイルを作った時のメモです。 環境は Ubuntu 12.04 64bit です。 追記:kpartx は不要でした。 qemu-img、qemu-nbd、kpartx をインストールして、nbd (Network Block Device) を準備します。 $ sudo apt-get install qemu-utils kpartx $ sud

    rin51
    rin51 2020/01/22
  • How to change the default Storage Pool from libvirt?

    rin51
    rin51 2020/01/21
    virt-installとか
  • libvirt - ArchWiki

    libvirt: The virtualization API より: Libvirt は仮想マシンや、ストレージ・ネットワークインターフェイスの管理などの仮想化機能を管理するための便利な手段を提供するソフトウェアのコレクションです。ソフトウェアには API ライブラリ、デーモン (libvirtd)、コマンドラインユーティリティ (virsh) が含まれています。 libvirt の目標は様々な仮想化プロバイダ/ハイパーバイザを管理する共通の手段を提供することにあります。 libvirt の主な特徴は以下の通りです: VM 管理: 起動・停止・一時停止・保存・復旧・移行などの様々なドメイン操作。ディスク・ネットワークインターフェイス・メモリ・CPU など多数のデバイスのホットプラグ制御。 リモートマシンのサポート: libvirt デーモンが走ってるマシンなら libvirt の機能は全

    libvirt - ArchWiki
  • ArchLinux + libvirt + KVM + QEMU + bridge - Ryoto's Blog

    ArchLinuxにKVMを入れて、なおかつssh接続しようと考えてbridge接続に挑戦した。 そもそもKVM自体も初めてだったこともあって、相当苦労したが、なんとかやり方がわかった。 準備 libvirtほか必要パッケージのインストール host# pacman -S libvirt qemu-headless ebtables dnsmasq virt-install NetWorkManagerを入れてる場合はdnsmasqはいらない(動かない)。 起動と自動起動設定 host# systemctl start libvirtd host# systemctl enable libvirtd host# systemctl start ebtables host# systemctl enable ebtables host# #必要に応じて host# systemctl sta

    ArchLinux + libvirt + KVM + QEMU + bridge - Ryoto's Blog
  • KVM PCIパススルー (PCI PassThrough)

    assign PCI devices with Intel VT-d in KVM Linux KVM ハイパーバイザーは、ホストシステムのPCIデバイスを仮想ゲストへ接続(バインド)する技術があります。これをPCIパススルー(PCI PassThrough)といいます。 PCIパススルーは、ゲストオペレーティングシステムがホストPCIデバイスに直接物理的アクセスできるようになり、仮想でないデバイス・ドライバをそのまま利用できるので、細かなデバイス制御や命令実行が可能です。パフォーマンスに関しては、PCIパススルーを使用することで、ネイティブに近いパフォーマンスを得ることができると言われています。 実際にUSB2.0パススルーでゲスト側に接続したUSBメモリーでのファイル転送と比較した場合、今回のPCIパススルー接続経由でのUSBメモリーの方が高速でした。 このKVM PCIパススルーは

  • KVM GPUパススルー設定 - 睡分不足

    環境 i7-4790 (with VT-d) GeForce GTX 1080ti Linux Mint 18.3 Sylvia (Ubuntu xenial base) Cinnamon やりたいこと KVM上のWindowsGPUをパススルーで接続する 現在GPUはcuda計算用に利用 (ディスプレイはi915).Windowsを使うときだけパススルーさせたい 手順 archのwikiに丁寧書いてあります. 以下,自分がやった方法 事前準備 デフォルトだとxenialのapt repositoryのlibvirtのバージョンが古いので,ppa:jacob/virtualisationを追加しておく grubのエントリにiommu=pt intel_iommu=onを追加 qemu, libvirt, ovmf, virt-managerあたりのインストール libvirtd, vir

    KVM GPUパススルー設定 - 睡分不足
  • ゲストにPCIパススルー(GPU割当)

    主にUbuntuで実験した内容を書くかもしれない。 もしかしたら、つまらない時事ネタかも。 いつか、紙媒体の書籍にしたいので、このブログの内容の転載はお控え願います。引用は可。 まずは、「目指せ!電子書籍化!」です。 続いて、PCIデバイスのグループ確認だ。 どうも、PCIデバイスはコントローラでグルーピング化され、そのグループ単位でしかゲストにブリッジ出来ないらしい。(同一のグループに属するPCIデバイスのうち、一つだけゲストにブリッジする、ということは出来ないらしい。) と思ったんだけど、グループ確認しなくてもグラボとグラボに搭載されているサウンド、どうやらゲストにブリッジ出来たようだ。 ゲストOS側もUEFIにすることで、目的が達成できるみたいだ。 一度、以下の条件で仮想マシンを作ってみよう。 ネットワーク:openvswitchで作成したブリッジ ファームウェア:UEFI x86_

    ゲストにPCIパススルー(GPU割当)
  • OVMF による PCI パススルー - ArchWiki

    Open Virtual Machine Firmware (OVMF) は仮想マシンで UEFI を使えるようにするプロジェクトです。Linux 3.9 以上と最近のバージョンの QEMU では、グラフィックカードをパススルーすることが可能で、仮想マシンでネイティブと同じグラフィック性能を発揮することができ、グラフィック性能が要求されるタスクにおいて便利です。 デスクトップコンピュータに使用していない GPU が接続されている場合 (内蔵 GPU や古い OEM カードでもかまいません、ブランドが一致している必要はありません)、ハードウェアがサポートしていれば (#要件を参照)、あらゆる OS の仮想マシンで専用 GPU として(ほぼ)最大限の性能を活用できます。技術的な詳細は こちらのプレゼンテーション (pdf) を見てください。 要件 VGA パススルーでは最先端の技術を使っている

    OVMF による PCI パススルー - ArchWiki
  • Rust 製 OS の Redox を Windows 上で動かす - Qiita

    Redox とは Rust 製の Unix Like OS 。 以下、公式サイトより引用。 Implemented in Rust Microkernel Design Includes optional GUI - Orbital Supports Rust Standard Library MIT Licensed Drivers run in Userspace Includes common Unix commands Newlib port for C programs 開発は Github 上で進められている。 https://github.com/redox-os/redox 公式ドキュメントも充実。 https://doc.redox-os.org/book/ とにかく動かしてみたい ということで、公式の Get Start に沿って進めてみる。 仮想マシンで動作 Gith

    Rust 製 OS の Redox を Windows 上で動かす - Qiita
  • Dockerが注目されている理由を探る

    Dockerとは Dockerとは、Docker社が開発しているオープンソースのコンテナ型仮想化ソフトウェアである。Linux上でLXCLinux Container)の技術を活用し、コンテナ型の仮想環境を作成するものだ。 Dockerの主な特徴は、以下の通りである。 コンテナはカーネル部分をベースのOSと一部共有するため、リソース使用量が非常に少ない Docker社が用意しているリポジトリ(DockerHub)に、構築済みのコンテナイメージがあるので、構築作業が不要 コンテナの作成からプロダクトのインストール・設定するまでの手順を、“Dockerfile”というテキストファイルに定義できる(インフラのコード化)。このDockerfileを用いることで、Dockerが導入されている環境であればどこであっても、準備した環境を稼働させられるため携帯性が高くなる。 これらの特徴からDocker

    Dockerが注目されている理由を探る