TCPの時代もそうだったんですが、QUICにおいても、Linux等でソフトウェアロードバランサをipvsadmとDSR (direct server return, a.k.a. direct routing) を実現することは有効な手段です。 なんだけど、ipvsadm界隈はHA前提の込み入った設定か古いドキュメントしか見つからなかったので、最低限の検証環境のセットアップ方法を、ここにまとめる次第です。 ロードバランサ: echo 1 | sudo tee /proc/sys/net/ipv4/ip_forward sudo ifconfig eth0:0 $VIP netmask 255.255.255.255 broadcast $VIP up sudo route add -host $VIP dev eth0:0 sudo ipvsadm -A -t $VIP:443 -s rr
Linux Daily Topics 2016年6月21日Docker 1.12リリース、内部ロードバランサーにLinuxカーネルのIPVSを採用 Dockerは6月20日(米国時間)、米シアトルで開催中の年次カンファレンス「DockerCon 2016」において「Docker 1.12」のリリースを発表した。Docker 1.12ではこれまで外部ツールとして提供されていたDocker Engineクラスタを構成する「Swarm」をコアに統合、ネイティブのオーケストレーション機能として提供する。 Docker 1.12: Now with Built-in Orchestration! | Docker Blog Swarmをネイティブ統合したことで、Dockerは複数の環境に分散するコンテナをひとつのSwarmグループとして扱うことが可能になる。これまで必要だった外部ツールも不要で、
最近、SREが話題ですね。 tech.mercari.com www.wantedly.com ということでSREについて調べてたら、SREconなんてものが開催されていたので中を見てたら、「Building a Billion User Load Balancer」というタイトルでFacebookのDNS〜LBまでの話があったので、そのメモです。 Building a Billion User Load Balancer | USENIX tl;dr tinydns + IPVS で Facebook規模はいける httpsの接続確立はかなり重い(RTTの4倍 = RTT 150msとするとGETまで600ms)ので、太平洋越えとかは厳しい httpsを終端させるCDNとかは活用の可能性ありそう (国内だけを考慮するなら影響は軽微かも) メモ L4 LB shiv (IPVS + pyt
Yesterday at DockerCon Europe, Andrey Sibiryov, a senior engineer at Uber Technologies, demonstrated how to improve load-balancing performance using an open-source technology that’s been part of the Linux kernel for more than a decade — IPVS. [caption id="attachment_2749" align="aligncenter" width="4000"] Andrey Sibiryov discusses IPVS at DockerCon Europe.[/caption] What Is IPVS?To be precise, IPV
Web Page History CONTENTS (click to jump below): Pending development: Resizable Hash Tables: v2 release candidate Linux Advanced Routing: Routing and NAT extensions for Linux (2.2, 2.4, 2.6/3.x, Nano-HOWTO from Christoph Simon) medium_id - IPv4 Bridging for Linux rp_filter_mask - Extending the Reverse Path Protection for mediums Bridging Extensions - IP Mode Send-To_Self - Send traffic to self ext
日本アニメ初の快挙!海外アニメ賞を受賞した『スキップとローファー』海外ライセンス部長&プロデューサーが語る、奮闘の舞台裏
(a non-LVS article on Configuring large scale unix clusters by Dan Kegel.) The article performance data for a single realserver LVS, shows how to test the network links with netpipe and how to determine the effects of LVS on latency and throughput. Note the effect of the LVS code on system performance is the difference between the performance with the director box just forwarding packets as a rout
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く