並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 258件

新着順 人気順

TCPの検索結果121 - 160 件 / 258件

  • K8sを意識せずにアプリをデプロイできるKubeVelaにシュっと入門

    GitHubのトレンドを眺めていたところ、KubeVelaというOSSが目に止まりました。 KubeVelaとは 一言で言えば、開発者が楽にK8sにアプリをデプロイするためのツールセットです。 通常、開発者がK8sにアプリをデプロイする際はPod、Service、Ingress、Resource Request、CRD etc...の概念を理解する必要があり、これらを全て理解することは決して楽ではありません。 KubeVelaはこの労力を最小限にするアプローチの1つとして提供されており、開発者はAppfileという設定ファイルのみを管理するだけで良くなるため、複雑なK8sの設定をあまり意識せずにデプロイすることが可能になります。 今回は、このKubeVelaをローカルのK8sクラスター上に展開しながら、動作を確認していきます。 検証環境 Mac OS Catalina Docker: 19

      K8sを意識せずにアプリをデプロイできるKubeVelaにシュっと入門
    • プロセスのオーナ情報をTCPオプションヘッダに書き込むに至った背景とアプローチの補足 - 人間とウェブの未来

      hb.matsumoto-r.jp 上記のリンクの昨日書いた記事のスコープや前提、及び、ユースケースがわかりにくかったので、以下にそれらをもう少し詳細に書こうと思います。コメントやアドバイスをすでに頂いた方はありがとうございます。 まず、この手法にいたった課題について説明してきます。 これまでWebホスティングサービス(レンタルサーバ)のように、WordPressのようなWebアプリケーションを配置するための領域(一般ユーザで利用するテナント)を貸し出すようなプラットフォームサービスにおいて、低価格化を実現するために単一のサーバにどれだけ高集積にテナントを収容するかという検討がなされてきました。 そんな中、テナント単位でプロセスを用意したり、IPアドレスをはじめとした個別リソースの紐付けを極力行わずに、共有のデータベースミドルウェアを使い、できるだけリソースを共有するような方式、例えばAp

        プロセスのオーナ情報をTCPオプションヘッダに書き込むに至った背景とアプローチの補足 - 人間とウェブの未来
      • TechCrunch

        Welcome to TechCrunch Fintech! This week, we’re looking at Stripe’s big product announcements, a bump in valuation for a Brazilian fintech startup and much more! To get a roundup of TechCrunc

          TechCrunch
        • TCP BBR 輻輳制御による Amazon CloudFront のパフォーマンス向上 | Amazon Web Services

          Amazon Web Services ブログ TCP BBR 輻輳制御による Amazon CloudFront のパフォーマンス向上 コンテンツデリバリネットワーク (CDN) が提供すべき重要な要素の1つとしてパフォーマンスがあります。パフォーマンスの良さを示す2つの観点としてレイテンシーとスループットがあり、これらが優れていると大量の情報を高速にかつ安定して送ることができます。これらの観点はビデオストリームや API コール等のあらゆるコンテンツ配信で重要となります。私たちは、最も幅広いワークロードとコンテンツに対して最高品質の体験を提供することと、パフォーマンスを最大化することのために、Amazon CloudFront の技術とインフラストラクチャを継続的に改良しています。 2019年3月から4月にかけて、CloudFront はレイテンシーとスループットを改良する新しいTCP

            TCP BBR 輻輳制御による Amazon CloudFront のパフォーマンス向上 | Amazon Web Services
          • 【Linux】Nginxのtcpのbacklogの設定が何をしているのかに入門する - 地方エンジニアの学習日記

            目次 目次 概要 tcpソケットプログラミングとは サーバ側 3way-handshakeと状態遷移 backlogとは syn-queue どうやったら溢れるか 溢れたらどうなるか accept-queue どうやったら溢れるか (メモ)Nginxのアーキテクチャ 溢れたらどうなるか tcp_abort_on_overflow=1 tcp_abort_on_overflow=0 まとめ 概要 nginx.org backlog=number sets the backlog parameter in the listen() call that limits the maximum length for the queue of pending connections. By default, backlog is set to -1 on FreeBSD, DragonFly BSD,

              【Linux】Nginxのtcpのbacklogの設定が何をしているのかに入門する - 地方エンジニアの学習日記
            • GitHub - anderspitman/awesome-tunneling: List of ngrok/Cloudflare Tunnel alternatives and other tunneling software and services. Focus on self-hosting.

              Telebit - Written in JS. Code. tunnel.pyjam.as - No custom client; uses WireGuard directly instead. Written in Python. source code SSH-J.com - Public SSH Jump & Port Forwarding server. No software, no registration, just an anonymous SSH server for forwarding. Users are encouraged to use it for SSH exposure only, to preserve end-to-end encryption. No public ports, only in-SSH connectivity. Run ssh

                GitHub - anderspitman/awesome-tunneling: List of ngrok/Cloudflare Tunnel alternatives and other tunneling software and services. Focus on self-hosting.
              • Scaling Linux Services: Before accepting connections

                More posts When writing services that accept TCP connections, we tend to think of our work as starting from the point where our service accepts a new client connection and finishing when we complete the request and close the socket. For services at scale, operations can happen at such a high rate that some of the default resource limits of the Linux kernel can break this abstraction and start caus

                • GitHub - natesales/q: A tiny command line DNS client with support for UDP, TCP, DoT, DoH, DoQ and ODoH.

                  Usage: q [OPTIONS] [@server] [type...] [name] All long form (--) flags can be toggled with the dig-standard +[no]flag notation. Application Options: -q, --qname= Query name -s, --server= DNS server(s) -t, --type= RR type (e.g. A, AAAA, MX, etc.) or type integer -x, --reverse Reverse lookup -d, --dnssec Set the DO (DNSSEC OK) bit in the OPT record -n, --nsid Set EDNS0 NSID opt --subnet= Set EDNS0 c

                    GitHub - natesales/q: A tiny command line DNS client with support for UDP, TCP, DoT, DoH, DoQ and ODoH.
                  • TCP SACK PANIC - Kernel vulnerabilities - CVE-2019-11477, CVE-2019-11478 & CVE-2019-11479 - Red Hat Customer Portal

                    Executive SummaryThree related flaws were found in the Linux kernel’s handling of TCP networking.  The most severe vulnerability could allow a remote attacker to trigger a kernel panic in systems running the affected software and, as a result, impact the system’s availability. The issues have been assigned multiple CVEs: CVE-2019-11477 is considered an Important severity, whereas CVE-2019-11478 an

                      TCP SACK PANIC - Kernel vulnerabilities - CVE-2019-11477, CVE-2019-11478 & CVE-2019-11479 - Red Hat Customer Portal
                    • 1単語のように扱われる「TCP/IP」、実はTCPはIPより先に生まれていた

                      TCP(Transmission Control Protocol)とIP(Internet Protocol)といえば、インターネットを支える基盤のプロトコルだ。実はTCPはIPより先に存在していたのをご存じだろうか。 TCPが最初に登場したのは1974年。ビントン・サーフ氏とボブ・カーン氏がIEEE(米国電気電子学会)の学会誌『Transactions on Communications』に論文「A Protocol for Packet Network Intercommunication」を投稿した。この時点のTCPは現在のTCPとIPの両方の機能が盛り込まれていた。現在のインターネットの4階層モデルからすると、TCPはインターネット層とトランスポート層にまたがるプロトコルだったのだ。 ビントン・サーフ氏が描いたTCPのアイデア。1973年に描いたとされる初めて図示したものを、20

                        1単語のように扱われる「TCP/IP」、実はTCPはIPより先に生まれていた
                      • Accelerating UDP packet transmission for QUIC

                        This was originally published on Perf Planet's 2019 Web Performance Calendar. QUIC, the new Internet transport protocol designed to accelerate HTTP traffic, is delivered on top of UDP datagrams, to ease deployment and avoid interference from network appliances that drop packets from unknown protocols. This also allows QUIC implementations to live in user-space, so that, for example, browsers will

                          Accelerating UDP packet transmission for QUIC
                        • (小ネタ)NLBへ疎通確認する時はレイヤ4(トランスポート層)のコマンドを使用してほしい | DevelopersIO

                          この状態で再度ping,tracepathコマンドを実行しましたが、結果は変わりませんでした。。 どうやらNLBの仕様として、設定済みのリスナーに一致しないネットワークトラフィックは意図しないトラフィックとしてターゲットに転送せずにドロップするようです。 設定済みのリスナーに送信されるすべてのネットワークトラフィックが、意図されたトラフィックとして分類されます。設定済みのリスナーに一致しないネットワークトラフィックが、意図しないトラフィックとして分類されます。Type 3 以外の ICMP リクエストも、意図しないトラフィックとみなされます。Network Load Balancer は、意図しないトラフィックをターゲットに転送せずにドロップします。 出典:Network Load Balancer のリスナー - Elastic Load Balancing Pingで使われれるのはIC

                            (小ネタ)NLBへ疎通確認する時はレイヤ4(トランスポート層)のコマンドを使用してほしい | DevelopersIO
                          • GitLabで「切りのいい時間」によって引き起こされた不具合と改善されるまでの6つのステップ

                            By Rawpixel GitLab.comのエンジニアであるクレイグ・ミスケル氏は、顧客から報告された「gitのリポジトリからpullを行う際に発生したエラー」が、切りのいい時間にとらわれがちな人間性によるものだと判明したことについて、エラーを改善するまでの手順を6つのステップに分けて紹介しています。 6 Lessons we learned when debugging a scaling problem on GitLab.com | GitLab https://about.gitlab.com/2019/08/27/tyranny-of-the-clock/ ミスケル氏は、GitLab.comの顧客から「Git pullのエラーが断続的に見られる」という報告を受け取りました。報告されたエラーメッセージは以下の通り。 ssh_exchange_identification: con

                              GitLabで「切りのいい時間」によって引き起こされた不具合と改善されるまでの6つのステップ
                            • Dissecting Performance of Production QUIC の備忘録 - neko--suki’s blog

                              twitterで見かけた、「Dissecting Performance of Production QUIC」という論文の備忘録 Nice paper on how QUIC being faster in theory doesn't always make QUIC faster in practice, due to implementation details:https://t.co/j4EbEkgPwZ BTW, this kind of thing is why I often find high-level design discussions that don't really dig into the details to be overrated. pic.twitter.com/xPkChrZVVp— Dan Luu (@danluu) 2021年8月7日 htt

                                Dissecting Performance of Production QUIC の備忘録 - neko--suki’s blog
                              • MacをMontereyにアップデートしたらFlaskが5000番ポートで起動できなくなった - Sweet Escape

                                Flaskではデフォルトでは5000番ポートで開発サーバが起動する。 自分はとあるアプリの開発で普段、Flaskで開発したとあるアプリをMac上で起動しているんだけどこれがある日うまく動かなくなった。アプリケーション的になにかをいじったわけではなく、ぱっと思いつく心あたりはない。 ターミナルからMacで使用されているポートを確認したら確かに5000番が何かに使われている(IPとかユーザ名だけマスクした)。 % lsof -i:5000 COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME ControlCe 490 xxxxxxx 22u IPv4 0xf8bcd361exxxxxxxx 0t0 TCP *:commplex-main (LISTEN) ControlCe 490 xxxxxxx 23u IPv6 0xf8bcd36xxxxx

                                  MacをMontereyにアップデートしたらFlaskが5000番ポートで起動できなくなった - Sweet Escape
                                • 地球上のインターネットの基礎を作った「インターネットの父」が「惑星間インターネット」について語る

                                  現代では衛星通信を利用するネットワーク接続環境まで登場しており、地球上のほぼ全ての場所でインターネットを利用できるという時代といえます。しかし、現行のインターネットプロトコルを惑星間の通信に使おうとした場合、距離などの問題が立ちはだかります。「インターネットの父」の1人として知られるヴィントン・サーフ氏が、自身が長年にわたって取り組んできた惑星間インターネットの歴史と未来について回答しています。 Vint Cerf’s Plan for Building An Internet in Space | Quanta Magazine https://www.quantamagazine.org/vint-cerfs-plan-for-building-an-internet-in-space-20201021/ 国際宇宙ステーションと地球は無線およびインターネットプロトコルで接続されており、

                                    地球上のインターネットの基礎を作った「インターネットの父」が「惑星間インターネット」について語る
                                  • 何もツールがなくてもコンテナの中のTCP通信の状態を見たい - ローファイ日記

                                    完全に消費税に負けた... 今日も小ネタです。 一般に、以下のようなことを調べる時 netstat や ss などのツールは便利です。 あるポートがリッスンされているか知りたい あるコネクションに実際に通信があるか知りたい MySQLサーバなど外部プロセス/サーバにコネクションが貼られているか知りたい でもコンテナ環境では、そんな余計なツールは入っていない!!!ことも多い。 そんな時でも、 /proc ファイルシステムはほぼ間違いなくマウントされているはずです。 なのでそこを直接見ることも検討しましょう。 /proc/net/tcp(6) を眺める コンテナのネットワークに直接入るには、 nsenter などを使うことができます。今回はすぐ用意できる環境があったので Haconiwa ですが、 Docker などで置き換えて試してください。 $ ps auxf ... root 13252

                                      何もツールがなくてもコンテナの中のTCP通信の状態を見たい - ローファイ日記
                                    • GitHub - kffl/speedbump: TCP proxy for simulating variable, yet predictable network latency :globe_with_meridians::hourglass_flowing_sand:

                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                        GitHub - kffl/speedbump: TCP proxy for simulating variable, yet predictable network latency :globe_with_meridians::hourglass_flowing_sand:
                                      • An Introduction to Computer Networks — An Introduction to Computer Networks, desktop edition 2.0.11

                                        Navigation index next | An Introduction to Computer Networks, desktop edition 2.0.11 » Table of Contents An Introduction to Computer Networks Indices and tables Next topic Preface Quick search An Introduction to Computer Networks¶ Peter L Dordal Department of Computer Science Loyola University Chicago Contents: Preface Second Edition Licensing German Edition Classroom Use Acknowledgments Progress

                                        • zeke | tcp-proxy

                                          home A TCP Proxy in 30 lines of Rust Jul 2021 TCP proxies accept connections from one computer and forward them to another. AWS Global Accelerator and Cloudflare Spectrum are examples of TCP proxies you can pay to use in the wild. TCP proxies can be quite simple. Here we’ll write one in 30 some lines of Rust. After we write it we’ll demonstrate the proxy’s functionality by proxying traffic from lo

                                          • GitHub - pandax381/microps: An implementation of a small TCP/IP protocol stack for learning.

                                            Abstraction Layer Physical device abstraction Define structure for physical device abstraction (struct net_device) Support multiple link protocols and physical devices Logical interface abstraction Define structure for logical interface abstraction (struct net_iface) Support multiple address family and logical interfaces Devices Null Loopback Ethernet TUN/TAP (Linux) PF_PACKET (Linux) Protocols Et

                                              GitHub - pandax381/microps: An implementation of a small TCP/IP protocol stack for learning.
                                            • 第4回 BBRの出現 | gihyo.jp

                                              バッファサイズ増加とバッファ遅延増大 近年、ルータやスイッチ等のネットワーク機器に搭載されるバッファメモリのサイズが増加してきました。この主な要因としては、メモリの低価格化が進んだことが挙げられます。またネットワーク機器に限らず、メモリサイズは大きい方が良い、という通念が主流となってきたことも大きく影響しているでしょう。ネットワーク機器のバッファサイズが大きくなることで、パケット廃棄が起こりにくくなるという利点があります(図1⁠)⁠。すなわち、ネットワーク機器に一度に大量のパケットが到着した場合にも、それらのパケットをメモリに蓄積しておき、順番に送出することができるようになります。 図1 バッファサイズとパケットロス しかしながら、バッファサイズが大きくなることによる弊害もあり、それがバッファ遅延の増大です。バッファ遅延の増大によって生じる遅延の増加現象はバッファブロート(Bufferbl

                                                第4回 BBRの出現 | gihyo.jp
                                              • Linux 5.17 To Boast A Big TCP Performance Optimization - Phoronix

                                                Show Your Support: This site is primarily supported by advertisements. Ads are what have allowed this site to be maintained on a daily basis for the past 19+ years. We do our best to ensure only clean, relevant ads are shown, when any nasty ads are detected, we work to remove them ASAP. If you would like to view the site without ads while still supporting our work, please consider our ad-free Phor

                                                  Linux 5.17 To Boast A Big TCP Performance Optimization - Phoronix
                                                • GKEの内部負荷分散機能を使ってInternal Load Balancerを構築する - Qiita

                                                  ※ 2020/04時点でIngress for internal load balancingは公開されたものの、未だプレリリースのステージにあります。Rapid channelのクラスターでしか動かないため、Stableに降りてきたら手順を更新予定です。 はじめに この記事はZOZOテクノロジーズ #1 Advent Calendar 2019 22日目の記事です。 昨日の記事は @takanamitoさんによる「teyuに届いたPullRequestで使われているRubyの高速化手法」でした。 みなさん、GKE完全に理解していますか?僕は定期的に完全理解しています。 今回は、GKEに内部ロードバランサーをデプロイする方法についてご紹介します。 Kubernetesのネットワークの世界のおさらい 内部ロードバランサーの話をする前に、まずはKubernetesのネットワークについて簡単に振

                                                    GKEの内部負荷分散機能を使ってInternal Load Balancerを構築する - Qiita
                                                  • FIN -> FIN/ACK -> ACK という TCP の幻想 - kawasin73のブログ

                                                    掴んで離さぬコネクション。どうも、かわしんです。しがみつかずに適切なタイミングで離しましょう。 この1週間で RFC を読みながら TCP/IP プロトコルスタックを自作した 1 のですが、その時にコネクションの終了処理でハマったので後学のために書き残しておきます。 一言でまとめると FIN -> FIN/ACK -> ACK は間違っていて、正しくは FIN/ACK -> FIN/ACK -> ACK であったという話です。 ちなみに、僕が自作した TCP/IP プロトコルスタックはこれです。 github.com 現象 それは TCP のリスナーと close 処理が出来上がってコネクション管理のテストをしていた時のことでした。 自作 TCP スタックでポートを Listen して Accept したらすぐにサーバ側からコネクションを切断するというテストコードを書いて実行し、Linux

                                                      FIN -> FIN/ACK -> ACK という TCP の幻想 - kawasin73のブログ
                                                    • 内部実装から理解するgRPC - Qiita

                                                      概要 目的 gRPCはDocumentにあるように以下の特徴があるかと思います。 protocol buffer のようなインターフェース定義語 (IDL) から生成されたコードを利用してRPCができる HTTP/2で通信することができ、リクエストとレスポンスをそれぞれ分割できる 多言語に対応している しかし、この記事ではこれらの機能の紹介ではなく、gRPCの仕組みを理解することを意図しています。 なぜそれを意図したかというと普段の開発でgRPCを利用しているものの、どのような仕組みでRPCが実現できているのかイメージが持てていなかったためです。そのために、grpc-goの内部実装(2019/5時点)を読み解きながら、実際の通信の中身を覗いてみました。 そして結果的には以下の効用がありました。 protoc-gen-goがprotocol-buffersから生成したコードがどのように利用さ

                                                        内部実装から理解するgRPC - Qiita
                                                      • mTLSとは?| 相互TLS | Cloudflare

                                                        • tcpの仕様上、接続先がコネクションをcloseしているかはパケットを一度は実際に送るまでわからないよという話 - Qiita

                                                          tcpの仕様上、接続先がコネクションをcloseしているかはパケットを一度は実際に送るまでわからないよという話CTCP はじめに サーバがコネクションをclose後しばらくして、クライアントがwriteしました。関数呼び出しの結果はエラーでしょうか? 上記の正解は「何事もなく、成功する」です。この挙動が理解できている方はこの記事を読む必要はないかもしれません。 自分は「接続先がcloseしたソケットにwriteした場合はプロセスがSIG-PIPEを受け取るかシグナルをハンドリングしていた場合はEPIPEが返ってくる」と思っていました。 それは、Linuxのマニュアルに以下の記載があるためです。 EPIPE fd is connected to a pipe or socket whose reading end is closed. When this happens the writin

                                                            tcpの仕様上、接続先がコネクションをcloseしているかはパケットを一度は実際に送るまでわからないよという話 - Qiita
                                                          • Mallet - a TCP tunnel like VPN

                                                            I've developed a TCP tunnel, called "Mallet", that works like VPN. It depends on jpillora/chisel for TCP tunneling. You just need to run a chisel server in a machine that you would like to get traffic through. Mallet configures iptables (Linux) or pf (macOS) to redirect traffic to the TCP tunnel. Features No admin privilege required in a server. You just need SSH as a normal user. You still need s

                                                              Mallet - a TCP tunnel like VPN
                                                            • WebRTC で利用されいる TURN プロトコルの解説

                                                              webrtc_turn.rst WebRTC で利用されいる TURN プロトコルの解説 日時 2021-01-29 作 @voluntas バージョン 2021.2 url https://voluntas.github.io/ この記事が良いと思ったらこの記事に Star をお願いします。 著者 株式会社時雨堂 で 1 から多くの商用環境で利用されている WebRTC SFU を開発している。 WebRTC スタックは暗号ライブラリの利用している部分以外はすべて自前実装。 概要 WebRTC は P2P というイメージをお持ちの方が多いと思います。 今回は P2P で繋げなかった場合に利用される TURN というプロトコルの話をします。 目的は単純で、本気で WebRTC を使う場合は繋がることが重要になります。 そして、トラブルシューティングをする人向けの話です。 実際に運用している

                                                                WebRTC で利用されいる TURN プロトコルの解説
                                                              • ngrok大好きな私がServeoで感動した話 - Qiita

                                                                追記(2020/01/03) コメントで教えていただいたのですが、2020年1月3日現在一時的にサービスダウンしているようです。 同じようなサービスlocalhost.runを使ってみたので、よろしければ。 はじめに 自分用のメモみたいなものなので、言いたいことしか書かれてないです。 まずngrokとは ngrokってご存知ですか? ローカル上で開発してるサーバーやネットワークサービスをそのまま外部に公開できるサービスで、herokuのサーバーに上げない版みたいなやつです。 localhost にドメインを振り分けてくれるイメージですかね。 使い方 インストールが必要です。 $ ngrok http <localhostのポート番号> ngrok by @inconshreveable (Ctrl+C to quit) Session Status online Account hogeh

                                                                  ngrok大好きな私がServeoで感動した話 - Qiita
                                                                • I/O Multiplexing(I/O多重化) - Carpe Diem

                                                                  概要 christina04.hatenablog.com で一度まとめましたが、まだ理解があやふやなところがありました。 その後 Working With TCP Sockets を読んでようやくストンと理解できたのでまとめます。 経緯 たくさんのリクエストを受けるにはどうしたらいいか、で マルチプロセス マルチスレッド といった手法が提案されてきました。 前者はシンプルであるもののリソースの過剰な使用が問題であり、後者は前者ほどリソースは使わないもののやはり無駄は大きく、かつ共有リソースのハンドリングの複雑性が問題になります。 そもそもボトルネックになってるのはどこかというと、 コネクション確立後、クライアントからリクエストが送られてくるまでの待機時間 DBや外部APIの処理をしている時間 といったread(2)やwrite(2)で実際にデータを読み書きする準備が整うまでの待ち時間が大

                                                                    I/O Multiplexing(I/O多重化) - Carpe Diem
                                                                  • security-bulletins/advisories/third-party/2019-001.md at master · Netflix/security-bulletins

                                                                    Advisory ID: NFLX-2019-001 Title: Linux and FreeBSD Kernel: Multiple TCP-based remote denial of service vulnerabilities Release Date: 2019-06-17 Severity: Critical Overview: Netflix has identified several TCP networking vulnerabilities in FreeBSD and Linux kernels. The vulnerabilities specifically relate to the Maximum Segment Size (MSS) and TCP Selective Acknowledgement (SACK) capabilities. The m

                                                                      security-bulletins/advisories/third-party/2019-001.md at master · Netflix/security-bulletins
                                                                    • ISP Column - October 2022

                                                                      There is a common view out there that the QUIC transport protocol (RFC 9000) is just another refinement to the original TCP transport protocol [1] [2]. I find it hard to agree with this sentiment, and for me QUIC represents a significant shift in the set of transport capabilities available to applications in terms of communication privacy, session control integrity and flexibility. QUIC embodies a

                                                                      • TCP技術入門 ――進化を続ける基本プロトコル

                                                                        2019年7月6日紙版発売 2019年7月1日電子版発売 安永遼真,中山悠,丸田一輝 著 A5判/288ページ 定価2,948円(本体2,680円+税10%) ISBN 978-4-297-10623-2 Gihyo Direct Amazon 楽天ブックス honto ヨドバシ.com 電子版 Gihyo Digital Publishing Amazon Kindle ブックライブ 楽天kobo 本書のサポートページサンプルファイルのダウンロードや正誤表など この本の概要 5G(第5世代移動通信),IoT(Internet of Things),自動運転をはじめ,ネットワークにまつわるサービスは飛躍的な発展を遂げつつあります。 通信の高速化,端末の爆発的な増加,クラウドによる遠隔送受信をはじめとした大きな変化のなか,通信の信頼性や効率性を担うTCPの存在感が増してきました。 本書では,

                                                                          TCP技術入門 ――進化を続ける基本プロトコル
                                                                        • URGENT/11

                                                                          UPDATE (December 15, 2020) 97% of URGENT/11 and 80% of CDPwn Vulnerable Devices Remain Unpatched Putting Thousands of Organizations at Risk of Attack Armis has continued to track the exposures from the URGENT/11 and CDPwn exploits discoveries over the past 18 months. Based on that research, we have identified that 97% of the OT devices impacted by URGENT/11 have not been patched; and 80% of those

                                                                            URGENT/11
                                                                          • Linux stack or BSD stack|oraccha

                                                                            LinuxのTCP/IPスタックと*BSDのTCP/IPスタックどっちが優れているのかというのはよく出てくる質問で、探せばベンチマーク結果もいろいろ出てくるが、当然TCP/IPスタック以外のカーネル構造の違いも大きいので、apple-to-appleの比較は難しい。 ユーザベースではLinuxが圧倒的なのだろうけど、NetflixのCDNではFreeBSDが使われているのは有名(「Netflix and FreeBSD: Using Open Source to Deliver Streaming Video 」[FOSDEM2019])。また、「サービス可用性を改善するための異種OS間プロセスマイグレーションの活用」によると、一般的にLinuxは常に高スループットであるが、高負荷時にはエラーが頻発する。一方、FreeBSDは高負荷時でもエラーを起こさない。粘りがあるというか、ダイソンの掃

                                                                              Linux stack or BSD stack|oraccha
                                                                            • YAMAMOTO Masaya on Twitter: "3月に開催したプロトコルスタック自作キャンプの講義資料を公開しました。1週間でTCP/IPのプロトコルスタックを自作してUDPやTCPで通信するアプリケーションを動かすという内容で300ページくらいのスライドです。これがあれば一人… https://t.co/36rMXOOFkT"

                                                                              3月に開催したプロトコルスタック自作キャンプの講義資料を公開しました。1週間でTCP/IPのプロトコルスタックを自作してUDPやTCPで通信するアプリケーションを動かすという内容で300ページくらいのスライドです。これがあれば一人… https://t.co/36rMXOOFkT

                                                                                YAMAMOTO Masaya on Twitter: "3月に開催したプロトコルスタック自作キャンプの講義資料を公開しました。1週間でTCP/IPのプロトコルスタックを自作してUDPやTCPで通信するアプリケーションを動かすという内容で300ページくらいのスライドです。これがあれば一人… https://t.co/36rMXOOFkT"
                                                                              • Go言語を使ったTCPクライアントの作り方 - Qiita

                                                                                この記事は Go Advent Calendar 2020 の10日目の記事です。 こんにちは、辻です。最近はクラウドからMCプロトコルというプロトコルを用いてスマート工場のPLCを操作するTCPクライアントを実装しています。TCPクライアントの実装は future-architect/go-mcprotocol として公開しています。 本記事では高速で信頼できるTCPクライアントをGoで実装するための知見を共有します。TCPとソケットプログラミングはざっと概要だけ触れておきます。 TCPとは? TCPとはRFC793で仕様が定められているプロトコルです。特徴を簡単におさらいしておくと、 非構造化ストリーム 全二重通信 コネクション管理 高信頼性 シーケンス番号 再送制御 順序制御 輻輳制御 チェックサム といった特徴があります。TCPのヘッダーフォーマットは以下のようになっていました。T

                                                                                  Go言語を使ったTCPクライアントの作り方 - Qiita
                                                                                • 第一回 KLab Expert Camp「TCP/IPプロトコルスタック自作開発」を開催しました : DSAS開発者の部屋

                                                                                  KLab Expert Camp というイベントを8/26~29の4日間で開催しました。 KLab Expert Camp とは KLab Expert Camp は、技術的に深いテーマに取り組んでいる学生の発掘・育成を目的とした KLab の新しい取り組みです。 記念すべき第1回のテーマは「TCP/IPプロトコルスタック自作開発」で、以下のような触れ込みで開催しました。 「OSを作ってみたい」「コンパイラを作ってみたい」と思う人が多いように「プロトコルスタックを作ってみたい」と思う人も多いのではないでしょうか。今回の KLab Expert Camp のテーマは、そんな皆さんにピッタリの「TCP/IPプロトコルスタック自作開発」です。担当講師が開発している教育用のプロトコルスタック(https://github.com/pandax381/microps)を教材に、Ethernetフレー

                                                                                    第一回 KLab Expert Camp「TCP/IPプロトコルスタック自作開発」を開催しました : DSAS開発者の部屋