並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 142件

新着順 人気順

k8sの検索結果1 - 40 件 / 142件

  • 4台のラズパイでk8sクラスタを組んだ

    ラックについて 今回買ったラックは、なぜかネジを締めるとWIFIが繋がらなくなる事象が発生した。多分金属製だからと思われる。 面白いことに、手をラックの近くに置くとWIFIがつながる。(繋がらない場合もある) すべてのラズパイがWIFI接続というわけではなくmasterのみなのであんまり影響がないが、本事象は完全に想定外だったのでラック選びは要注意。 ラックの組み立て ​説明書あったが、ネジの種類のラベルが貼っていなくて全然分からなかった。 ので、公式が動画を出しているのでこちらを参考に組み立てた。 なぜかネジが足りなかったり余ったりしているが、ガタガタしていないので一旦気にしない。 OSをSSDにインストール ​OSは「Ubuntu Server 22.04.2 LTS(64bit)」を使う。 歯車のところからWIFIやssh、キーボードレイアウトなど設定をよしなにやる。 Mac側の接続

      4台のラズパイでk8sクラスタを組んだ
    • VSCodeの操作ミスでGCP Cloud Composerの裏側k8sをお掃除した話 - Qiita

      tl;dr 筆者はvim派でVSCode初心者。でも勧められたので数カ月ぶりに起動してみた。 Pluginを色々入れていたので、サイドバーにはたくさんのアイコン。なにこれ楽しい。 Cloud Codeタブを触っていたら…指先が震えてトラックパッド誤操作。「Delete Cluster」を押してしまう。 その時たまたま偶然、GCPのオーナー権限を持つIAMで認証していた。 盛大にやらかして復旧が手間だったが、いくつかの理由で障害として顕在化しなかった。 というお話 何をやらかしたのか やらかし当時、筆者はGCPでデータ処理基盤の開発を行っていました。vimとzshが大好きで、開発のすべてをこの2つで済ませてましたが、同僚にVSCodeを猛プッシュされたので使ってみることにしました。 VSCodeは数ヶ月前にインストールしたもののそのときは結局使わず。数ヶ月ぶりの起動でした。 インストール時に

        VSCodeの操作ミスでGCP Cloud Composerの裏側k8sをお掃除した話 - Qiita
      • 完全マネージドな k8s ! GKE Autopilot を解説する

        Kubernetes / GKE ファンの皆様こんにちわ。Google Cloud の Kazuu (かずー) です。GKE Autopilot が GA になりました。弊社公式ブログに続きまして、GKE Autopilot を日本語で解説していきたいと思います。 本記事は以下、3 部構成となります。 GKE Autopilot 概要GKE Autopilot を試してみるGKE Autopilot がハマりそうなユースケースは? 1. GKE Autopilot 概要GKE Autopilot は GKE の新しいモードです。Control Plane に加えて、Node が完全マネージドになります。これまでの GKE では Node はユーザー自身が必要台数分作成し、以後の Day 2 オペレーション (e.g. アップグレード) 等も気に掛ける必要がありました。GKE Autopil

          完全マネージドな k8s ! GKE Autopilot を解説する
        • Managed Kubernetesサービス開発者の自宅k8sクラスタ全容

          となっています。 構成図 クラスタを構成するものを図にすると以下のようになります。 この中の一部コンポーネントは次節以降で登場します。 Kubernetes基盤 クラスタの基盤部分についてどのような構成になっているのか説明します。 kubeadm クラスタの構築自体については kubeadm を利用しています。 kubeadm を利用したクラスタの構築方法については公式のドキュメントが参考になります。 Static Pod と systemd kubeadm でデプロイすると kube-apiserver 等は Static Pod で、kubelet は systemd 以下で動作するようになります。 kube-apiserver は意外にメモリを食ってしまうのでそのまま動作させているとメモリ不足になることがあります。(ありました) なので kube-apiserver と etcd の

            Managed Kubernetesサービス開発者の自宅k8sクラスタ全容
          • 外出先でも快適なお家k8sクラスタを構築する

            1 なぜお家Kubernetesクラスタか2 Workerのハードウェア構成と価格3 マシンにUbuntuサーバをインストールする3.1 Live USBの作成3.2 インストーラの進化3.3 LVMのディスク容量を増やす4 Kubernetesの構成検討と構築4.1 cri-oのセットアップ4.2 kubeadmによるクラスタ構築4.2.1 事前準備4.2.2 Master/Workerの構築4.3 ciliumのCNIプラグインを適用する4.4 MetalLBの構築5 CloudflareのArgo経由でSSHする5.1 Server設定5.2 Client設定5.3 Cloudflare Accessでアクセスユーザを制限する6 kubeadmによるクラスタアップグレード6.1 CNIプラグインのアップグレード 1 なぜお家Kubernetesクラスタかなんでもクラウドサービスな時代

              外出先でも快適なお家k8sクラスタを構築する
            • k8sの各種CDツールを比較する - pospomeのプログラミング日記

              k8s のCDツールがいくつかあるので、それらの特徴についてまとめる。 一応CDツールの定義は"k8sにWebアプリケーションをデプロイするツール"を想定しているが、 k8sにおけるデプロイはマニフェストファイルを apply することなので、 そういったものはすべてCDツールとみなして調べた。 すべてのツールをちゃんと調べたわけではないので、ものによってはサラッとした紹介になっている。 Flux Tekton(Tekton Pipeline) Jenkins-X PipeCD GCP Cloud Deploy AWS Code Pipeline Spinnaker Pipeline & Stage 動的なパイプライン Managed Delivery Spinnaker を使いこなせるか? ArgoCD Single Source of Truth(SSOT) 複雑なCDパイプラインは作

                k8sの各種CDツールを比較する - pospomeのプログラミング日記
              • 個人運用k8sクラスタの構成要素の技術選定 - でこてっくろぐ ねお

                これは、k8sクラスタを個人で運用する際に行った構成要素の技術選定の記録である。 技術選定の理由を書くのも見るのも楽しい、という心情のもとにここに公開する。 前提知識 以前、こんなエントリを書いた。 bitcoinのfull nodeをAWSでなるべく安く運用してみる - でこてっくろぐ ねお 上記の通り、個人でbitcoinのfull nodeという、状態をバリバリもつサービスを、AWSでのコスト面で最安を狙って作り運用を行っていた。 しかしその後、Oracle Cloudで運用したほうが安くなることに気づいたため引っ越した。 Oracle CloudではARMのVMが4台無料で使えて複数台構成が組め、AWSやGCP同様k8sのマネージドサービスもあり、また仕事でk8sを扱う部署に異動したのもあり、勉強のためk8sクラスタ上で運用することにした。 構成要素 以下の構成要素を選択している。

                  個人運用k8sクラスタの構成要素の技術選定 - でこてっくろぐ ねお
                • k8s環境のメトリクスやログを取得するマネージドサービス「CloudWatch Container Insights」が発表されました! | DevelopersIO

                  k8s環境のメトリクスやログを取得するマネージドサービス「CloudWatch Container Insights」が発表されました! 従来、EKSの監視やログ管理にはサードパーティーOSSや監視用SaaSなどがほぼ必須だったのが、CloudWatchのみで完結しそうな大型アップデートです。 現在開催されているKubeCon + CloudNativeCon Europe 2019 - Linux Foundation Eventsにおいて、Kubernetes環境のコンテナ環境のメトリクスを取得する「CloudWatch Container Insights」が発表されました! コンテナワークロードのためのメトリクス・ログモニタリングサービス、CloudWatch Container Insights の Public Preview を発表しました!! #KubeCon 続) pic

                    k8s環境のメトリクスやログを取得するマネージドサービス「CloudWatch Container Insights」が発表されました! | DevelopersIO
                  • k8sのIDE、Lensが便利な件について | cloud.config Tech Blog

                    本記事はFIXER Advent Calendar 2020 15日目の記事です。 k8sお勉強中の冨本です。半年間毎日k8sと睨めっこして、kubectlでの操作にも多少慣れてきました。しかし流石に毎日となるとグラフィカルで操作性の良いツールとか無いかなぁと思ってしまったりするものです。そこで調べていたらk8sのIDEなるものが。Lensと言うそうです。本記事ではLensとは何か、Lensを使って便利だったところ、Lensにk8sクラスターを登録するまでを紹介します。 Lensとは Lensとはオープンソースかつ無料のk8sのIDEです。Electronベースのアプリケーションで、Windows、macOS、Linuxをサポートしています。結構人気みたいで、Githubのスター数は11000件を超えています。IDEの見た目はこんなかんじ↓ Lensを使って便利だったこと クラスターの切り

                      k8sのIDE、Lensが便利な件について | cloud.config Tech Blog
                    • ZOZOにおけるID基盤のk8sへのリプレイスとセキュリティの取り組み / Authentication service replacement and security efforts of zozotown(CNDT2020)

                      ZOZOにおけるID基盤のk8sへのリプレイスとセキュリティの取り組み / Authentication service replacement and security efforts of zozotown(CNDT2020)

                        ZOZOにおけるID基盤のk8sへのリプレイスとセキュリティの取り組み / Authentication service replacement and security efforts of zozotown(CNDT2020)
                      • 「VM 時代の開発とKubernetes による Cloud Native な開発のこれから」Infra Study Meetup #2 / infrastudy2-k8s

                        「VM 時代の開発とKubernetes による Cloud Native な開発のこれから」 Infra Study Meetup #2

                          「VM 時代の開発とKubernetes による Cloud Native な開発のこれから」Infra Study Meetup #2 / infrastudy2-k8s
                        • Kubernetes as a Serviceを2年稼働させて、行ってきた改修と知見紹介 #k8s

                          こんにちは、ヤフーのKubernetes as a Service(以下KaaS)を担当している勝田です。 今回、KaaSをProduction環境で2年活用してきた中でどのような変化がおき、ヤフーの開発環境がどう変化してきたかをご紹介いたします。 ※ 本記事はYahoo JAPAN Tech Conference 2019 in Shibuya(以下YJTC2019 in Shibuya)のセッション「Kubernetes as a ServiceをProduction環境で2年活用し、直面してきた課題と解決策」をベースに、よりヤフーのKubernetes事情にスポットを当ててお話させていただきます。YJTCのスライドも下記リンクから見られますので、こちらもご参照ください。 Kubernetes as a ServiceをProduction環境で2年活用し、直面してきた課題と解決策 始

                            Kubernetes as a Serviceを2年稼働させて、行ってきた改修と知見紹介 #k8s
                          • nostr と Bluesky に7つ bot を作り k8s で稼働させた

                            俳句bot (nostr) nostr の日本リレーを監視し、投稿を 575 または 57577 判定し、引用でお知らせする。狙った俳句ではなく、天然物の俳句がマッチするとウケが良い。 Go で実装。内部では go-haiku を使って俳句を判定。監視は日本語の投稿が流れる日本のリレーをお借りしている。普通の Go アプリなので golan:1.20-alpine でビルドして scratch でイメージ作成。 # syntax=docker/dockerfile:1.4 FROM golang:1.20-alpine AS build-dev WORKDIR /go/src/app COPY --link go.mod go.sum ./ RUN apk add --no-cache upx || \ go version && \ go mod download COPY --link

                              nostr と Bluesky に7つ bot を作り k8s で稼働させた
                            • ローカルでk8sを試してみたいときはk3dが使えそう。Istioも動きそう。 - Mitsuyuki.Shiiba

                              ## ローカルでk8s ちょっと試してみたいときとかに、ローカルでk8sを動かしたくて。以前だとMinikubeとかDockerについてくるk8sとかを使ったことがあるけど、今だとまた何か出てるかな?と思ってたらこういうスレッドを見つけた。 K3s, minikube or microk8s? : kubernetes Minikube Microk8s K3s Kind Desktop Docker K3d Kubeadm が紹介されてた。へー。と思って、なんとなくk3dが面白そうかなと思ったので試してみた。 ## k3d https://github.com/rancher/k3d 紹介されている一覧の中にあるk3sをDockerで動かしてくれるのがk3dということみたい。Dockerを動かすプラットフォームをDockerの中で動か・・・す?こんがらがる。 僕はUbuntu使ってるんだ

                                ローカルでk8sを試してみたいときはk3dが使えそう。Istioも動きそう。 - Mitsuyuki.Shiiba
                              • 「Kubernetes による Cloud Native な開発」と「VM 時代の開発」July Tech Festa 2019 / jtf2019-k8s-amsy810

                                「Kubernetes による Cloud Native な開発」と「VM 時代の開発」July Tech Festa 2019 Masaya Aoyama(青山 真也) Twitter: @amsy810 CyberAgent

                                  「Kubernetes による Cloud Native な開発」と「VM 時代の開発」July Tech Festa 2019 / jtf2019-k8s-amsy810
                                • Raspberry Piでk8sクラスターを作ろう——4台のRaspberry Piを接続できるバックプレーン「CloverPI」|fabcross

                                  複数台のRaspberry Piを差し込むだけで簡単にクラスター環境が構築できるバックプレーン「CloverPI」がKickstarterに登場し、人気を集めている。 CloverPIは、複雑な配線不要で4台のRaspberry Piをクラスター接続できるバックプレーン基板だ。標準的なGPIOピンを備えたRaspberry Piをサポートし、電源とEthernetケーブルから4台のRaspberry Piに給電とネットワーク接続ができ、各Raspberry Pi用に電源スイッチ、アドレサブルRGB LED、ネットワーク用リンクライト/ヘッダーを配している。また、5つのポート(Raspberry Pi用×4、アップリンク用×1)にギガビットスイッチを備える。

                                    Raspberry Piでk8sクラスターを作ろう——4台のRaspberry Piを接続できるバックプレーン「CloverPI」|fabcross
                                  • Goエンジニアがk8sクラスタでノイジーネイバー問題に遭遇し、解決するまでの記録

                                    これは、とある僕のチームが運用しているWebアプリケーション (Go製) の、ヘルスチェック用エンドポイントの (リクエストハンドラーの) コードです。リクエストがきたら200 OKを返すだけの、シンプルな実装です。 func health(w http.ResponseWriter, _ *http.Request) { w.WriteHeader(http.StatusOK) } ところが、たったこれだけの処理しかしていないエンドポイントのレイテンシが、ある時からピーク時に著しく劣化するようになり、ひどい時には最大3.4秒もかかるようになってしまったのです。 なぜこのようなことになってしまっていたのか、またそれをどのように調査し、解決したのかについて解説します。 システム概要 今回問題となったWebアプリケーションはGoで書かれています。実行環境は Kubernetes (GKE) で

                                      Goエンジニアがk8sクラスタでノイジーネイバー問題に遭遇し、解決するまでの記録
                                    • 5分で作れる!Kubernetes(K8s)のローカル開発環境

                                      Kubernetes は、コンテナ化されたアプリケーションを管理するための、オープンソースのシステムです。「クバネティス」や「クーベネティス」と呼ばれることが多く、略して「K8s」と表記します。これまでは、例えばWebサービスをリリースする場合、インフラエンジニアが手順書に沿ってサーバーを構築し、プログラマがその上にアプリケーションをデプロイ(配置)するのが一般的でしたが、Kubernetes を使えば、それらの作業をコード化できるうえにデプロイやスケーリング(負荷分散)などの面倒まで見てくれます。そこで今回は、簡単に Kubernetes のローカル開発環境を作成する手順をまとめてみました。 Docker Desktop for Mac のインストール以前は Docker(コンテナを実行するためのソフト)が、 Mac や Windows に対応していませんでしたが、今や Mac や Wi

                                        5分で作れる!Kubernetes(K8s)のローカル開発環境
                                      • Gitブランチ、Dockerリポジトリ、環境毎のk8sクラスタ 俺のデプロイフローを聞いてほしい | DevelopersIO

                                        EKSクラスタでアプリケーションを起動させる これだけでもちょっぴりハードルが高いが、この先にはもっと高いハードルが待ち受けている。そう、 コードを修正してEKSクラスタにデプロイするまでのフローを考える である。正直適当にやろうと思えばなんとでもなるが、ここを整備しないと不幸な未来が待っているのだ。 ということで今回は、私が考えたデプロイフローとそのフローに到るまでに悩んだポイントを紹介したいと思います。 ※一部机上レベルでの確認になります。 フィードバックお待ちしています。 デプロイフロー 前提 AWSアカウント:環境毎に分離 Gitリポジトリ:GitHub Dockerレジストリ:ECR CI:CodePipeline + CodeBuild CD:ArgoCD(後述) 用語 アプリケーションリポジトリ アプリケーションコードを管理するためのリポジトリ ArgoCDリポジトリ k8s

                                          Gitブランチ、Dockerリポジトリ、環境毎のk8sクラスタ 俺のデプロイフローを聞いてほしい | DevelopersIO
                                        • クラスタ数530以上、大規模Kubernetesを運用するエンジニア組織の作り方 #k8s

                                          Yahoo! JAPAN Advent Calendar 2019の11日目の記事です。一覧はこちら(外部リンク) みなさんこんにちは。 システム統括本部に所属し、プライベートクラウドのKaaS(Kubernetes as a Service)の担当をしている藤江です。 私は2007年にヤフーに新卒で入社し、会計システムや社内認証システムなどの業務システムの開発・運用経験を経て、2017年4月から今のKaaS運用業務をしています。 現在のプロジェクトではScrumを導入しており、プロダクトオーナーとして働いています。 さて、いきなりですが最初に質問です。Kubernetesというツールを知ってますか? 実際に業務で使っていますか? 去年の1月に開催されたYahoo! JAPAN Tech Conferenceの登壇で、この質問をした時、会場で手を上げてくださった方はわずか数名でした。ヤフー

                                            クラスタ数530以上、大規模Kubernetesを運用するエンジニア組織の作り方 #k8s
                                          • 西田和史(k.bigwheel) 開発基盤エンジニア @ Speee ⌨️🖊️ on Twitter: "前の会社は僕が入ったときにkubernetesでクラスタ組んでて問題頻発かつ構築した人が退職済みで誰も管理できる人がいない状態だった。だから僕もそのときk8sさっぱりだったので提案してECSへ移行したんだけど今kubernetes… https://t.co/IZnpunTGoE"

                                            前の会社は僕が入ったときにkubernetesでクラスタ組んでて問題頻発かつ構築した人が退職済みで誰も管理できる人がいない状態だった。だから僕もそのときk8sさっぱりだったので提案してECSへ移行したんだけど今kubernetes… https://t.co/IZnpunTGoE

                                              西田和史(k.bigwheel) 開発基盤エンジニア @ Speee ⌨️🖊️ on Twitter: "前の会社は僕が入ったときにkubernetesでクラスタ組んでて問題頻発かつ構築した人が退職済みで誰も管理できる人がいない状態だった。だから僕もそのときk8sさっぱりだったので提案してECSへ移行したんだけど今kubernetes… https://t.co/IZnpunTGoE"
                                            • Kubernetesは、流行る前から使っていた 『モンスターストライク』から見るk8sのイケているところ3つ

                                              最近よく耳にする「Kubernetes」ですが、実際はどのような使われ方をしているのでしょうか。こちらの記事で「Kubernetes」について答えた、『モンスターストライク』のサーバーサイド開発を担当している浅野大我氏に、「ミクシル延長戦」として「Kubernetes」を実際どのように使っているのか、より詳しく聞きました。前半は実際の「モンスト」での使われ方について。 「Kubernetes」を使いこなせると何がうれしいの? 司会者:それでは本日のゲスト社員を紹介したいと思っています。『モンスターストライク』事業本部の浅野さんです。よろしくお願いいたします。 浅野大我氏(以下、浅野):よろしくお願いします。 司会者:では簡単に自己紹介をお願いできればと思います。 浅野:よろしくお願いします。私は2020年にミクシィに入社をしました。ミクシィとの関わりとしては、まず2018年に『モンスタース

                                                Kubernetesは、流行る前から使っていた 『モンスターストライク』から見るk8sのイケているところ3つ
                                              • Operator でどう変わる? これからのデータベース運用 / cndt2019_k8s_operator

                                                CloudNative Days Tokyo 2019 (2019/07/22 [1G3] 15:40 - 16:20) https://cloudnativedays.jp/cndt2019/ データベースをはじめとするステートフルなアプリケーションはコンテナでの運用と相性が良くないと考えられていましたが、Kubernetesと周辺ツールを活用し運用するための仕組みが整ってきました。また、CRDとCustom Controllerを使い、運用に必要な操作の自動化をする取り組みも注目されています。本セッションではMySQLを取り上げ、Kubernetesを使った場合のデータベース運用や監視方法について従来のVMを使った場合とはどのように変わるのか、それぞれのメリットとデメリットは何か、等の比較を交えながら今後どのように変わっていくかご紹介します。

                                                  Operator でどう変わる? これからのデータベース運用 / cndt2019_k8s_operator
                                                • マルチテナントなk8sクラスタで構築するログ収集基盤、システムの信頼性向上のために取り組んだ施策

                                                  LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog 2021年11月10日・11日の2日間にわたり、LINEのオンライン技術カンファレンス「LINE DEVELOPER DAY 2021」が開催されました。特別連載企画「DEVDAY21 +Interview」では、登壇者たちに発表内容をさらに深堀り、発表では触れられなかった関連の内容や裏話などについてインタビューします。今回の対象セッションは「マルチテナントなk8sクラスタで構築する信頼性の高いログ収集基盤」です。 LINEはプライベートクラウドのVerda上で、さまざまなマネージドサービスを提供しています。Verdaはマイクロサービスアーキテクチャになっており、各サービスのコンポーネントはマルチテナントなKubernetes

                                                    マルチテナントなk8sクラスタで構築するログ収集基盤、システムの信頼性向上のために取り組んだ施策
                                                  • GitHub - kubeshark/kubeshark: The API traffic analyzer for Kubernetes providing real-time K8s protocol-level visibility, capturing and monitoring all traffic and payloads going in, out and across containers, pods, nodes and clusters. Inspired by Wireshark

                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                      GitHub - kubeshark/kubeshark: The API traffic analyzer for Kubernetes providing real-time K8s protocol-level visibility, capturing and monitoring all traffic and payloads going in, out and across containers, pods, nodes and clusters. Inspired by Wireshark
                                                    • K8sとTraefikでつくるマイクロフロントエンド

                                                      CloudNative Days Tokyo 2020 #CNDT2020_A

                                                        K8sとTraefikでつくるマイクロフロントエンド
                                                      • k9s で k8s Surfing (kubectl には戻れない) - Qiita

                                                        とりあえず以下の手順を試す。 :ns 打つと namespace 一覧。 j か ↓ で、namespace を選んで、 return で、namespace 内の pods 一覧。 :svc 打つと、選んだ namespace 内の service 一覧。 画面下部に View (<pods> <ns> <po> <svc>) が並んでいる。view のひとつ前に戻る時は p 。 return で潜っていった時は、 esc で抜ける。 control+a で、エイリアスが確認できる。 ? でヘルプ。 何か選んで y で、yaml が見れる。 何か選んで e で、yaml が編集できる。 何か選んで l で、ログが見れる。 namespace を渡り歩いていると、0、1、2、3、4、のように数字でアクセスできる namespace が増えていく。 そして何と言っても Port Forwar

                                                          k9s で k8s Surfing (kubectl には戻れない) - Qiita
                                                        • 1,800万人が利用する『家族アルバム みてね』におけるK8s基盤のアップグレード戦略と継続的改善 / FamilyAlbum's upgrade strategy and continuous improvement for K8s infrastructure

                                                          SRE NEXT 2023 https://sre-next.dev/2023/schedule/#jp093

                                                            1,800万人が利用する『家族アルバム みてね』におけるK8s基盤のアップグレード戦略と継続的改善 / FamilyAlbum's upgrade strategy and continuous improvement for K8s infrastructure
                                                          • K8sを意識せずにアプリをデプロイできるKubeVelaにシュっと入門

                                                            GitHubのトレンドを眺めていたところ、KubeVelaというOSSが目に止まりました。 KubeVelaとは 一言で言えば、開発者が楽にK8sにアプリをデプロイするためのツールセットです。 通常、開発者がK8sにアプリをデプロイする際はPod、Service、Ingress、Resource Request、CRD etc...の概念を理解する必要があり、これらを全て理解することは決して楽ではありません。 KubeVelaはこの労力を最小限にするアプローチの1つとして提供されており、開発者はAppfileという設定ファイルのみを管理するだけで良くなるため、複雑なK8sの設定をあまり意識せずにデプロイすることが可能になります。 今回は、このKubeVelaをローカルのK8sクラスター上に展開しながら、動作を確認していきます。 検証環境 Mac OS Catalina Docker: 19

                                                              K8sを意識せずにアプリをデプロイできるKubeVelaにシュっと入門
                                                            • Minecraft as a k8s admin tool

                                                              Would you kill this innocent looking service?Disclaimer: In my spare time I like to build tools that no one really needs, and this is one of them. Have you ever thought to yourself: Why don’t we have an immersive 3D sandbox user interface to manage workloads on my favorite container orchestrator? No? Well here it is anyway. The inspiration for KubeCraft Admin come from watching a video on the Make

                                                                Minecraft as a k8s admin tool
                                                              • 高可用性、省力運用を目指す 自宅 Kubernetes クラスタ (K8s@home #1)

                                                                私が趣味として自宅で飼っている Kubernetes ラズパイクラスタを紹介します。ここでは工夫ポイントとして次の3点についてお話します。 → 工夫その1: HA なコントロールプレーン、MetalLB + BGP による kube-apiserver の負荷分散 → 工夫その2: モニタリングをそれなりにちゃんとやっとく → 工夫その3: Renovate によるアドオンのアップグレードの省力化 K8s@home #1 (2022/10/12) - https://k8shome.connpass.com/event/259491/

                                                                  高可用性、省力運用を目指す 自宅 Kubernetes クラスタ (K8s@home #1)
                                                                • k8sハニーポットとログ出力の話 - エムスリーテックブログ

                                                                  本記事はエムスリー Advent Calendar 2019 - Qiitaの24日目の記事です。 こんにちは。エムスリーエンジニアリンググループの木村です。 業務ではBIRというチームでアンケートシステムの開発をやっています。 今回は個人的に構築しているk8sハニーポットシステムとそこで生じたログ出力の問題について話をしようと思います。 ハニーポット まずハニーポットとは何かですが、一言でいうとインターネットからの攻撃を敢えて受けるサーバです。 通常通用されるサーバでは、ファイアーウォールやアンチマルウェアソフトウェアを利用して攻撃を防御し、サービスを安定して運用することが求められますが、ハニーポットはその逆です。 敢えて攻撃を受け、それを記録することによりネットワーク上でどのような攻撃が流行しているのか、その手口などを観測・分析することが目的になります。 ネットワーク構成 現在の私の自

                                                                    k8sハニーポットとログ出力の話 - エムスリーテックブログ
                                                                  • k8s 上の負荷試験基盤でロードテストを効率化するために新機能を追加した話 - DMM inside

                                                                    Dagger Go SDK vs Shell in GitHub Actions ~ モノレポのCIの実装をGoで実装するまでの道のり ~

                                                                      k8s 上の負荷試験基盤でロードテストを効率化するために新機能を追加した話 - DMM inside
                                                                    • メモリ使用率によってk8sのPodをevictさせる君を作った - 生涯未熟

                                                                      サービスを運用している中で緩やかにメモリ使用率が上がっていく問題があり、それが解決されるまで一時的になんとかするために掲題のを作りました。 github.com 中身自体はZapierが作っていたpreoomkiller-controllerが元になっております。 github.com このコントローラーを導入すれば済む話じゃない?ってなりそうですが、こちらは「メモリ使用量」を閾値としており、更に更新も止まっていたのでせっかくなら勉強がてら作り直すかーとなった結果こうなりました。 この手のk8sに関するツールを今まで全く作ったことがなかったので、勉強に以下の本を読ませていただきました。 実践入門 Kubernetesカスタムコントローラーへの道 技術の泉シリーズ (技術の泉シリーズ(NextPublishing)) 作者:磯 賢大インプレス NextPublishingAmazon pre

                                                                        メモリ使用率によってk8sのPodをevictさせる君を作った - 生涯未熟
                                                                      • Deepen Understanding of CNI by reading amazon-vpc-cni-k8s

                                                                        仕事で amazon EKS を運用していると、時たま network 周りのエラーに遭遇します。都度都度 on-demand に調査をしているのですが、一度全体感を抑えておいた方がいいなと感じたので amazon-vpc-cni-k8s のコードリーディングを通して k8s の network 周りの理解を深めることにしました。 CNICNI とは端的にまとめると、Container Runtime が用意する network namespace に対して network interface を ADD/DEL する操作を実装する interface です。 Container Runtime の仕様となる CRI が CNI に依存して実装されるので、具体的な Network 設計を抽象化して CRI(及びその client となる kubelet)から network resourc

                                                                          Deepen Understanding of CNI by reading amazon-vpc-cni-k8s
                                                                        • GitHub - fugue/regula: Regula checks infrastructure as code templates (Terraform, CloudFormation, k8s manifests) for AWS, Azure, Google Cloud, and Kubernetes security and compliance using Open Policy Agent/Rego

                                                                          Regula is a tool that evaluates infrastructure as code files for potential AWS, Azure, Google Cloud, and Kubernetes security and compliance violations prior to deployment. Regula supports the following file types: CloudFormation JSON/YAML templates Terraform source code Terraform JSON plans Kubernetes YAML manifests Azure Resource Manager (ARM) JSON templates (in preview) Regula includes a library

                                                                            GitHub - fugue/regula: Regula checks infrastructure as code templates (Terraform, CloudFormation, k8s manifests) for AWS, Azure, Google Cloud, and Kubernetes security and compliance using Open Policy Agent/Rego
                                                                          • Desktop K8s in 2021 - DZone

                                                                            For this article, we’ll dig into some of the options for Local Kubernetes Clusters if you are developing on a Mac. When doing microservices development, eventually you will want to start to test integrated services together. And there are several options available to run these tests: Dedicated Clusters – Larger teams typically have dev environments and you can either run lots of little clusters or

                                                                              Desktop K8s in 2021 - DZone
                                                                            • [k8s]JupyterHubを使ったマルチユーザー環境をHelmを使って簡単にデプロイする | DevelopersIO

                                                                              コンニチハ、千葉です。 マルチユーザーで利用するための、Jupyter環境を検証しています。今回は、Kubernetes上にJupyterHub環境をデプロイしてみます。 JupyterHubとは、認証機能、Jupyter環境をユーザーごとに立ち上げしプロキシしてくれるような素敵な機能です。 参考:https://zero-to-jupyterhub.readthedocs.io/en/latest/architecture.html JupyterHubは、Kubernetes上に簡単にデプロイできる仕組みが用意されています。ハードルは全然高くないです。 デプロイ方法としては、Kubernetesでのパッケージ管理Helm(yum的存在)を使ってJupyterHubチャート(チャートはrpm的存在)をデプロイします。 やってみた Jupyter Hubのセットアップ Helmの設定 He

                                                                                [k8s]JupyterHubを使ったマルチユーザー環境をHelmを使って簡単にデプロイする | DevelopersIO
                                                                              • なぜ開発環境を共有フォルダ→VM→コンテナ、k8sとアップデートしていったのか――八楽における開発、運用改善の取り組みとこれから

                                                                                なぜ開発環境を共有フォルダ→VM→コンテナ、k8sとアップデートしていったのか――八楽における開発、運用改善の取り組みとこれから:多言語、多国籍、多拠点チームの開発環境と働き方 AI自動翻訳プラットフォーム「ヤラクゼン」を企画、開発、運用している八楽は、コンテナやKubernetesを活用したクラウドネイティブな開発、運用スタイルを実現している。現在活用しているコンテナやKubernetesにどのようなメリットを感じているのか、多拠点チームで開発生産性を高めるためにどのような取り組みをしているのかを交えて紹介する。 筆者の私が取締役 CTO(最高技術責任者)を務める八楽は、AI自動翻訳プラットフォーム「ヤラクゼン」の企画、開発、運用を通じて、翻訳業務の効率化と翻訳品質の向上、翻訳チームのナレッジ共有を支援しています。ヤラクゼンはソニーや帝人、コニカミノルタなどの大手企業を含め、延べ1000

                                                                                  なぜ開発環境を共有フォルダ→VM→コンテナ、k8sとアップデートしていったのか――八楽における開発、運用改善の取り組みとこれから
                                                                                • 【AWS DevDay Tokyo 2019 セッションレポート】フロントエンドエンジニアがK8sエンジニアになるまでの10年間を振り返る #awsdevday | DevelopersIO

                                                                                  AWS DevDay Tokyo 2019のセッション、「フロントエンドエンジニアがK8sエンジニアになるまでの10年間を振り返る」をレポートします。 セッション概要 AWS使ってますか?気になるけどまだインフラエンジニアにおまかせでしょうか?それとも「私は一生アプリエンジニアだ」と心に決めてますか? このセッションでは、エンジニアとしてのキャリア開始時点ではIaaSやコンテナどころかVMすら関わる予定もなかった人が、10年を経て今ホットなK8s界隈でどんな仕事やOSS活動をするに至ったか(または「AWSコンテナヒーロー」になったか)を紹介します。 セッション中では、いくつかのターニングポイント別のどんなシチュエーションにおいてどんな考えと決断でポジションを変えて、どんな結果を出すことができたかを説明して、最後にこれからどこへ向かおうとしているか、とうこともお話します。 このセッションを通

                                                                                    【AWS DevDay Tokyo 2019 セッションレポート】フロントエンドエンジニアがK8sエンジニアになるまでの10年間を振り返る #awsdevday | DevelopersIO