タグ

関連タグで絞り込む (225)

タグの絞り込みを解除

*infraに関するsh19910711のブックマーク (2,032)

  • AWS Cost and Usage Report(CUR)をTerraformで作成する

    AWS Cost and Usage ReportAWSのコストと使用状況レポート、以下CUR)は、AWSのコストやリソースの使用状況をS3やRedshiftにアップロードしてくれる機能です。EC2インスタンスIDなどのリソース単位を含めることができるため、コストの追跡が容易になります。 Cost Explorerと異なり、EC2以外のAWSサービスのリソースも含まれます。1日1回以上、S3にアップロードされるので、自分たちの使い慣れたBIツールなどで分析・可視化することができます。 AWSマネジメントコンソールからCURを設定することが多いのですが、今回はTerraform(一部CloudFormation)で作成する方法を紹介します。 プロバイダの設定 今回は、CURのデータを保存するS3バケットを東京リージョン(ap-northeast-1)に作成します。 後述しますが、CURを作

    AWS Cost and Usage Report(CUR)をTerraformで作成する
    sh19910711
    sh19910711 2024/05/02
    "aws_cur_report_definition: コストやリソースの使用状況をS3やRedshiftにアップロード + リソース単位を含めることができる / AthenaでCURデータをクエリできるようにするため、AWSから提供されているCloudFormationスタックを実行"
  • Amazon Connect の通話データの分析結果をバッチ処理で Word 文書にする – Amazon Connect アドベントカレンダー 2022 | DevelopersIO

    Amazon Connect の通話データの分析結果をバッチ処理で Word 文書にする – Amazon Connect アドベントカレンダー 2022 こんにちは!森田です。 この記事は「Amazon Connect アドベントカレンダー 2022」の15日目の記事となります! Amazon Connectアドベントカレンダー2022は、クラスメソッドと株式会社ギークフィードさんでチャレンジしている企画となっており、他にもAmazon Connect関する様々な記事がありますのでぜひご参照ください!! この記事では、Amazon Connect の通話データをバッチ処理で分析しその結果を Word 文書にする方法をご紹介します。 やりたいこと Amazon Connectの音声データの分析結果を AWS Lambda で Word 文書に変換し、 そのファイルパスを Amazon Co

    Amazon Connect の通話データの分析結果をバッチ処理で Word 文書にする – Amazon Connect アドベントカレンダー 2022 | DevelopersIO
    sh19910711
    sh19910711 2024/05/02
    "Amazon Connectの音声データの分析結果を AWS Lambda で Word 文書に変換 + wavファイルアップロードをトリガー / Amazon Transcribe をAPIとして呼び出す + AWSブログで紹介されていたamazon-transcribe-output-wordを利用" 2022
  • AWS IAM PolicyのForAllValuesを勘違いしてた件 - LayerX エンジニアブログ

    LayerX Fintech事業部(※)で、ガバナンス・コンプラエンジニアリングをしている 鈴木 (@ken5scal )です。 ※三井物産デジタル・アセットマネジメントに出向しています。 今回は、AWS IAMポリシーの条件における「ForAllValues」の仕様を誤って理解していたことから、安全でないアクセス制御を実装していたという内容です。もし同様の勘違いをされている方がいたら参考になれば幸いです。 ユースケース AWS IAMユーザーを、ロールの trust policy がユーザーのタグで制御するケースで考えます。 具体的には、「Group A あるいは Group B」に所属し、且つ「Admin」権限のあるユーザーのみが行使できる役割「AdminABRole」があるとしましょう。 この場合、Group と Admin のタグが存在し、下記のようなパターン(※)が考えられます。

    AWS IAM PolicyのForAllValuesを勘違いしてた件 - LayerX エンジニアブログ
    sh19910711
    sh19910711 2024/05/02
    "aws:PrincipalTag/{tag-key} (が含まれるContext Keys)が存在しない場合、あるいは、その値がnullデータセットと判定される場合、trueを返します / コンソール上であればIAM Access Analyzerが警告"
  • Azure PipelineからAzure DevOps Wikiを更新する

    まったくもって誰得なのかわからないような記事ですが、Zennに書いて見るネタが欲しかったので書いてみることにしました。 動機 社内のとある活動で経費精算を取りまとめたかったのですが、エンジニアなのにExcelシートってなんか嫌じゃないですか? なので申請時にYAMLを書いてもらってプルリク投げてもらう運用にしたかったのです。 YAMLからMarkdownテーブルへ こっちはTypescriptでサクッと(TS2.x以降久しぶりに触ったので興味津々で調べていたのでちっともサクッとではなかったのですが)作ったので割愛します。npm start するとYAMLってMarkdownを吐き出してくれるごくごく簡単なものです。 なぜGithubではない? 社内向けなので社内で使っているAzure DevOpsなのです。Azure DevOpsはその名の通りAzureの親戚でMicrosoftが提供

    Azure PipelineからAzure DevOps Wikiを更新する
    sh19910711
    sh19910711 2024/05/02
    "Azure DevOps: スルメのようなサービスで最初はとっつきにくい + 使いこなせるとGithubよりもかゆいところに手が届く完成度の高いサービス / おそらくはGithub側にAzure DevOpsのテイストが入り込んでくるんじゃないか" 2021
  • Optuna on Kubeflow Pipeline 分散ハイパラチューニング

    社内の勉強会等で発表した内容を改変したものです。 MOVの「お客様探索ナビ」にOptunaを用いたハイパーパラメータチューニングを組み込んだ経緯、実際のチューニングフロー、コードベースでの解説、実験評価について、Optunaのチュートリアルを交えつつまとめました。 タイトルに分散とありますがKFP上の話なので厳密には並列です。Read less

    Optuna on Kubeflow Pipeline 分散ハイパラチューニング
    sh19910711
    sh19910711 2024/05/02
    "Storage: Trial, Study情報の格納先 / InMemoryStorage: 永続化ができない / RDBStorage: MySQL, PostgreSQL, SQLiteが使える + 分散最適化ならこっち + チューニングの中断・再開ができたり可視化ができたり" 2020
  • 拒否ポリシーでBigQueryのテーブル削除を無効にする

    はじめに こんにちは、クラウドエース データ ML ディビジョン所属の疋田(ひきた)です。 珍しい苗字でなかなか覚えづらいと思いますので、是非「ヒッキー」と呼んでいただければ嬉しいです。 クラウドエースの IT エンジニアリングを担うシステム開発部の中で、特にデータ基盤構築・分析基盤構築からデータ分析までを含む一貫したデータ課題の解決を専門とするのがデータ ML ディビジョンです。 データML ディビジョンでは活動の一環として、毎週 Google Cloud (旧 Google Cloud Platform、以下「GCP」) の新規リリースを調査・発表し、データ領域のプロダクトのキャッチアップをしています。その中でも重要と考えるリリースをページ含め記事として公開しています。 今回ご紹介するリリースは、2023年8月7日にサポートするようになった、拒否ポリシーを介してのアクセス拒否機能です

    拒否ポリシーでBigQueryのテーブル削除を無効にする
    sh19910711
    sh19910711 2024/05/01
    "誤って権限が付与されたアカウントが BigQuery に対して行う操作の一部を阻止できる / テーブルの削除について拒否ポリシーが適用されているプリンシパルは、そのテーブルを含むデータセットも削除できない"
  • 私とAWSの15年 あるいはThe Bezos Mandateの話 - NRIネットコムBlog

    こんにちは佐々木です。 日よりNRIネットコムのメンバーによるイベント、「APN AWS Top Engineers/APN Ambassadors Week」を開催します!!!一番手を担当することになったので、昔を振り返りながらAWSについて考えてみます。 最初のAWSはいつだったのか? 振り返るうえで、まずAWSは始まりはいつだったのかを探ってみましょう。最初のAWSを探ろうとすると、もはや考古学の領域になりそうですが、一般的には2004年のSQSを持って(今の)AWSの始まりとしているようです。この記事を書くにあたって裏を取ろうと思って『最初のAWS』でググると、過去に自分が寄稿した記事が出てきました。当に、ありがとうございます。 dev.classmethod.jp ただ、AWSの名前で一般的に認知されだしたのは、S3やEC2が登場した2006年です。私がAWSに出会ったのも2

    私とAWSの15年 あるいはThe Bezos Mandateの話 - NRIネットコムBlog
    sh19910711
    sh19910711 2024/05/01
    "AWS: クラウドという概念が存在する前から、クラウドを具現化 / 個々のサービスだけみると、必ずしも画期的という訳でもなかった / 初期のAWSはAPIのみ提供されていて、Webの管理画面なるものは一切存在しなかった" 2021
  • Looker Studioのデータ抽出(Extract data)機能を利用してスキャン量を減らす - LayerX エンジニアブログ

    こんにちは!LayerX バクラク事業部 機械学習・データ部 データチームの石橋(@saaaaaaky)です。 Looker Studioのカスタムクエリが1日300回以上実行される課題 弊社ではBIツールとしてLooker Studioを利用しています。 データマートがまだまだ整備できていないので、Looker StudioからGoogleのBigQueryに接続し、カスタムクエリをデータソースとしてダッシュボードが作成されています。 ダッシュボードが閲覧される毎やパラメータの変更をする毎にクエリが実行されるため、よく見られているダッシュボードだと同じクエリの実行数が1日に300回ほどになるものも存在しました。 スキャン量での課金であることと、単純にクエリが実行されることでダッシュボードの表示速度も遅くなり作業効率も落ちてしまいます。 ヒアリングしたところ、リアルタイムのデータが必要とさ

    Looker Studioのデータ抽出(Extract data)機能を利用してスキャン量を減らす - LayerX エンジニアブログ
    sh19910711
    sh19910711 2024/05/01
    "既存のデータソースから特定のフィールドだけを含む「抽出済みデータソース」を作成することができる / 日次、週次、月次での自動更新 / 上限が 100 MB + 上限を超えデータの抽出が止まった際にアラートが出てこない"
  • IaCジェネレーターとBedrockで詳細設計書を生成してみた

    ゼロから始めるVue.jsコミュニティ貢献 / first-vuejs-community-contribution-link-and-motivation

    IaCジェネレーターとBedrockで詳細設計書を生成してみた
    sh19910711
    sh19910711 2024/04/30
    "IaCジェネレーターを使用して既存AWS環境のCloudFormationテンプレートを生成 + Bedrock (Claude 3 Sonnet)のチャットに生成したテンプレートと指示 + テンプレートからエクセルの詳細設計書を作成"
  • [AWS CDK] ALBとCognitoを使ってOktaをIdPとするSAML認証をしてみた | DevelopersIO

    サクッとSAML認証を実装したい こんにちは、のんピ(@non____97)です。 皆さんサクッとSAML認証を実装したいなと思ったことはありますか? 私はあります。 自分でSAML認証のService Provider(SP)側の処理を実装するのは大変です。そのような場合はALBとCognitoを使うと簡単に行えます。 ということで実際にやってみました。今回はIdPとしてOktaを使用します。 「SAML認証ってなんやねん」や「OktaのSAMLアプリってどうやって作成すればいいんだ」、「CognitoでSAML認証ってどうやって行えばいいんだ」という方は以下ドキュメントをご覧ください。 初心者向けSAMLガイド SAMLアプリ統合を作成する | Okta ユーザープールへの SAML ID プロバイダーの追加 - Amazon Cognito また、せっかくなので以下アップデートで可能

    [AWS CDK] ALBとCognitoを使ってOktaをIdPとするSAML認証をしてみた | DevelopersIO
    sh19910711
    sh19910711 2024/04/29
    "サクッとSAML認証を実装したい / 自分でSAML認証のSP側の処理を実装するのは大変 + ALBとCognitoを使うと簡単 / Name ID formatをPersistentに設定 + Attribute Statements : Oktaのuser.emailをemailとして渡す"
  • [Proxmox VE] テンプレートとクローンとCloud-Initを使ってVMをサクサクシュッと生やす (Fedora / Ubuntu) - zaki work log

    Proxmox VEには、VMのテンプレート化とクローン機能があり、さらにCloud-Initを使って初期設定込みで簡単にVMをプロビジョニングできる機能がある。 もうすぐFedora40やUbuntu 24.04がリリースされそうなので、その時にサラサラとテンプレート作成できるように、この機能を使う準備についておさらい。 といっても、ドキュメントの通り順番にコマンド実行していけば作成できる。 pve.proxmox.com ちなみにここではUbuntuの情報はあふれてるので、ここではFedora 40 betaでお試し。 (Ubuntuの場合も参考程度に記載してる) テンプレートの作成 ベースになるCloudイメージの入手 テンプレート元にするVM作成 イメージのセット Cloud-Init CD-ROMドライブの追加 テンプレートへの変換 テンプレートの設定 VM設定 Cloud-In

    [Proxmox VE] テンプレートとクローンとCloud-Initを使ってVMをサクサクシュッと生やす (Fedora / Ubuntu) - zaki work log
    sh19910711
    sh19910711 2024/04/29
    "Proxmox VE: VMのテンプレート化とクローン機能 + Cloud-Initを使って初期設定込みで簡単にVMをプロビジョニング + 使える状態のVMを秒で作成できる / Cloudイメージを使ったVM + Fedora Cloud 40 QEMU (qcow2形式)をダウンロード"
  • AWS Step FunctionsとAmazon Bedrockを用いて生成AIの自動フローへの組み込みを行う - Qiita

    前提 AWS Step Functionsとは、ステートマシンを使用してワークフローを構築し、アプリケーションの自動化を実現するサービスです。一方、Amazon Bedrockは、大規模な言語モデルを活用して自然言語処理の機能を提供するサービスです。AWS Step Functionsから Amazon Bedrockを実行することで、ワークフロー機能の中に生成AI機能を組み込むことが可能となっています。 生成AIはチャット機能の形式で使われることが多いですが、実業務の中での利用を考えたときにワークフローや自動化の文脈で活用できると利用の幅が非常に広がると考えられます。そこで今回、以下の記事を参考にしつつAWS上で生成AIを含んだ自動フローの実装を行いました。 参考記事:https://aws.amazon.com/jp/blogs/news/build-generative-ai-app

    AWS Step FunctionsとAmazon Bedrockを用いて生成AIの自動フローへの組み込みを行う - Qiita
    sh19910711
    sh19910711 2024/04/29
    "Step Functionsから Amazon Bedrockを実行 / 実業務の中での利用を考えたときにワークフローや自動化の文脈で活用できると利用の幅が非常に広がる / 常に自分が想定したそのままの形で返ってくるとは限らない点に注意が必要"
  • Snowflake 向けの DevOps の取り組みと現状の課題についてまとめてみた

    記事の背景 記事は、某所で密かに行われていた Snowflake DevOps 情報交換会 Season 1 最終回の議論用に共有した内容です。 会は、 DevOps を中心に、また DevOps とは直接は関係ないテーマも含め、その時々において関心のあるテーマを取り扱っていましたが、今回は最終会ということで、来のテーマである DevOps において、私個人が中心的テーマであると考える構成管理やデプロイの自動化について議論したいと思い、整理しました。 中心的テーマを再び取り上げようと考えたきっかけの 1 つが Snowflake Data Superhero の Tomas が LinkedIn で EXECUTE IMMEDIATE FROM という新しい構文について紹介しているのを発見したことです。これはステージ上の SQL ファイルを直接実行できるという機能です。 Tomas

    Snowflake 向けの DevOps の取り組みと現状の課題についてまとめてみた
    sh19910711
    sh19910711 2024/04/28
    "Snowflake Data Superhero の Tomas が LinkedIn で EXECUTE IMMEDIATE FROM という新しい構文について紹介しているのを発見 / 本機能を Snowflake でのインフラ構成管理に使えると指摘" 2023
  • Snowflakeにて大規模なテーブルのクエリ実行時間を高速化するためのマイクロパーティションという選択肢について

    テーブルに対して設定する場合は、複数の日付列を指定するのが良いと記載があります。この場合は日付列はTIMESTAMP型の場合はTO_DATEでキャストすることを推奨されています。 例えば、ファクトテーブルに、多くの離散値(テーブル内のマイクロパーティションの数よりも多く)を含む TIMESTAMP 列 c_timestamp がある場合、タイムスタンプではなく日付に値をキャストすることで、列にクラスタリングキーを定義できます(例: to_date(c_timestamp))。これにより、カーディナリティが合計日数に削減され、より優れたプルーニング結果が通常生成されます。 引用元:クラスタリングキーを選択するための戦略 費用 今回の例では、DATE列に指定した場合は約5クレジット、DATE列を含む4列に指定した場合は22クレジットの消費でした。 自動クラスタリング クラスタリングキーを設定し

    Snowflakeにて大規模なテーブルのクエリ実行時間を高速化するためのマイクロパーティションという選択肢について
    sh19910711
    sh19910711 2024/04/27
    "クラスタ化されたテーブルはSnowflakeが継続的に管理 / レコード数が多く、頻繁に参照され、あまりデータが更新されないようなテーブルに設定 / VARCHAR列に設定する場合は最初の5バイトのみ" 2023
  • Twilio StudioとDialogflowで作るサーバレス自然言語による自動応答電話(IVR)システム ~Kintoneでの可視化も添えて~ - ワタナベ書店

    タイトル盛りすぎ。 ところで「お前が神を殺したいなら、とあなたは言った」が完結しましたね。 このブログを読んでる各位はもうすでにお読みでしょうが、念の為に言っておきますと、とても面白いので読みましょう。 異世界転生宗教改革ものですよ。陰謀策略政治会話群像劇が好きな人絶対楽しいですよ。 なお、この話が好きな方は不朽のフェーネチカも好きだと思うのでぜひ。 不朽のフェーネチカ (アフタヌーンコミックス) 作者:竹良実発売日: 2018/07/06メディア: Kindle版 まえがき Dialogflow とはGoogle Homeのアプリ作成で使用されている自然言語対話のプラットフォームです。 ただし、Dialogflow はGoogle Homeアプリだけに使うわけではなく、APIを用いて直接自然言語対話をリクエストすることができます。 よって、Google Homeアプリだけでなく、直接スピ

    Twilio StudioとDialogflowで作るサーバレス自然言語による自動応答電話(IVR)システム ~Kintoneでの可視化も添えて~ - ワタナベ書店
    sh19910711
    sh19910711 2024/04/27
    "Twilioの音声認識サービスで相手の音声をテキスト化 + テキストをTwilio FunctionにてDialogflowに送信 / かかってきた電話番号と問い合わせ内容が自動で記録 / 1通話5〜10円くらい" 2018
  • Agents for Amazon Bedrock の "ユーザー入力" を CloudFromation で有効にする

    この内容は執筆時点の2024年4月26日ごろに確認した結果です。きっと、直ぐにもっとスマートな方法が公開されると思います。(してくれ。) HogeHogeAgent: Type: AWS::Bedrock::Agent Properties: AgentName: HogeHogeAgent AgentResourceRoleArn: !Ref AgentRoleArn FoundationModel: anthropic.claude-3-haiku-20240307-v1:0 Instruction: | あなたはユーザーからの質問や要望に対応するエージェントです。 質問には丁寧に回答してください。 AutoPrepare: true ActionGroups: - ActionGroupName: UserInputAction ActionGroupState: ENABLED P

    Agents for Amazon Bedrock の "ユーザー入力" を CloudFromation で有効にする
    sh19910711
    sh19910711 2024/04/27
    "情報が不足している場合、エージェント側からユーザーに質問することを許可するかどうかを指定するフラグ / ドキュメントには必須項目である AgentGroupName に何を設定すべきなのかの記載がありません"
  • LambdaからIPv6でアクセスできるようにする - backyard of 伊勢的新常識

    AWSでは各種サービスのグローバルIPv4アドレスが有料化されることになり、EC2などで一部無料枠もあるものの、基的にはIPアドレスあたり概ね500〜600円程度の課金額がかかるようになりました。 無償版G Suiteが廃止されるのでAWS SESDockerでメール送受信システムを作ったで作成したシステムでは最終的にLightsailで中継用のIMAP/POP3サーバーを作ることになりましたが、こちらもIPv6オンリーのインスタンスに変更しなければ値上げとなりました。 LightsailをIPv6インスタンスに変更するにあたって、LambdaのコードからIPv6にアクセスが必要となりましたが、そのためにはLambdaVPCアウトバウンド接続の設定が必要となったので、上記のメール受信システムのアップデートに合わせて行った設定の要点をAWS CDKのコードベースで説明します。 要点 L

    LambdaからIPv6でアクセスできるようにする - backyard of 伊勢的新常識
    sh19910711
    sh19910711 2024/04/27
    "AWS: グローバルIPv4アドレスが有料化 + IPアドレスあたり概ね500〜600円程度の課金 / LightsailをIPv6インスタンスに変更するにあたって、LambdaのコードからIPv6にアクセスが必要 / AAAAレコードのみを定義したドメインに接続"
  • OktaとAWSサービスのシングルサインオン連携をするため、Okta Starter Developer Editionを登録してみた | DevelopersIO

    OktaとAWSサービスのシングルサインオン連携をするため、Okta Starter Developer Editionを登録してみた はじめに AWSサービスのうち、以下のサービスでは、ユーザー認証のシングルサインオン (SAML 2.0 ベースのフェデレーション認証)に対応しています。 AWS IAM Identity Center Amazon WorkSpaces Amazon AppStream 2.0 AWS Client VPN OktaとAWSのシングルサインオンを試したいと思った時、Okta Starter Developer Editionが無料で利用できることを知りました。 Okta Starter Developer Editionとは、Oktaの認証、認可、ユーザー管理の機能をアプリに組み込む開発者向けに無料で提供されています。 一部制限がありますが、Oktaの機

    OktaとAWSサービスのシングルサインオン連携をするため、Okta Starter Developer Editionを登録してみた | DevelopersIO
    sh19910711
    sh19910711 2024/04/26
    "OktaとAWSのシングルサインオンを試したい / Okta Starter Developer Edition: Oktaの認証、認可、ユーザー管理の機能をアプリに組み込む開発者向けに無料で提供 / GoogleやGitHubアカウントを使用して登録できます" 2023
  • KubernetesのSecretを1Passwordで管理する

    1Password Connect Kubernetes Operator GitHub: https://github.com/1Password/onepassword-operator 1Password上に保存されているアイテムをKubernetes上のSecretリソースに同期してくれるオペレーターです。Secretリソースはその特性上GitHubに直接あげることが難しく、IaCを実現するために様々なアプローチが取られていますが1Password Connect Kubernetes Operatorもその1つです。感覚としてはexternal-secretsなどに近く、外部のCredential Storeの情報を取得しKubernetes上にSecretリソースを作成してくれるものです。 1Password公式のOrganization下で開発されています。比較的最近開発が始

    KubernetesのSecretを1Passwordで管理する
    sh19910711
    sh19910711 2024/04/26
    "onepassword-operator: 1Password上に保存されているアイテムをKubernetes上のSecretリソースに同期してくれる / TeamsやBusinessではない個人向けプランですが利用することができました" 2021
  • Google Cloud Next ’24 振り返り勉強会でCloud RunとGKEのコスト最適化のRecapを話しました #GoogleCloudNext | DevelopersIO

    Google Cloud Next ’24 振り返り勉強会でCloud RunとGKEのコスト最適化のRecapを話しました #GoogleCloudNext ども、 もこ@札幌オフィスです。 少し遅くなってしまいましたが、4月17日に Google Cloud Next '24 の振り返り勉強会である【4/17(水)ハイブリッド】クラスメソッドGoogle Cloud Next ’24ふり返り勉強会 に登壇してきたので、その内容をブログにまとめます。 資料 Cloud RunのアップデートRecap Cloud RunのProduct Ownerの方が喋るセッション、 Cloud Run: What's new に参加したところ、たくさんのアップデート情報を知ることが出来たため、登壇ではCloud Runの最新情報をRecapしました。記事でも口頭で話した内容を記載していきます。 V

    Google Cloud Next ’24 振り返り勉強会でCloud RunとGKEのコスト最適化のRecapを話しました #GoogleCloudNext | DevelopersIO
    sh19910711
    sh19910711 2024/04/26
    "Cloud Run: 推測できるURLを発行できるようになった / Application canvas: Cloud Runと連携するCloud SQLやVertex AIなど数クリックで作成してデプロイ + 自然言語で「こういったアーキテクチャ欲しい」と言うと作成してくれる"