サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
掃除・片付け
dev.classmethod.jp
Knowledge bases for Amazon Bedrock の Chat with your document を試してみる Knowledge bases for Amazon Bedrock に Chat with your document 機能がリリースされました。単一のドキュメントであれば、ナレッジベースを作成しなくとも RAG を利用できます。ただし、ナレッジベースとは RAG の実装の仕組みが異なるため注意です。 こんにちは! AWS 事業本部コンサルティング部のたかくに(@takakuni_)です。 少し前のアップデートですが、Knowledge bases for Amazon Bedrock で Chat with your document 機能がリリースされました。 この機能を使うことで、単一のドキュメントにおける RAG の回答であれば、ナレッジベースを
[ゼロから始めるプロジェクトマネジメント] プロジェクトの最初の打ち合わせからエンジニアを同席させよう(できればテスターも) プロジェクトマネジメント未経験の方も今日から参考にできるTipsをシェア。 ゼロから始めるプロジェクトマネジメントシリーズ第八回です。 お客様との打ち合わせ、その初期からエンジニア、テスターを参加させるようにしましょう。 そのメリットについて書きました。 情報システム室の進地@日比谷です。 プロジェクトの最初のお客様との打ち合わせ、まだプロジェクト化していない状態も含めて最初の打ち合わせからエンジニア、そして可能であればテスターを同席させるメリットについて書きたいと思います。会社の体制の都合などから実現が難しいケースもあるかと思いますが、なるべく初期からエンジニア、テスターを打ち合わせに参加させるようにしましょう。 あるプロジェクト、成約はめでたいが・・・ 営業の野
CDK の中で DB を初期化する点についても後ほど触れます。 S3 にサンプルデータをアップロードする 続いて、以下のコマンドで S3 にサンプルのデータを入れます。 bucket_name=$(aws cloudformation describe-stacks --stack-name BlogAthenaJoinS3AndMysqlStack --output text --query 'Stacks[0].Outputs[?OutputKey==`BucketName`].OutputValue') aws s3 cp ./s3_test_data/data "s3://${bucket_name}/data" --recursive これで CloudFormation で作成した S3 バケット名を取得し、そのバケットに以下の CSV ファイルをアップロードしました。 ※4都
こんにちは。CX事業本部のたにもんです。 先日BedrockでLlama3が利用できるようになりました。 Meta Llama 3 が Amazon Bedrock で利用可能に Llama3を利用して何か作ってみたかったので、今回はLlama3をBedrockから利用し、コード実行できるSlackチャットボットを作ってみたので紹介します。 実際に動かしてみたときの様子は以下のとおりです。 指示内容遂行に必要な行動計画を立て、それに必要なコードを書いて実行し、最終的な結果を返してくれます。 今回作成したコード全体は以下のGitHubリポジトリで公開しているので、興味のある方はご参照ください。 https://github.com/tanimon/ai-chatbot-slack/tree/v2024.05.09 環境 Rancher Desktop: 1.12.2 docker: 24.0
それでは以下のコマンドを実行していきます。 terraform init terraform initコマンドが成功したらterraform applyコマンドを実行します terraform apply コマンドを実行すると Do you want to perform these actions? と確認されますので、yesと入力してEnterキーを押下します。 コマンドが成功したらサービスアカウントが作成されているか確認してみます。 サービスアカウントが、指定通り作成できていることを確認できました。 ロールを付与したサービスアカウントを作成してみる 次はロールを付与したサービスアカウントを作成してみます。 ホームディレクトリ直下へ移動して、ディレクトリを作成して移動します。 mkdir terraform_serviceaccount_test_with_role && cd ter
Cloudflare AI Gatewayを利用して、Amazon Bedrockを使ったAPIの利用状況の可視化、分析、ロギングできるか試してみた どうも!オペレーション部の西村祐二です。 以前、Hono + Cloudflare Workers + AWS SDK for JavaScript v3 + Amazon Bedrockの構成でAIモデルの動作確認用のAPIを作りました。 Hono + Cloudflare Workers + AWS SDK for JavaScript v3の構成でAmazon Bedrockが利用できるか試してみた | DevelopersIO 今回このAPIに対して、AIアプリケーションの利用状況を可視化、分析、キャッシュ、生成された回答のロギングなどの環境を提供するCloudflare AI Gatewayを試してみたいと思います。 Cloudfl
TerraformのAWS Providerは現時点(2024/4時点)で、MFAトークンの対話型認証はサポートされていません。 IAMユーザーでMFA認証が有効になっている環境では、IAMロールを引き受けるAWS CLIの名前付きプロファイルを指定して、Terraformを実行するとエラーになってしまいます。 ~/.aws/config [profile myprofile] output=json region=ap-northeast-1 role_arn=arn:aws:iam::01234567890:role/<IAMロール名> mfa_serial=arn:aws:iam::12345678901:mfa/<IAMユーザ名> $ export AWS_PROFILE="myprofile" $ terraform plan Planning failed. Terraform
こんにちは、ゲームソリューション部のsoraです。 今回は、FlutterでGoogle Fontsを使ってフォントを変更してみた(google_fonts)ことについて書いていきます。 実装した画面 初期フォントからGoogle Fontsのフォントを使用したものに変更して表示します。 利用するパッケージやサイト google_fonts | Flutter package 使用したバージョン:google_fonts 6.2.1 Google Fontsを利用するためのパッケージです。 assets内にフォントファイルが存在する場合はオフラインでも使用できますが、そうでない場合はHTTPで取得するためオフラインの場合は使用できません。 Googleが提供しているWebフォントのサービスです。 世界中のフォントが存在して、全て無料で利用可能です。 Browse Fonts - Googl
[アップデート] AWS Resilience Hub のドリフト検出機能が強化され、アプリケーション変更でもトリガー出来るようになりました いわさです。 AWS Resilience Hub はアプリケーションやコンポーネントごとに要求される回復力を検出・評価することが出来るサービスです。 AWS Resilience Hub の機能のひとつに「ドリフト検出」というものがあります。 2023 年 8 月に実装された機能で、以前のポリシーでは準拠できていたが、最新のポリシーでは準拠できなかったリソースやコンポーネントをドリフトが発生している状態として検出してくれます。 先日 2024 年 5 月のアップデートでこの機能がさらに強化されました。 Resilience Hub のドリフト検出機能は日次などで継続的なスケジュール実行が可能だったのですが、今回のアップデートでリソースやコンポーネン
Hono + Cloudflare Workers + AWS SDK for JavaScript v3の構成でAmazon Bedrockが利用できるか試してみた どうも!オペレーション部の西村祐二です。 APIを作るときにHono + Cloudflare Workersの構成は開発体験もよく、この構成で検証をおこなっております。 AWSの環境もよく利用しており、AWSのサービスと連携するためにはSDKの利用がほぼ必須になってます。 最近、AIのサービスも利用する機会もあるので、Hono + Cloudflare Workers + AWS SDK for JavaScript v3の構成でAmazon Bedrockが利用できるか試してみました。 その手順などを備忘録のためにまとめておきたいと思います。 環境 Hono: 4.3.4 AWS SDK for JavaScript v
困っていた内容 バックアップを取るために AMI を作成する予定ですが、その際はどのタイミングが静止点となるのかを教えてほしい。 どう対応すればいいの? AMI 作成の API が実行され、AMI ID が返された瞬間が静止点となります。 その時点で スナップショットの静止点も確保されており、それ以降の操作は AMI 及び スナップショットに影響は与えません。 まとめ AMI やスナップショットの静止点の確保についてのお問い合わせは割と受けることが多いので、記事として作成しました。 短い内容ではありますが、細かい部分も把握したい方はいらっしゃると思いますので、お役に立つことがあれば幸いです。
みなさま。お久しぶりでございます。ブログの書ける賢いわんこ、ぶりです。ご機嫌いかがでしょうか。わたくしは相変わらずのべりべりぷりてぃさで日々人間を魅了しております。さてさて、今回はAWS超初心者の飼い主がAmazon Connectをいじいじしておりましたので、その奮闘ぶりを隣で見ていたわたくしが、代わりにその一部始終をお届けしようと思い、再びキーボードに向かっております。 結論から申しますと、AWS超初心者かつ、非エンジニア、かつ、システム音痴の飼い主でも、Amazon Connectで簡単なフローを作って着信させることができました。初めてAmazon Connectに触るぞという方、着信テストをしたいけどよくわからない方、とりあえず触ってみたい方、自社のコールセンターでAmazon Connectを使うことになって、とりあえず着信テストをしたい管理者、オペレーターの方々。どんとうぉーり
このブログ記事では、Cognitoを使ってLaravelでシンプルな認証機能を実装する方法を紹介します。 目的 クラスメソッドタイランドの清水です。 本記事では Cognito を使って Laravel で簡単な認証機能を実装します。 認証のシーケンスは以下のようになります。 また、全体の流れを理解するために Laravel のロジックは非常に簡潔になっているので、本番環境で注意が必要な部分は ⚠️ でコメントを書いています。 前提条件・知識 AWS アカウントを作成済み IAM Role, Policy, Cloud9 の環境を作成できる権限がある 使いたいAWS アカウントのリージョンで cdk bootstrap コマンドを実行済み ローカル PC に docker, docker-compose をインストール済み 手順 まずは CDK を実行するための環境を Cloud9 で準備
こんにちは!AWS事業本部のおつまみです。 みなさん、rootユーザーでしかできない操作を知りたいと思ったことはありますか?私はあります。 rootユーザーとは、AWSアカウントを作成した際に自動的に付与される最も権限の高いユーザーアカウントのことです。 rootユーザーには特別な権限があり、一般ユーザーアカウント(IAMユーザー)ではできない操作が可能です。 しかし、rootユーザーだと非常に強い権限を持っているので、基本的にAWSを利用する際はIAMユーザーを利用することがベストプラクティスとされています。 AWS アカウントのルートユーザーのベストプラクティス - AWS Identity and Access Management rootユーザーの認証情報が必要なタスクがある場合を除き、AWS アカウントのrootユーザーにはアクセスしないことを強くお勧めします。 また弊社AWS
こんにちは、ゲームソリューション部の入井です。 先月4月24日にAmazon GameLiftでコンテナをゲームサーバーとして利用できるようになるプレビュー機能が発表されました。 Amazon GameLift now includes containers support (Preview) 今までAmazon GameLiftではゲームサーバーの実行ファイルを含んだディレクトリをアップロードし、それをインスタンス上で実行する方法しか基本的にできませんでした(FleetIQ利用の場合を除く)が、今回のアップデートによりコンテナイメージを取り扱うことができるようになりました。 従来はビルドされた実行ファイルが必要なため、コンテナ環境でゲームサーバーを開発していた場合、デプロイの際に都度ビルドを行う必要がありました。また、GameLiftでの運用時はコンテナ環境では無くなるため、微妙な環境差
※注 The service determines the logging mode. The default is LEGACY. Do not rely on the default logging behavior as it may change in the future. 引用:公式リファレンス 今回は、上記のオプションの中でもGCS_ONLYを設定して指定のCloud Storageバケットへログが出力されるようにしてみます。 Cloud Build構成ファイルの準備 以下のBuild構成ファイルを作成しました。トリガー作成に関してはこちらの記事をご参照ください。 cloudbuild.yaml steps: - name: 'gcr.io/google.com/cloudsdktool/cloud-sdk' entrypoint: 'bash' args: - '-c' -
困っていること 自分のIAMユーザーのパスワードの設定を変更したいのですが、やり方がよくわかりません。 セキュリティの観点からも変更したいのですが、再設定はどのように行えばいいのでしょうか? どう対応すればいいの? マネージメントコンソールにログインします。 右上のナビゲーションバーで、「セキュリティ認証情報」をクリックします。 「AWS IAM 認証情報」タブで、「コンソールパスワードの更新」 をクリックします。 パスワードの変更画面が、POPUPで表示されます。 「現在のパスワード」に先ほどのログイン時に使用したパスワードを入力します。「新しいパスワード」と 「パスワードを確認」 に新しいパスワードを入力します。その後、「パスワードを変更」 をクリックします。 更新が完了すると、以下のように「更新済み 今すぐ」といった情報が表示されます。 これで次回から、新しいパスワードでログインが可
Amazon RedshiftはZero-ETL統合のMulti-AZデプロイメント、Amazon Athenaのフェデレーテッドクエリパススルー機能、Amazon QuickSightのAWS PrivateLinkのサポートとIAMアイデンティティセンターのアカウントインスタンスを新たに統合など。 はじめに クラスメソッドの石川です。日々AWSのアナリティクス関連サービスのアップデートとそのブログをご紹介します。 今月は、Amazon RedshiftはZero-ETL統合のMulti-AZデプロイメントで高可用性を実現し、ダウンタイムなしの分析を可能に。Amazon Athenaのフェデレーテッドのクエリパススルー機能で、BigQueryやSnowflakeなどの外部データソースへの直接アクセスが可能になり、データ処理の効率が飛躍的に向上。さらに、Amazon QuickSightは
前回のブログでは、2週間の新卒研修について書きました。 今回はその続きです。 元々は一つの記事にまとめて投稿する予定でしたが、時間がかかりすぎたことと、文章の長さがちょうどよかったため、Part.2として続けることにしました。 まだPart.1をご覧になっていない方は、ぜひ先に読んでいただければと思います! ご注意:新卒研修内容は、年度ごとに、会社ごとに状況に応じて変更しております。そのため、この記事はあくまで「アノテーション2024年度新卒のKoty-Mousaがやったこと」としてご覧いただきますようお願いします。 日比谷本社での研修 朝会・夕会 私たちはこれを「あさかい・ゆうかい」と呼んでいます。 一日の仕事の始まりと終わりに、チームメンバーが集まって30分ほどの小さな会議を開きます。今回は全員が出社していたため、「カフェスペース」に集まって開催しました。 私たちのグループは、グランド
Google Cloudデータエンジニアのはんざわです。 今回の記事では、Cloud StorageをデータストアとするBigLakeテーブルを作ってみたいと思います。 そもそもBigLakeテーブルとは? BigLakeテーブルは、従来の外部テーブルと同様に外部のデータストアのデータにアクセス可能なテーブルです。 従来の外部テーブルと比較するとアクセス権の委任により、「ユーザーがBigLakeテーブルにアクセスする権限」と「BigLakeテーブルがデータストアを参照する権限」が分離されている点で異なります。 BigLakeテーブルは、Cloud StorageにアクセスするためにBigQuery Connectionを使用します。 このConnectionには、データストアを参照する権限を割り当てることができ、これによりBigLakeテーブルへのアクセス権限とデータストアの参照権限を分離
データアナリティクス事業本部のueharaです。 今回は、S3にあるparquetファイルのメタデータのみにアクセスしてスキーマ情報を取得してみたいと思います。 はじめに S3にデータ容量の大きなparquetファイルがあり、例えばLambda内でそのparquetファイルのスキーマ情報を取得したい際にデータを丸ごとLambdaに持ってくるのは不都合な場合があります。 そこで、S3にあるparquetファイルのメタデータのみにアクセスしてスキーマ情報を取得してみたいと思います。 parquetファイルの構造 parquet-formatを見ると、parquetファイルの構造は以下のようになっております。 (参考) これを見ると、Footer情報にメタデータが存在し、実際のFooter情報の長さは最後の8バイトの内前半の4バイトに保存されており、後半の4バイトは PAR1 というマジックナン
Hi, this is Charu from Classmethod. I recently came across similar looking but different purpose keywords in GoLang: scan and scanln. These both are the methods used for user input. While they might seem similar at first glance, understanding their differences can prevent headaches and streamline your code. So, let's dive in. Introduction to scan and scanln: Both scan and scanln are methods used i
[VS Code]タブのカスタムラベル設定でpage.tsx、layout.tsxなどのファイルを見やすくする どうも!オペレーション部の西村祐二です。 最近、Next.jsなどでフロントエンドの実装も行うことが増えてきました。 実装を進めていくと、page.tsx,layout.tsx,index.tsx,route.tsなど同名のファイルが増えてきて、どのファイルを開いているか分かりづらいなと思う場面がありました。 VS Codeのv1.88で開いているファイルタブのラベルをカスタマイズできるようになったので、その設定方法を紹介したいと思います。 Visual Studio Code March 2024 結論 最初に結論として、settings.jsonに下記設定をすることでディレクトリ名も表示されるようになりタブを見やすくすることができます。 .vscode/settings.js
Snowball Edge はデバイス自体が配送用のコンテナでもあるため、特に梱包はされず、画像のような状態で配送されます。 Snowball Edge の受領 - AWS Snowball Edge デベロッパーガイド デバイスを受け取ると、その AWS Snowball Edge デバイスがボックスに入っていないことに気付くかもしれません。デバイスはそれ自体が物理的に頑丈な配送用コンテナです。 …(中略)… そのため、デバイス仕様に記載のサイズが受け取り時のサイズとなります。 デバイスの到着後および返送前の手順をまとめた動画も公開されておりますので、実際のイメージを掴む際などにご利用ください。 参考資料 AWS Snowball Edge デバイスの仕様 - AWS Snowball Edge デベロッパーガイド Snowball Edge を受け取った際にどのように利用を開始するのか
困っていた内容 Step Functions のマネジメントコンソールからステートマシンの実行履歴を確認しようとしたところ、過去の情報が閲覧できませんでした。 Step Functions の実行履歴の保持期間を教えてください。 どう対応すればいいの? 標準ワークフローの実行履歴の保持期間は、デフォルトで 90 日間です。 クォータのリクエストを行うことで、30日間に短縮することも可能です。 クォータ - AWS Step Functions 実行が終了してから 90 日後。この期間後は、実行履歴の取得や表示はできません。Step Functions が保持するクローズした実行の数にはこれ以上のクォータはありません。 コンプライアンス、組織、または規制の要件を満たすために、クォータリクエストを送信することによって実行履歴の保持期間を 30 日に短縮できます。 Express ワークフローの
結論 CompositeAction側でのactions/checkoutの際は、デフォルトでclean=trueなので気をつけましょう name: some comsite action runs: using: "composite" steps: - uses: actions/checkout@v4 with: clean: false # important in some cases - run: some task 説明 CompositeActionを使えば、部分的な処理を部品化してDRYなWorkflowを記述できるので、大変有用です。 他方、CompositeActionの利用に関しては、CompositeAction側でも常にチェックアウトする必要があります。この時にデフォルトのままだとワークスペースがクリアされてしまうため、先にConpositeAction外で実施
皆さんこんにちは!オンライン総務のステファニーです。 今回は、入社してから2回目で、全体で4回目のTOEIC試験を受けた経験について話してみたいと思います。 オンライン総務として時々英訳依頼について対応していることもあり、自分の現在の実力がどのぐらいか 知りたくて試験を受けてきました。 結論から言いますと、前回より高い点数を目指しましたが、受験履歴の中で最も低い点数を取得しました(935→870→780)。 今回の試験に対する反省と今後の試験のための戦略として、勉強方法、目標達成の失敗原因、 高得点対策について書き留めておきたいと思います。 それでは、TOEIC試験を予定されている方、またはご興味のある方、ぜひお読みください! 【どうやって勉強した?】 模擬試験の問題集を1冊購入し、実際の試験時間どおりに解く練習をしました。 あと、RCの文法パートのセルフ解説用としてグラマーのテキストも1
困っていること AWS Systems Manager の Patch Manager を利用しています。 対象ノードは RHEL であり、弊社運用要件として、マイナーリリースを固定した上でパッチを適用しなければなりません。方法があれば教えてください。 どう対応すればいいの? 公式ドキュメントを調査したところ、現時点 AWS Systems Manager の Patch Manager 機能としては RHEL のマイナーリリースを固定した上でパッチを適用する機能は提供されておりません。 代替案 AWS が提供するサブスクリプション込みの RHEL AMI では、特定のマイナーリリースにおいて EUS が提供されています。EUS を適用し特定 Ver の、RHEL の EUS リポジトリのみを利用する設定とすることによって、マイナーリリースを RHEL 〇.〇 に固定することが可能です。弊
[アップデート] Amazon QuickSight でカスタムアクセス許可を使ってアカウントの SPICE 容量を作成者に非公開に出来るようになりました いわさです。 Amazon QuickSight ではデータセットに SPICE を使う場合、その容量を管理する必要があります。 SPICE の使用量の応じて料金が発生したり、あるいは上限があったりします。 SPICE は QuickSight アカウントで共通のキャパシティを持っており、QuickSight の管理者ユーザーは、管理メニューから確認したり、追加の容量を購入したりすることが出来ます。 この SPICE 容量ですが、作成者 (AUTHOR) ロールの場合は管理者メニューにアクセス出来ないので、そちらからは確認や管理が出来ません。 ただし、SPICE 自動購入オプションが OFF の場合、データセット作成画面では作成者ロール
次のページ
このページを最初にブックマークしてみませんか?
『Developers.IO』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く