並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 295 件 / 295件

新着順 人気順

machine-learningの検索結果281 - 295 件 / 295件

  • Amazon Rekognitionを新米エンジニアが触ってみた |システム・アプリ開発 - クロスパワークラウドブログ

    本記事でやること AWS CLIからS3に画像をアップロードし、 アップロードした画像で顔の比較を行ってみます。 対象読者 私自身、AWSを全く触ったことが無いのですが 何かしらのAWSを触ってみたい Amazon Rekognitionで何が出来るか知りたい Amazon Rekognitionをサクッと触ってみたい といった方々のお役に立てればと思います。 Amazon Rekognitionについて 機械学習の専門知識を持っていなくても、APIに画像や動画を渡すだけで、画像分析や動画分析が行えるサービスです。 Amazon Rekognition にはAmazon Rekognition Image とAmazon Rekognition Videoの2つのAPI セットがあります。 本記事では、画像分析を行えるAmazon Rekognition Imageを取り扱っていきます。

      Amazon Rekognitionを新米エンジニアが触ってみた |システム・アプリ開発 - クロスパワークラウドブログ
    • 第1話 ~AIをとりまく環境とセキュリティ~

      近年、ディープラーニングをはじめとする様々な機械学習を活用したAI*1の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術など、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれており、「AIを防御する技術」の確立が急務となっています。 しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術のみで対策することは非常に困難です。 そこで本コラムでは「AIセキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げ、連載形式でお伝えしていきます。 なお、本コラムでは、単にAIに対する攻撃手法や想定されるリスクのみを取り上げるのではなく、AIを攻撃から守る方法や気を付けるべきAI開発のポイントなども取り上げていきます。 本コラムが、皆さまのAIセキュ

        第1話 ~AIをとりまく環境とセキュリティ~
      • データを処理する - Amazon SageMaker

        翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 データを処理する SageMaker 処理とは、 SageMakerのフルマネージドインフラストラクチャでデータの事前および事後処理、特徴量エンジニアリング、モデル評価タスクを実行する SageMakerの機能を指します。これらのタスクは処理ジョブ として実行されます。 SageMaker Processing API を使用すると、データサイエンティストはスクリプトとノートブックを実行してデータセットを処理、変換、分析し、機械学習の準備をすることができます。トレーニングやホスティングなど SageMaker、 が提供する他の重要な機械学習タスクと組み合わせると、Processing は、 に組み込まれているすべてのセキュリティとコンプライアンスのサポートを含む、フ

        • Amazon SageMaker ML リネージュトラッキング - Amazon SageMaker

          翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 Amazon SageMaker ML リネージュトラッキング 2023 年 11 月 30 日の時点で、以前の Amazon SageMaker Studio エクスペリエンスは Amazon SageMaker スタジオクラシックという名前になりました。以下のセクションは Studio Classic アプリケーションの使用に特化したものです。最新の Studio エクスペリエンスの使用方法については、を参照してくださいAmazon SageMaker Studio。 Amazon SageMaker ML Lineage Tracking は、データ準備からモデルデプロイまでの機械学習 (ML) ワークフローのステップに関する情報を作成して保存します。追跡情報

          • gensim/word2vecにwindow幅を固定する最高オプションが追加されていた - | ^ω^ |

            gensim/word2vecではwindow幅を無茶苦茶に大きくしてもランダムにsamplingされるので、実際には単語同士が遠い場合にコンテキストとして扱われない可能性がありました。 そこでこのwindow幅を固定するためのshrink_windowsオプションを追加するp-rがmergeされていました。これをFalseにすることで固定するという感じです。 github.com このオプションのモチベーションとしては語順が重要でないコーパス(例えば自然言語を分かち書きしたものではなく、特定の単語列をsentenceとして読み込ませた場合など)に対してはsentence内の全単語をコンテキストとしたほうが普通に考えたら正しそうだよね、みたいなことがありうるのでそういうパターンで有効です。

              gensim/word2vecにwindow幅を固定する最高オプションが追加されていた - | ^ω^ |
            • イメージ内の顔の検出 - Amazon Rekognition

              翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 イメージ内の顔の検出 Amazon Rekognition には、目、鼻、口などの主な顔の特徴を探して入力画像内の顔を検出する DetectFaces オペレーションがあります。Amazon Rekognition Image は、イメージ内の 100 の大きい顔を検出します。 入力イメージとして、イメージのバイト配列 (base64 でエンコードされたイメージのバイト) を指定するか、Amazon S3 オブジェクトを指定することができます。次の手順では、イメージ (JPEG または PNG) を S3 バケットにアップロードし、オブジェクトのキー名を指定します。 画像内の顔を検出するには まだ実行していない場合: AmazonRekognitionFullAcc

              • 特徴量 - Wikipedia

                特徴量(英: feature)はデータを変形して得られ、その特徴を表現し、続く処理に利用される数値である[1]。表現(英: representation)とも。 概要[編集] 生データは必ずしも良い形をしていない。2つの属性が同じ意味を持ち冗長であったり、逆に2つの意味が1つの値に含まれ絡み合う場合もある。生データを変形し良い形にできればデータを上手く利用できる。この変形され、良い形を持ち、後続タスクで利用される値が特徴量である。 特徴量は生データから抽出される。抽出方法は専門家の知見を利用して考案される場合と機械学習によってデータから学習される場合がある。 特徴量は利用のために存在する。例えば分類(写真 → 特徴量 → 物体カテゴリ)、生成(文字 → 特徴量 → 画像)、圧縮(音声 → 特徴量 → 音声)に用いられる。その用途ごとに特徴量が持つべき特性は異なる。例えば圧縮用の特徴量はその

                • ノーコード機械学習 — Amazon SageMaker Canvas — AWS

                  コーディング不要のインターフェイスを通じて、機械学習の経験やコードを 1 行も記述することなく、非常に正確な機械学習モデルを作成できます。SageMaker Canvas では、Amazon Bedrock や Amazon SageMaker JumpStart のファンデーションモデルなど、すぐに使用できるモデルにアクセスできます。また、独自のカスタム ML モデルを構築することもできます。SageMaker Canvas を使用すると、50 以上のソースから簡単にデータにアクセスしてインポートしたり、自然言語と 300 種類以上の組み込み変換を使用してデータを準備したり、高精度なモデルを構築してトレーニングしたり、予測を生成したり、モデルを本番環境にデプロイしたりすることができます。

                    ノーコード機械学習 — Amazon SageMaker Canvas — AWS
                  • Amazon Augmented AI が HIPAA 準拠のサービスに

                    本日より、Amazon Augmented AI (Amazon A2I) は HIPAA 準拠のサービスとなります。Amazon Augmented AI で、人による ML 予測のレビューに必要なワークフローを簡単に構築できます。HIPPA への準拠は、サービスが利用可能な AWS リージョンに適用されます。つまり、Amazon A2I を使用して、保護対象保健情報 (PHI) の人間によるレビューを追加し、自社の労働力を通じてヘルスケアのワークフローを強化できます。 AWS と HIPAA Business Associate Addendum (BAA) を締結している場合は、HIPAA 準拠のワークロードに Amazon Augmented AI を今すぐご利用いただけます。AWS との BAA を締結していない場合、あるいは AWS での HIPAA 規制によるワークロードの実

                      Amazon Augmented AI が HIPAA 準拠のサービスに
                    • BERT (言語モデル) - Wikipedia

                      Bidirectional Encoder Representations from Transformers(BERT)は、自然言語処理の事前学習用の Transformer ベースの機械学習手法である[1]。BERT は、Google の Jacob Devlin と彼の同僚によって2018年に作成され公開された[2][3]。2019年現在、Google は BERT を活用して、ユーザー検索の理解を深めている[4]。 背景[編集] 方向制約[編集] BERT 以前の多くの言語モデルは事前学習に単方向性(英: unidirectional)のタスクを採用しており[5]、学習された表現も単方向の文脈しか考慮しないものであった。この制約は文脈レベルの表現が必要なタスクの性能へ大きなペナルティを与えうる。 手法[編集] これらの背景に基づき、BERT は MLM事前タスクと双方向 Trans

                      • 物体検出 - Wikipedia

                        80クラスの一般的な物体を検出できるCOCOデータセットで学習されたYOLOv3モデルを使用して、OpenCVのディープニューラルネットワークモジュール(DNN)で検出された物体。 物体検出(ぶったいけんしゅつ、object detection)は、デジタル画像処理やコンピュータビジョンに関連する技術の一つで、デジタル画像・動画内に映っている特定のクラス(人間、建物、車といったカテゴリー)の物体を検出するものである[1]。物体検出はコンピュータビジョンの基礎的な学問領域であり、画像分類(英語版)や顔認識、自動運転など多くの分野でその知見が応用されている[2]。深層学習(ディープラーニング)技術の進展に伴い、物体検出の分野でもR-CNNやYOLO、SSDなどの深層学習を用いた手法が広く使われるようになって精度も大きく向上したが、一方で物体検出分野に特有の技術的な課題や学習・評価に必要なデータ

                          物体検出 - Wikipedia
                        • 正規化線形関数 - Wikipedia

                          x = 0近傍での正規化線形関数(青)およびソフトプラス関数(緑)のプロット 正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifier[注釈 1]とも)は、引数の正の部分として定義される活性化関数であり、次のように表される。 上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、1993年にTangらによって新しいニューロンモデルとして最初に提案され、ニューラルネットワークの学習に適用し、その有効性が示された[1]。2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへに導入された[2][3]。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論

                            正規化線形関数 - Wikipedia
                          • ブラウザにドロップした画像を1000種類に分類/python・django・tensorflow2.0サンプル - SE_BOKUのまとめノート的ブログ

                            WEBブラウザに画像ファイルをドロップしてBase64エンコードする処理と、Base64エンコードテキストを受け取って、学習済モデルを使って何の画像かを識別する処理を組み合わせて、簡単なデモンストレーションを作ってみます。 はじめに ブログで別々の記事に書いている3つを組み合わせて、簡単なデモを作ってみます。 その3うとは。 画像識別するクラス arakan-pgm-ai.hatenablog.com 識別結果を英語→日本語化するクラス arakan-pgm-ai.hatenablog.com ドラッグ&ドロップで画像ファイルを受け取り、Base64形式にエンコードしてHTTPRequest経由でPythonプログラムに渡すJavaScript arakan-pgm-ai.hatenablog.com です。 これを組み合わせて。 画像ファイルをドラッグ&ドロップで受け取り、Base64形

                              ブラウザにドロップした画像を1000種類に分類/python・django・tensorflow2.0サンプル - SE_BOKUのまとめノート的ブログ
                            • 画像解析 - Wikipedia

                              画像解析(がぞうかいせき)は自然情報処理の手法で画像の中から、有意な事象を取捨選別する処理。 概要[編集] 画像解析そのものはコンピューターが利用される以前から光学演算による文字読み取りや、天体写真・衛星写真の画質改善などが実施されていた。 画像データの中から文字を認識してテキストデータに変換する光学文字認識 (OCR) も一種の画像解析で近年は機械学習の進展により、応用分野が広がりつつある[1]。 以前は専用のハードウェアや専門的な知識を必要としていたが、近年では専門的な知識が無くても利用できるGoogle Cloud Vision APIのようにクラウドコンピューティングを使用した画像解析のサービスも提供される[2][3][4]。 応用分野[編集] 考古学、選果、防犯や医療診断など、多岐にわたる。 画像解析の例[編集] 画像認識(コンピュータビジョン) 顔認識システム 図形(線画、立体

                              • API リファレンス - Amazon Rekognition

                                翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 API リファレンス