並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 180件

新着順 人気順

ディープラーニングの検索結果121 - 160 件 / 180件

  • 【JDLA公式】Generative AI Test

    Generative AI Testで、 生成AI導入の推進者に 生成AIに関する知識を客観的に証明し、 自信とチャンスを手に入れませんか?

      【JDLA公式】Generative AI Test
    • KAN: Kolmogorov-Arnold Networks

      Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes ("neurons"), KANs have learnable activation functions on edges ("weights"). KANs have no linear weights at all -- every weight parameter is replaced by a univariate function parametriz

      • [速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023

        Amazon Web Services(AWS)は、ラスベガスで開催中のイベント「AWS re:Invent 2023」の基調講演で、AIのトレーニングに最適化した独自プロセッサ「AWS Trainium2」を発表しました。 Trainium2は、最大数兆個のパラメータを持つ基盤モデルおよび大規模言語モデルのトレーニング用に設計されています。 2020年に発表された第一世代のTrainiumチップと比較して、最大4倍のトレーニング性能と3倍のメモリ容量を実現し、エネルギー効率(性能/ワット)を最大2倍まで改善するように設計されています。 Trainium2は、単一のインスタンスに16個のTrainiumチップを含むAmazon EC2 Trn2インスタンスで利用可能になります。 Trn2インスタンスは、AWS Elastic Fabric Adapter(EFA)のペタビットスケールネット

          [速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023
        • AI研究者、東大教授・松尾豊が語る「生成AI」が教育業界に与えるインパクト | 東洋経済education×ICT

          「先生が教えやすくなる」など、多様なツールの可能性 ――現在、第3次AIブームといわれていますが、話題のChatGPTはこれまでのAIと何が違うのでしょうか。 今回の第3次AIブームの源泉はディープラーニングです。顔認証や画像診断といった画像認識を中心に世の中に活用が広がりましたが、ChatGPTは言語を扱う技術ということで、今まで以上に影響範囲が広いといえます。 インターネットをはじめスマートフォンや自動車など、これまでの歴史で見てきたように、新しい技術が生まれてから使えるサービスとして一般に行き渡るまでには、相応の時間がかかるでしょう。しかし、確実に生成AIは世の中に浸透していくと考えています。 ――文部科学省が2023年7月4日に「初等中等教育段階における生成 AI の利用に関する暫定的なガイドライン」を公表しましたが、活用に抵抗感を持つ教員もいそうです。 最初は抵抗感を持つ人がいる

            AI研究者、東大教授・松尾豊が語る「生成AI」が教育業界に与えるインパクト | 東洋経済education×ICT
          • 機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO

            機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 1 はじめに CX 事業本部 delivery部の平内(SIN)です。 Meta社による Segment Anything Model(以下、SAM)は、セグメンテーションのための汎用モデルで、ファインチューニングなしで、あらゆる物体がセグメンテーションできます。 今回は、こちらを使用して、スーパーマーケットで冷蔵庫の缶ビールを検出してみました。 最初に、動作確認している様子です。 缶ビールがセグメンテーションされていることと、それぞれの銘柄が判定できていることを確認できると思います。 2 学習済みモデルによる物体検出 (YOLOv8) YOLOv8などの物体検出モデルでは、配布されている学習済みモデルで、ある程度の物体検出が可能です

              機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO
            • EDLA

              誤差拡散学習法のサンプルプログラム 99/7/12 公開 99/7/16 詳細追加 99/8/6 一部修正 99/8/19 論文追加 99/10/27 経過報告 ED法サンプルプログラム(UNIX汎用、tgz、4KB) 階層型神経回路網(ニューラルネットワーク)の教師あり学習アルゴリズムである誤差拡散学習法(ED法)のサンプルプログラムです。 比較のために用いたバックプロパゲーション法(BP法)のサンプルプログラムも示しておきます。 慣性項ありBP法のサンプルプログラム(UNIX汎用、tgz、4KB) なお、これらのプログラムでは、階層型構造をリカレント型の一種とみなして計算しています。また、パラメータ入力の際には、単にリターンを押すとデフォルト値(括弧の中の値)が用いられるようになっていますので、実行の際にはリターンを連打すればOKです。また、X-Windowを用いてトータルエラーのグラ

              • NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的

                NVIDIAのコンピューティング向けGPU活用技術「CUDA」をIntel GPUで実行できるようにしたソフトウェア「ZLUDA」が復活しましたが、IntelではなくAMDのGPUで動作するよう改変が加えられていました。 AMD Quietly Funded A Drop-In CUDA Implementation Built On ROCm: It's Now Open-Source - Phoronix https://www.phoronix.com/review/radeon-cuda-zluda Software allows CUDA code to run on AMD and Intel GPUs without changes — ZLUDA is back but both companies ditched it, nixing future updates | T

                  NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的
                • マルチモーダルLLMの応用動向の論文調査

                  社内のテックトークで紹介しました。 論文内で議論しているマルチモーダルLLMの活用方法や課題などを紹介しています。 詳しいアルゴリズムの話はしていません。

                    マルチモーダルLLMの応用動向の論文調査
                  • PyTorchコーディング時の実装負担を低減させるテンプレートコード - Qiita

                    はじめに 機械学習コードに用いられるPyTorchコーディング時の実装負担低減を目的として、テンプレートコードを作成してみました。本記事では具体的な使用方法を記載します。(テンプレートコード部分の実装は文献1を参考にさせていただきました) ソースコード 下記リンクからアクセス可能です。 テンプレートコードはframeworkディレクトリに、ユーザー実装部分はusrディレクトリに、それぞれ格納されています。 使用方法 本テンプレートコードを使用することにより、自作のデータセットおよびモデル(+損失関数等)を用意するだけで、簡単にモデルの学習やテストができるようになります。ここでは、具体的な使用方法について説明します。 1. データセットの構築 初めに、データセットを読み込むためのクラスを作成します。データセットはユーザー定義であることから、データ形状等に制約はありません。一方で、後述するデー

                      PyTorchコーディング時の実装負担を低減させるテンプレートコード - Qiita
                    • AI分野での活用も増加している「GPU」の種類と選び方を学ぼう

                      1 GPUとは GPU(Graphics Processing Unit)は、PC内で画像処理などの特定のタスクを高速に処理することを目的とした専用の装置です。 主に画像処理やAI(人工知能)、科学計算などの分野で活用されています。CPU(Central Processing Unit)が一般的な演算や制御を担当するのに対し、GPUは大量のデータを並行して処理することが得意で、これにより高速な演算処理を実現しています。もともとは画像処理を目的に誕生しましたが、近年では機械学習などAI関連分野での活用が増加しており、生成AIのブームを追い風に、世界的に需要が高まっています。 2 GPUとCPUの違い GPUとCPUには以下のような違いがあります。 2.1 設計思想と役割 CPUは一般的な演算や制御を担当するために設計されていて、プログラムの実行やOS(オペレーティングシステム)の管理などPC

                        AI分野での活用も増加している「GPU」の種類と選び方を学ぼう
                      • 生成AIのパラメータを98%削減するアルゴリズム 中部大が開発 自動運転車や工作ロボットへの搭載目指す | Ledge.ai

                        サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                          生成AIのパラメータを98%削減するアルゴリズム 中部大が開発 自動運転車や工作ロボットへの搭載目指す | Ledge.ai
                        • AlphaFold 3 predicts the structure and interactions of all of life’s molecules

                            AlphaFold 3 predicts the structure and interactions of all of life’s molecules
                          • Rust でレイトレーシングレンダラーをディープラーニングしてみた

                            何が何だかわからないタイトルですが、次のような3Dのレンダラーをディープラーニングで模倣してみようということです。左側が訓練データ、右側がディープラーニングした結果でレンダリングしたものです。 まず、私はディープラーニングの専門家ではありませんので、この記事は自分の学習過程を記録したものになります。 今回はディープラーニングというかニューラルネットワーク一般の理解を深めるため、全てをフルスクラッチで実装してみました。行列の掛け算から誤差逆伝搬法まで。このため学習過程を可視化するGUIを作りました。 これは全て CPU で動作するので速度は期待しないでください。 リポジトリはこちらです。 ブラウザ上で動作する WebAssembly 版もありますが、ファイルから画像をロードする機能はありませんし、ネイティブ版より遅いです。 ニューラルネットワークの基本 ニューラルネットワークおよびディープラ

                              Rust でレイトレーシングレンダラーをディープラーニングしてみた
                            • MLX で Llama 3 を試す|npaka

                              「MLX」で「Llama 3」を試したので、まとめました。 1. Llama 3「Llama 3」は、Metaが開発したオープンモデルです。 2. 推論の実行「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。 推論の実行手順は、次のとおりです。 (1) Pythonの仮想環境の準備。 今回は、「Python 3.10」の仮想環境を準備しました。 (2) パッケージのインストールと実行。 今回は「mlx-community/Meta-Llama-3-8B-Instruct-4bit」のモデルを利用します。 pip install mlx-lm mlx_lm.generate --model mlx-community/Meta-Llama-3-8B-Instruct-4bit -

                                MLX で Llama 3 を試す|npaka
                              • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                  [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                • 10bクラスの大規模言語モデルが、ファインチューニングを経てタスクを解けるようになるメカニズムを探るメモ|Kan Hatakeyama

                                  はじめに最近は大規模言語モデルのファインチューニングにハマっています。 10bクラスの言語モデルが、どのようなメカニズムを通してユーザーの質問に回答できるようになるかについて、調べています。 最近の検討で生じた仮説は、「10bクラスのモデルは、実は質問文を殆ど理解できていない」というものです。 本記事ではどのようなデータを学習したときに、llm-jp-evalという評価セットに含まれるJCommonsenseQAというタスクを解けるようになるか、果たして、10bクラスのモデルは何を「理解」している/いないのか、そして、指示を理解できるようになるための必要な訓練量について、調べて行きたいと思います。 コードはこちら ※ これは正確な学術的検証ではありませんので、ご了承ください。きちっとやってくれる方や、良い参考文献をご存知の方がいたら、教えていただけると、大変助かります。 今回のタスクJCo

                                    10bクラスの大規模言語モデルが、ファインチューニングを経てタスクを解けるようになるメカニズムを探るメモ|Kan Hatakeyama
                                  • 生成AIに活用できるエントリーGPUの価格はこのくらい

                                    生成AIに効くエントリーGPUになりそう。 コストパフォーマンスに優れるGPU、RTX 4060シリーズが発表されました。ラインナップは次の通りです。 GeForce RTX 4060 8GB 5万2800円~ 7月発売 GeForce RTX 4060 Ti 8GB 6万9800円~ 5月24日発売 GeForce RTX 4060 Ti 16GB 8万8800円~ 7月発売 まずは中堅どころのRTX 4060 Ti 8GBからリリース。Palit Microsysytemsが発表した「GeForce RTX 4060 Ti StormX 8GB」はシングルファン仕様で全長わずか17cm。小型PCケースでもRTX 3070級のパワーが出せるゲーミングPCを作れちゃうのはいいことですなあ。DLSS 3対応ゲームならフレームレートも爆上がりしますし。 YouTube LiveやOBS Stu

                                      生成AIに活用できるエントリーGPUの価格はこのくらい
                                    • AWSジャパン、生成系AI関連のアップデートなど「AWS Summit New York 2023」の発表内容について説明

                                        AWSジャパン、生成系AI関連のアップデートなど「AWS Summit New York 2023」の発表内容について説明
                                      • 群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞

                                        Introduction 人工知能(AI)関係者の間では名の知れた米グーグル出身の研究者コンビが東京でAI開発スタートアップを立ち上げた。1人は今の生成AIの土台となる「トランスフォーマー」技術の論文を共同執筆したライオン・ジョーンズ氏。もう1人はグーグルのAI研究部門の東京チームを率いたデビッド・ハ氏だ。生成AIの開拓者たちが見据える「次」を聞いた。(聞き手は生川暁、伴正春)現行の生成AI、開発負担大きく

                                          群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞
                                        • Zero-shot Learning(ゼロショット学習)とは?

                                          用語「ゼロショット学習」について説明。訓練データに存在しない新しいクラスやタスクに対しても有用な予測/分類を行うための学習方法のことで、特にChatGPTの言語モデルなどでは、ファインチューニングすることなく、かつ例文もない状態で、さまざまなタスクを解決する能力を持つことを指す。 連載目次 用語解説 人工知能/機械学習分野のゼロショット学習(Zero-shot Learning)とは、新しいクラス(分類問題の場合)やタスクを訓練データから事前に学習していなくても、推論時にその未知のクラスやタスクについての何らかの補助情報(説明テキストや属性情報、クラス間の類似性など)を訓練済みAIモデルに与えることで、柔軟に適切な分類や予測を行うための学習方法のことである。例えば動物を分類するタスクにおいて、事前に「犬」と「猫」(という2つの既知のクラス)の訓練データから学習したAIモデルに、未知の動物に

                                            Zero-shot Learning(ゼロショット学習)とは?
                                          • AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など

                                            AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など 米Amazon Web Servicesが、生成AIサービス「Amazon Bedrock」の新機能を複数発表した。Bedrock上で一部大規模言語モデルのファインチューニングが可能になった他、生成AIによる応答の安全性を高める新サービスも登場した。 米Amazon Web Servicesは11月28日(現地時間)、生成AIサービス「Amazon Bedrock」の新機能を複数発表した。Bedrock上で一部大規模言語モデルのファインチューニングが可能になった他、生成AIによる応答の安全性を高める新サービスも登場した。 Llama 2などのファインチューニングが可能に まず、大規模言語モデル「Llama 2」「Cohere Command Light」「Amazon

                                              AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など
                                            • AmazonがAWS向けのプロセッサ「Graviton4」とAIトレーニング用チップ「Trainium2」を発表

                                              Amazonがカンファレンス「AWS re:Invent 2023」の中で、機械学習トレーニングやAIトレーニングを含む幅広いワークロードでパフォーマンス向上を実現するプロセッサ「Graviton4」と「Tranium2」を発表しました。 AWS-Unveils-Next-Generation-AWS-Designed-Chips https://press.aboutamazon.com/2023/11/aws-unveils-next-generation-aws-designed-chips Join the preview for new memory-optimized, AWS Graviton4-powered Amazon EC2 instances (R8g) | AWS News Blog https://aws.amazon.com/jp/blogs/aws/join

                                                AmazonがAWS向けのプロセッサ「Graviton4」とAIトレーニング用チップ「Trainium2」を発表
                                              • 3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning

                                                ThanksSpecial thanks to those below for supporting the original video behind this post, and to current patrons for funding ongoing projects. If you find these lessons valuable, consider joining. .chanceA ZookAaron BinnsAda CohenAdam CedroneAdam Dřínekaeroeng15Alan SteinAlbin EgasseAlex Alex HackmanAlexandru IrimieaAlexis OlsonAli YahyaAljoscha SchulzeAlon AmitAlvin KhaledAman KarunakaranAndrea Di

                                                  3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning
                                                • GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch
                                                  • https://www.uber.com/en-DE/blog/scaling-ai-ml-infrastructure-at-uber/

                                                    • 「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に

                                                      Microsoftは2024年2月29日(米国時間)、オープンソースでクロスプラットフォームの機械学習(ML)モデルアクセラレータ「ONNX Runtime」の「ONNX Runtime Web」機能において、WebGPUを用いてWebブラウザ内でのMLを高速化できるようになったと発表した。 ONNX Runtimeは、さまざまなハードウェア、ドライバ、OSと互換性があり、グラフの最適化や変換に加え、ハードウェアアクセラレータを適宜活用したパフォーマンスを提供する。PyTorch、TensorFlow/Keras、TensorFlow Lite、scikit-learnなどのフレームワークのモデルで使用できる。 ONNX Runtime Webは、JavaScript APIとライブラリを使用して、WebアプリケーションでMLモデルを実行、デプロイ(展開)できる。 関連記事 「Chrome

                                                        「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に
                                                      • MAX: Modular Accelerated Xecution Platform

                                                        MAX is an integrated, composable suite of products that simplifies your AI infrastructure so you can develop, deploy, and innovate faster.

                                                          MAX: Modular Accelerated Xecution Platform
                                                        • Quanto: a pytorch quantization toolkit

                                                          Quantization is a technique to reduce the computational and memory costs of evaluating Deep Learning Models by representing their weights and activations with low-precision data types like 8-bit integer (int8) instead of the usual 32-bit floating point (float32). Reducing the number of bits means the resulting model requires less memory storage, which is crucial for deploying Large Language Models

                                                            Quanto: a pytorch quantization toolkit
                                                          • 点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ

                                                            今回、主に点群に対してSemantic Segmentationを行うためにTansformerを適用した研究についてサーベイしてみたので、資料を公開します。 元々は、前回開催したコンピュータビジョン勉強会@関東「深層学習+3D論文読み会」で発表するために準備していたのですが、発表者が十分に集まったことと、ハイブリッド開催のため運営が大変になりそうだったので、発表は断念しました。 最初は画像と点群でのTransformerの適用方法の違いが気になって調べだしたので、PointTransformerとPointMixerあたりまでを発表するつもりだったのですが、発表を取りやめて調べる時間もできたので、色々と追加で調べているうちに分量が増えてしまいました。 調べてみて、果たしてTransformerは畳み込みと比べて点群処理に最適か?というのはよくわかりませんでした。ただ、PointBERTの

                                                              点群SegmentationのためのTransformerサーベイ - takminの書きっぱなし備忘録 @はてなブログ
                                                            • Millions of new materials discovered with deep learning

                                                              Research Millions of new materials discovered with deep learning Published 29 November 2023 Authors Amil Merchant and Ekin Dogus Cubuk AI tool GNoME finds 2.2 million new crystals, including 380,000 stable materials that could power future technologies Modern technologies from computer chips and batteries to solar panels rely on inorganic crystals. To enable new technologies, crystals must be stab

                                                                Millions of new materials discovered with deep learning
                                                              • 【AI論文解説】RetNet: Transformerの後継!効率の良いLLM向けアーキテクチャ

                                                                【AI論文解説】はディープラーニング・機械学習に関する論文を紹介する動画シリーズです。(プレイリスト: https://www.youtube.com/playlist?list=PLbtqZvaoOVPCqfmnrBfo9Xv5mtDr0LjQZ ) 今回は、以下の論文について紹介いたします。 【紹介論文】 ・Retentive Network: A Successor to Transformer for Large Language Models  【論文リンク】https://arxiv.org/pdf/2307.08621.pdf こちらの論文では、Transformerの計算量の問題を解決するための効率の良い系列モデルを提案しています。 -- ソニーが提供するオープンソースのディープラーニング(深層学習)フレームワークソフトウェアのNeural Network Libr

                                                                  【AI論文解説】RetNet: Transformerの後継!効率の良いLLM向けアーキテクチャ
                                                                • Victor MARTIN ~ Understanding Automatic Differentiation in 30 lines of Python

                                                                  ---> For French version of this article, click here I'm a Machine Learning engineer and I use libraries like Tensorflow and Pytorch in my work to train my neural networks. And it's been a while since I wanted to write the simplest piece of code to perform what is called automatic differentiation which is at the heart of neural network training. In this article, I will try to iteratively build the

                                                                  • 最近話題の マルチモーダルLLM まとめ|npaka

                                                                    最近話題の 「マルチモーダルLLM」 をまとめました。 1. マルチモーダルLLMの概要「マルチモーダルLLM」(MLLM)は、画像とテキスト(自然言語)を組み合わせたタスクに用いられるモデルです。視覚情報とテキスト情報を組み合わせて多くの実世界の問題を解決するための強力なツールとなっています。 以下のスライドが参考になります。 2. マルチモーダルLLM主な「マルチモーダルLLM」は、次のとおりです。 2-1. BLIP2022年1月、Salesforceが発表したマルチモーダルLLMです。

                                                                      最近話題の マルチモーダルLLM まとめ|npaka
                                                                    • NeurIPS 2023 Tutorial: Reconsidering Overfitting in the Age of Overparameterized Models

                                                                      NeurIPS 2023 Tutorial: Reconsidering Overfitting in the Age of Overparameterized Models ` Large, overparameterized models such as neural networks are now the workhorses of modern machine learning. These models are often trained to near-zero error on noisy datasets and simultaneously generalize well to unseen data, in contrast to the textbook intuition regarding the perils of overfitting. At the sa

                                                                      • GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning

                                                                        torchtune is a PyTorch-native library for easily authoring, fine-tuning and experimenting with LLMs. We're excited to announce our alpha release! torchtune provides: Native-PyTorch implementations of popular LLMs using composable and modular building blocks Easy-to-use and hackable training recipes for popular fine-tuning techniques (LoRA, QLoRA) - no trainers, no frameworks, just PyTorch! YAML co

                                                                          GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning
                                                                        • ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

                                                                          この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 近年さまざまな分野で成果を出しているニューラルネットワーク。神経細胞を模したニューロンの多層構造による深層学習(ディープラーニング)の仕組みについてのシリーズの第一回です。 誤字訂正 14:16 バイアスのベクトルの最後の添え字はnではなくkです 編集 シリーズ第1回のみ英語版で赤緑の色分けになっている箇所があり、日本語版では青緑の色分けに変更しています。 線形代数シリーズ https://youtube.com/playlist?list=PL5WufEA7WHQGX7Su06JzbPDXUQGOd0wlq&si=dnM07l6OnnAP6Phs Michael Nielsenの本 https://goo.

                                                                            ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
                                                                          • 機械学習・ディープラーニングのおすすめ本11冊+α!(初心者〜中級者向け)

                                                                            AIエンジニアを目指す方、機械学習やディープラーニングを学びたい方におすすめの本・書籍を紹介します。 機械学習やディープラーニングのおすすめ本を紹介するにあたって、私が勤務するITメガベンチャーで実際に機械学習・ディープラーニングなどのAI(人工知能)を業務でゴリゴリ活用しているサイエンティストやAIエンジニアにもヒアリングしてきました。初心者・未経験者の方はもちろん、実務で活用したいという人も読んでいただけると幸いです。 本記事の構成としては、①プログラミングもあまり経験が無い本当の初心者向け ②プログラミング経験はあるけど機械学習やディープラーニングをこれから学びたい人向け ③機械学習・AIの基礎知識はあり実践的なスキルを学びたい人向け ④その他AIの読み物や特に専門分野などの番外編 といった4部構成です。 単純に本を羅列するだけではなく、実際に本を読んだ人の感想や口コミも合わせて掲載

                                                                            • 自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その2) | NTTデータ先端技術株式会社

                                                                              Microsoft、Google、MetaなどのBig Techが生成AIの開発をリードし、競争を激化させている現在、国家レベルでも本腰を入れて政策的に取り組もうという動きが加速しています。たとえば、英国では、2023年度春季予算案において、財務大臣が大規模言語モデルを含む基盤モデルにおける英国の主権能力を向上させるための新たな政府・産業タスクフォースを設立すると発表し、また、スナク首相が11月1日~2日にAIの安全性やリスク管理をテーマにした世界初のサミット "AI Safety Summit" を世界28カ国とEUの政府高官やAI企業の代表らを招集して主催するなど、AI推進とAI規制は英国政府の積極的な政策分野となっています。 英国の政府機関の一つであるCMA(Competition & Markets Authority:競争・市場庁)は、2023年9月18日に、"AI Founda

                                                                                自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その2) | NTTデータ先端技術株式会社
                                                                              • Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development

                                                                                はじめに Optunaの新しいバージョン3.4では、新たにJupyter Lab拡張とVS Code拡張が公開・アナウンスされました。これらの拡張機能を利用することで、Optuna DashboardをJupyter LabやVS Code内で起動し、最適化履歴をより手軽に確認できます。 本記事ではこれらの拡張機能がどのように実装されているのか、その仕組みを解説します。Optuna Dashboardの開発に興味を持ってくださっている方に限らず、Jupyter Lab拡張やVS Code拡張を開発しようとしている方のお役に立てば幸いです。 Jupyter Lab拡張の仕組み Optuna Dashboardは次の図に示すように、PythonのBottleフレームワークで書かれたサーバープログラムと、Reactで書かれたシングルページアプリケーションからなります。 このプログラムをJupyt

                                                                                  Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development
                                                                                • ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO

                                                                                  危機管理室の吉本です。 生成AI(GPT-3.5)が個人情報を出力することがある。という三井物産セキュアディレクション㈱さんの記事を読み、GPT-4ではどうなるか気になったので自分でも試してみました。 ChatGPT(GPT-3.5)での個人情報開示 記事の内容では、GPT-3.5である手法を用いると、公開されている情報から学習した個人情報を出力させることが可能であると示されています。実際に自分でもやってみたところ、下図のように確かに公開されている個人情報の抽出がでできました。 そこでGPT-4ではどのような結果になるか、またどのように安全性を高めているかをまとめます。 GPT-4の安全性 OpenAI社はGPT-4の安全性について、許可されていないコンテンツへのリクエストに対する回答率が82%減ったとしています。 We spent 6 months making GPT-4 safer

                                                                                    ChatGPT(GPT-4)が個人情報を出力するか試してみた | DevelopersIO