並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 169件

新着順 人気順

ディープラーニングの検索結果121 - 160 件 / 169件

  • AlphaFold 3 predicts the structure and interactions of all of life’s molecules

      AlphaFold 3 predicts the structure and interactions of all of life’s molecules
    • PyTorchコーディング時の実装負担を低減させるテンプレートコード - Qiita

      はじめに 機械学習コードに用いられるPyTorchコーディング時の実装負担低減を目的として、テンプレートコードを作成してみました。本記事では具体的な使用方法を記載します。(テンプレートコード部分の実装は文献1を参考にさせていただきました) ソースコード 下記リンクからアクセス可能です。 テンプレートコードはframeworkディレクトリに、ユーザー実装部分はusrディレクトリに、それぞれ格納されています。 使用方法 本テンプレートコードを使用することにより、自作のデータセットおよびモデル(+損失関数等)を用意するだけで、簡単にモデルの学習やテストができるようになります。ここでは、具体的な使用方法について説明します。 1. データセットの構築 初めに、データセットを読み込むためのクラスを作成します。データセットはユーザー定義であることから、データ形状等に制約はありません。一方で、後述するデー

        PyTorchコーディング時の実装負担を低減させるテンプレートコード - Qiita
      • AI分野での活用も増加している「GPU」の種類と選び方を学ぼう

        1 GPUとは GPU(Graphics Processing Unit)は、PC内で画像処理などの特定のタスクを高速に処理することを目的とした専用の装置です。 主に画像処理やAI(人工知能)、科学計算などの分野で活用されています。CPU(Central Processing Unit)が一般的な演算や制御を担当するのに対し、GPUは大量のデータを並行して処理することが得意で、これにより高速な演算処理を実現しています。もともとは画像処理を目的に誕生しましたが、近年では機械学習などAI関連分野での活用が増加しており、生成AIのブームを追い風に、世界的に需要が高まっています。 2 GPUとCPUの違い GPUとCPUには以下のような違いがあります。 2.1 設計思想と役割 CPUは一般的な演算や制御を担当するために設計されていて、プログラムの実行やOS(オペレーティングシステム)の管理などPC

          AI分野での活用も増加している「GPU」の種類と選び方を学ぼう
        • 生成AIのパラメータを98%削減するアルゴリズム 中部大が開発 自動運転車や工作ロボットへの搭載目指す | Ledge.ai

          サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

            生成AIのパラメータを98%削減するアルゴリズム 中部大が開発 自動運転車や工作ロボットへの搭載目指す | Ledge.ai
          • AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]

              AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]
            • Graph Game - By Sabrina Ramonov

              • Rust でレイトレーシングレンダラーをディープラーニングしてみた

                何が何だかわからないタイトルですが、次のような3Dのレンダラーをディープラーニングで模倣してみようということです。左側が訓練データ、右側がディープラーニングした結果でレンダリングしたものです。 まず、私はディープラーニングの専門家ではありませんので、この記事は自分の学習過程を記録したものになります。 今回はディープラーニングというかニューラルネットワーク一般の理解を深めるため、全てをフルスクラッチで実装してみました。行列の掛け算から誤差逆伝搬法まで。このため学習過程を可視化するGUIを作りました。 これは全て CPU で動作するので速度は期待しないでください。 リポジトリはこちらです。 ブラウザ上で動作する WebAssembly 版もありますが、ファイルから画像をロードする機能はありませんし、ネイティブ版より遅いです。 ニューラルネットワークの基本 ニューラルネットワークおよびディープラ

                  Rust でレイトレーシングレンダラーをディープラーニングしてみた
                • MLX で Llama 3 を試す|npaka

                  「MLX」で「Llama 3」を試したので、まとめました。 1. Llama 3「Llama 3」は、Metaが開発したオープンモデルです。 2. 推論の実行「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。 推論の実行手順は、次のとおりです。 (1) Pythonの仮想環境の準備。 今回は、「Python 3.10」の仮想環境を準備しました。 (2) パッケージのインストールと実行。 今回は「mlx-community/Meta-Llama-3-8B-Instruct-4bit」のモデルを利用します。 pip install mlx-lm mlx_lm.generate --model mlx-community/Meta-Llama-3-8B-Instruct-4bit -

                    MLX で Llama 3 を試す|npaka
                  • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                    [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                      [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                    • 10bクラスの大規模言語モデルが、ファインチューニングを経てタスクを解けるようになるメカニズムを探るメモ|Kan Hatakeyama

                      はじめに最近は大規模言語モデルのファインチューニングにハマっています。 10bクラスの言語モデルが、どのようなメカニズムを通してユーザーの質問に回答できるようになるかについて、調べています。 最近の検討で生じた仮説は、「10bクラスのモデルは、実は質問文を殆ど理解できていない」というものです。 本記事ではどのようなデータを学習したときに、llm-jp-evalという評価セットに含まれるJCommonsenseQAというタスクを解けるようになるか、果たして、10bクラスのモデルは何を「理解」している/いないのか、そして、指示を理解できるようになるための必要な訓練量について、調べて行きたいと思います。 コードはこちら ※ これは正確な学術的検証ではありませんので、ご了承ください。きちっとやってくれる方や、良い参考文献をご存知の方がいたら、教えていただけると、大変助かります。 今回のタスクJCo

                        10bクラスの大規模言語モデルが、ファインチューニングを経てタスクを解けるようになるメカニズムを探るメモ|Kan Hatakeyama
                      • Google DeepMindがすべての生命分子の構造と相互作用をきわめて正確に予測できるAIモデル「AlphaFold 3」を発表

                        Google DeepMindがAI系創薬企業のIsomorphic Labsと協力し、タンパク質やDNA、RNA、リガンドなど生命分子の構造と相互作用をきわめて正確に予測できるAIモデル「AlphaFold 3」をリリースしました。 Google DeepMind and Isomorphic Labs introduce AlphaFold 3 AI model https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/ Accurate structure prediction of biomolecular interactions with AlphaFold 3 | Nature https://www.nature.com/articles/s41586-024-0748

                          Google DeepMindがすべての生命分子の構造と相互作用をきわめて正確に予測できるAIモデル「AlphaFold 3」を発表
                        • AWSジャパン、生成系AI関連のアップデートなど「AWS Summit New York 2023」の発表内容について説明

                            AWSジャパン、生成系AI関連のアップデートなど「AWS Summit New York 2023」の発表内容について説明
                          • 群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞

                            Introduction 人工知能(AI)関係者の間では名の知れた米グーグル出身の研究者コンビが東京でAI開発スタートアップを立ち上げた。1人は今の生成AIの土台となる「トランスフォーマー」技術の論文を共同執筆したライオン・ジョーンズ氏。もう1人はグーグルのAI研究部門の東京チームを率いたデビッド・ハ氏だ。生成AIの開拓者たちが見据える「次」を聞いた。(聞き手は生川暁、伴正春)現行の生成AI、開発負担大きく

                              群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞
                            • Zero-shot Learning(ゼロショット学習)とは?

                              用語「ゼロショット学習」について説明。訓練データに存在しない新しいクラスやタスクに対しても有用な予測/分類を行うための学習方法のことで、特にChatGPTの言語モデルなどでは、ファインチューニングすることなく、かつ例文もない状態で、さまざまなタスクを解決する能力を持つことを指す。 連載目次 用語解説 人工知能/機械学習分野のゼロショット学習(Zero-shot Learning)とは、新しいクラス(分類問題の場合)やタスクを訓練データから事前に学習していなくても、推論時にその未知のクラスやタスクについての何らかの補助情報(説明テキストや属性情報、クラス間の類似性など)を訓練済みAIモデルに与えることで、柔軟に適切な分類や予測を行うための学習方法のことである。例えば動物を分類するタスクにおいて、事前に「犬」と「猫」(という2つの既知のクラス)の訓練データから学習したAIモデルに、未知の動物に

                                Zero-shot Learning(ゼロショット学習)とは?
                              • GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

                                この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://www.youtube.com/watch?v=eMlx5fFNoYc&t=795s&pp=ygUVYXR0ZW50aW9uIDNibHVlMWJyb3du 新チャンネルUfolium https://www.youtube.com/watch?v=nF7gFRebGTk&pp=ygUHdWZvbGl1bQ%3D%3D https://www.youtube.com/watch?v=wrNCjIjIzuk&p

                                  GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
                                • AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など

                                  AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など 米Amazon Web Servicesが、生成AIサービス「Amazon Bedrock」の新機能を複数発表した。Bedrock上で一部大規模言語モデルのファインチューニングが可能になった他、生成AIによる応答の安全性を高める新サービスも登場した。 米Amazon Web Servicesは11月28日(現地時間)、生成AIサービス「Amazon Bedrock」の新機能を複数発表した。Bedrock上で一部大規模言語モデルのファインチューニングが可能になった他、生成AIによる応答の安全性を高める新サービスも登場した。 Llama 2などのファインチューニングが可能に まず、大規模言語モデル「Llama 2」「Cohere Command Light」「Amazon

                                    AWSの生成AIサービス「Bedrock」に新機能続々 基盤モデルのファインチューニングや、安全性保つ“ガードレール”など
                                  • 【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル

                                    【DL輪読会】Evolutionary Optimization of Model Merging Recipes モデルマージの進化的最適化

                                      【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル
                                    • AmazonがAWS向けのプロセッサ「Graviton4」とAIトレーニング用チップ「Trainium2」を発表

                                      Amazonがカンファレンス「AWS re:Invent 2023」の中で、機械学習トレーニングやAIトレーニングを含む幅広いワークロードでパフォーマンス向上を実現するプロセッサ「Graviton4」と「Tranium2」を発表しました。 AWS-Unveils-Next-Generation-AWS-Designed-Chips https://press.aboutamazon.com/2023/11/aws-unveils-next-generation-aws-designed-chips Join the preview for new memory-optimized, AWS Graviton4-powered Amazon EC2 instances (R8g) | AWS News Blog https://aws.amazon.com/jp/blogs/aws/join

                                        AmazonがAWS向けのプロセッサ「Graviton4」とAIトレーニング用チップ「Trainium2」を発表
                                      • 3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning

                                        ThanksSpecial thanks to those below for supporting the original video behind this post, and to current patrons for funding ongoing projects. If you find these lessons valuable, consider joining. .chanceA ZookAaron BinnsAda CohenAdam CedroneAdam Dřínekaeroeng15Alan SteinAlbin EgasseAlex Alex HackmanAlexandru IrimieaAlexis OlsonAli YahyaAljoscha SchulzeAlon AmitAlvin KhaledAman KarunakaranAndrea Di

                                          3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning
                                        • GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch

                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                            GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch
                                          • https://www.uber.com/en-DE/blog/scaling-ai-ml-infrastructure-at-uber/

                                            • MAX: Modular Accelerated Xecution Platform

                                              MAX is an integrated, composable suite of products that simplifies your AI infrastructure so you can develop, deploy, and innovate faster.

                                                MAX: Modular Accelerated Xecution Platform
                                              • 「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に

                                                Microsoftは2024年2月29日(米国時間)、オープンソースでクロスプラットフォームの機械学習(ML)モデルアクセラレータ「ONNX Runtime」の「ONNX Runtime Web」機能において、WebGPUを用いてWebブラウザ内でのMLを高速化できるようになったと発表した。 ONNX Runtimeは、さまざまなハードウェア、ドライバ、OSと互換性があり、グラフの最適化や変換に加え、ハードウェアアクセラレータを適宜活用したパフォーマンスを提供する。PyTorch、TensorFlow/Keras、TensorFlow Lite、scikit-learnなどのフレームワークのモデルで使用できる。 ONNX Runtime Webは、JavaScript APIとライブラリを使用して、WebアプリケーションでMLモデルを実行、デプロイ(展開)できる。 関連記事 「Chrome

                                                  「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に
                                                • ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

                                                  この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 近年さまざまな分野で成果を出しているニューラルネットワーク。神経細胞を模したニューロンの多層構造による深層学習(ディープラーニング)の仕組みについてのシリーズの第一回です。 誤字訂正 14:16 バイアスのベクトルの最後の添え字はnではなくkです 編集 シリーズ第1回のみ英語版で赤緑の色分けになっている箇所があり、日本語版では青緑の色分けに変更しています。 線形代数シリーズ https://youtube.com/playlist?list=PL5WufEA7WHQGX7Su06JzbPDXUQGOd0wlq&si=dnM07l6OnnAP6Phs Michael Nielsenの本 https://goo.

                                                    ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
                                                  • Quanto: a pytorch quantization toolkit

                                                    Quantization is a technique to reduce the computational and memory costs of evaluating Deep Learning Models by representing their weights and activations with low-precision data types like 8-bit integer (int8) instead of the usual 32-bit floating point (float32). Reducing the number of bits means the resulting model requires less memory storage, which is crucial for deploying Large Language Models

                                                      Quanto: a pytorch quantization toolkit
                                                    • Millions of new materials discovered with deep learning

                                                      Research Millions of new materials discovered with deep learning Published 29 November 2023 Authors Amil Merchant and Ekin Dogus Cubuk AI tool GNoME finds 2.2 million new crystals, including 380,000 stable materials that could power future technologies Modern technologies from computer chips and batteries to solar panels rely on inorganic crystals. To enable new technologies, crystals must be stab

                                                        Millions of new materials discovered with deep learning
                                                      • 【AI論文解説】RetNet: Transformerの後継!効率の良いLLM向けアーキテクチャ

                                                        【AI論文解説】はディープラーニング・機械学習に関する論文を紹介する動画シリーズです。(プレイリスト: https://www.youtube.com/playlist?list=PLbtqZvaoOVPCqfmnrBfo9Xv5mtDr0LjQZ ) 今回は、以下の論文について紹介いたします。 【紹介論文】 ・Retentive Network: A Successor to Transformer for Large Language Models  【論文リンク】https://arxiv.org/pdf/2307.08621.pdf こちらの論文では、Transformerの計算量の問題を解決するための効率の良い系列モデルを提案しています。 -- ソニーが提供するオープンソースのディープラーニング(深層学習)フレームワークソフトウェアのNeural Network Libr

                                                          【AI論文解説】RetNet: Transformerの後継!効率の良いLLM向けアーキテクチャ
                                                        • Victor MARTIN ~ Understanding Automatic Differentiation in 30 lines of Python

                                                          ---> For French version of this article, click here I'm a Machine Learning engineer and I use libraries like Tensorflow and Pytorch in my work to train my neural networks. And it's been a while since I wanted to write the simplest piece of code to perform what is called automatic differentiation which is at the heart of neural network training. In this article, I will try to iteratively build the

                                                          • 最近話題の マルチモーダルLLM まとめ|npaka

                                                            最近話題の 「マルチモーダルLLM」 をまとめました。 1. マルチモーダルLLMの概要「マルチモーダルLLM」(MLLM)は、画像とテキスト(自然言語)を組み合わせたタスクに用いられるモデルです。視覚情報とテキスト情報を組み合わせて多くの実世界の問題を解決するための強力なツールとなっています。 以下のスライドが参考になります。 2. マルチモーダルLLM主な「マルチモーダルLLM」は、次のとおりです。 2-1. BLIP2022年1月、Salesforceが発表したマルチモーダルLLMです。

                                                              最近話題の マルチモーダルLLM まとめ|npaka
                                                            • NeurIPS 2023 Tutorial: Reconsidering Overfitting in the Age of Overparameterized Models

                                                              NeurIPS 2023 Tutorial: Reconsidering Overfitting in the Age of Overparameterized Models ` Large, overparameterized models such as neural networks are now the workhorses of modern machine learning. These models are often trained to near-zero error on noisy datasets and simultaneously generalize well to unseen data, in contrast to the textbook intuition regarding the perils of overfitting. At the sa

                                                              • GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning

                                                                torchtune is a PyTorch-native library for easily authoring, fine-tuning and experimenting with LLMs. We're excited to announce our alpha release! torchtune provides: Native-PyTorch implementations of popular LLMs using composable and modular building blocks Easy-to-use and hackable training recipes for popular fine-tuning techniques (LoRA, QLoRA) - no trainers, no frameworks, just PyTorch! YAML co

                                                                  GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning
                                                                • 機械学習・ディープラーニングのおすすめ本11冊+α!(初心者〜中級者向け)

                                                                  AIエンジニアを目指す方、機械学習やディープラーニングを学びたい方におすすめの本・書籍を紹介します。 機械学習やディープラーニングのおすすめ本を紹介するにあたって、私が勤務するITメガベンチャーで実際に機械学習・ディープラーニングなどのAI(人工知能)を業務でゴリゴリ活用しているサイエンティストやAIエンジニアにもヒアリングしてきました。初心者・未経験者の方はもちろん、実務で活用したいという人も読んでいただけると幸いです。 本記事の構成としては、①プログラミングもあまり経験が無い本当の初心者向け ②プログラミング経験はあるけど機械学習やディープラーニングをこれから学びたい人向け ③機械学習・AIの基礎知識はあり実践的なスキルを学びたい人向け ④その他AIの読み物や特に専門分野などの番外編 といった4部構成です。 単純に本を羅列するだけではなく、実際に本を読んだ人の感想や口コミも合わせて掲載

                                                                  • 自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その2) | NTTデータ先端技術株式会社

                                                                    Microsoft、Google、MetaなどのBig Techが生成AIの開発をリードし、競争を激化させている現在、国家レベルでも本腰を入れて政策的に取り組もうという動きが加速しています。たとえば、英国では、2023年度春季予算案において、財務大臣が大規模言語モデルを含む基盤モデルにおける英国の主権能力を向上させるための新たな政府・産業タスクフォースを設立すると発表し、また、スナク首相が11月1日~2日にAIの安全性やリスク管理をテーマにした世界初のサミット "AI Safety Summit" を世界28カ国とEUの政府高官やAI企業の代表らを招集して主催するなど、AI推進とAI規制は英国政府の積極的な政策分野となっています。 英国の政府機関の一つであるCMA(Competition & Markets Authority:競争・市場庁)は、2023年9月18日に、"AI Founda

                                                                      自社のデータで生成AIを強化すべし:ファインチューニングしてビジネスに活用させたい基盤モデル(その2) | NTTデータ先端技術株式会社
                                                                    • Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development

                                                                      はじめに Optunaの新しいバージョン3.4では、新たにJupyter Lab拡張とVS Code拡張が公開・アナウンスされました。これらの拡張機能を利用することで、Optuna DashboardをJupyter LabやVS Code内で起動し、最適化履歴をより手軽に確認できます。 本記事ではこれらの拡張機能がどのように実装されているのか、その仕組みを解説します。Optuna Dashboardの開発に興味を持ってくださっている方に限らず、Jupyter Lab拡張やVS Code拡張を開発しようとしている方のお役に立てば幸いです。 Jupyter Lab拡張の仕組み Optuna Dashboardは次の図に示すように、PythonのBottleフレームワークで書かれたサーバープログラムと、Reactで書かれたシングルページアプリケーションからなります。 このプログラムをJupyt

                                                                        Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development
                                                                      • ファインチューニングを行う手順とポイント

                                                                        第12回は、OpenAIが公開しているガイドをベースに、ファインチューニングを行う手順とポイントについて解説します。 はじめに 前回は企業データを追加学習する3つの方法のうち、コンテキスト学習とファインチューニングについて解説しました。今回は、ファインチューニングのやり方について解説します。 ファインチューニングを行う手順を学ぶことで、ファインチューニングと言えども機械学習の基本に沿って学習すること、そのため学習データ(トレーニングサンプル)の準備が大変なこと、でもうまく学習すれば良い結果が得られそうなことなども理解していただければと思います。 実施前にプロンプトを工夫する OpenAIは、ファインチューニング可能なモデル(Gpt-3.5 turbo)だけでなく、ファインチューニングを行うためのSDKやAPI、UIツール、実施ガイドなどを提供してくれています(至れり尽くせりですね)。しかし

                                                                          ファインチューニングを行う手順とポイント
                                                                        • torchtune: Easily fine-tune LLMs using PyTorch

                                                                          by Team PyTorch We’re pleased to announce the alpha release of torchtune, a PyTorch-native library for easily fine-tuning large language models. Staying true to PyTorch’s design principles, torchtune provides composable and modular building blocks along with easy-to-extend training recipes to fine-tune popular LLMs on a variety of consumer-grade and professional GPUs. torchtune supports the full f

                                                                            torchtune: Easily fine-tune LLMs using PyTorch
                                                                          • Behind The Scenes: Cloud Native Storage System for AI

                                                                            AI向けクラウドネイティブなストレージシステムの裏側 My talk at https://event.cloudnativedays.jp/cndt2023/talks/1996 .

                                                                              Behind The Scenes: Cloud Native Storage System for AI
                                                                            • モデルの気持ちになって情報を与えよう

                                                                              これは Kaggle Advent Calendar 2023 12/10 の記事です。 ディープラーニングでは何を考えたらいいのか?「モデルの気持ち」などと言いますが、もっと具体的にどういうことなのか?私も素人でわからないのですが、今年参加したコンペで読んだ solution を題材に「情報を与える」という観点からモデルの気持ちを推測してみます。 「それ、俺も書いたが?」みたいなのはたくさんあるかと思いますが advent calendar ゆえどうかご容赦を。記憶をたよりに雑に書いて調べ直していません。 Classification の根拠を segmentation で与えるG2Net 2 Detecting Continuous Gravitational Waves はノイズに埋もれたデータに重力波の信号が含まれているかを判定する二項分類のコンペでした。入力は spectrogr

                                                                              • Announcing Optuna 3.4 - Preferred Networks Research & Development

                                                                                ハイパーパラメータ自動最適化フレームワークOptunaの新しいバージョンであるv3.4がリリースされました。今回のリリースには、ユーザーの相対的な評価結果をもとに最適化を行う新機能 “Preferential Optimization” や、ファイル管理機構、Jupyter Lab拡張、VS Code拡張が含まれています。 ✨ハイライト機能 選好に基づく最適化 (Preferential Optimization) 今回のリリースでは、選好に基づく最適化 (Preferential Optimization)が導入されました。この機能は、画像生成や音声合成、自然言語生成タスクのように、生成物の定量的な評価が難しく、人間が主観的な評価をつける必要があるタスクにおいて特に有用です。 Optuna 3.2においてサポートされたHuman-in-the-Loop最適化では、絶対評価のみが可能となっ

                                                                                  Announcing Optuna 3.4 - Preferred Networks Research & Development
                                                                                • Announcing Optuna 3.6 - Preferred Networks Research & Development

                                                                                  はじめに ブラックボックス最適化フレームワークOptunaの最新バージョンであるv3.6をリリースしました。今回のリリースには、様々な新機能やリファクタリング、バグ修正が含まれています。このブログではv3.6のハイライトと多くの機能改善についてお伝えします。 TL;DR Wilcoxon Pruner、軽量なガウス過程ベースのSampler、 PED-ANOVA重要度評価器等の様々な新しいアルゴリズムのサポート FrozenTrialの検証ロジックの厳密化、 Dashboardのリファクタリング、 Integrationの移行などOptunaの品質に関わる様々な改善を実施 Wilcoxon Pruner Optuna v3.5以前では、Prunerは典型的な機械学習のハイパーパラメータ最適化を想定して作られていました。そのような問題では、学習曲線を見て悪いパラメータを早期終了することができ

                                                                                    Announcing Optuna 3.6 - Preferred Networks Research & Development