並び順

ブックマーク数

期間指定

  • から
  • まで

681 - 720 件 / 1787件

新着順 人気順

ディープラーニングの検索結果681 - 720 件 / 1787件

  • 総務省が無料データサイエンス講座開講!今月の人工知能ニュース8選 | Ledge.ai

    画像はUnsplashより 日々、目まぐるしく進化、発展を遂げるAI(人工知能)業界。さまざまな企業が新しいサービスを開始したり、実験に取り組んだりしている。 そこで本稿ではLedge.aiで取り上げた、これだけは知っておくべき、10月のAIに関するニュースをお届けする。AIの活用事例はもちろん、新たな実証実験にまつわる話など、本稿を読んでおけばAIの動向が見えてくるはずだ。 AI研究の松尾豊さん「優秀な人ほどパラレルにやれ」高専生に期待 日本ディープラーニング協会(JDLA)は9月18日、「第1回全国高等専門学校ディープラーニングコンテスト2020(DCON2020)」の一環として、東京大学大学院工学系研究科 教授で、同協会の理事長も務める松尾豊さんによる、最優秀賞受賞の東京工業高等専門学校(東京高専)への表敬訪問を実施した。 DCON2020は、高専生が日頃培った「ものづくりの技術」と

      総務省が無料データサイエンス講座開講!今月の人工知能ニュース8選 | Ledge.ai
    • CNN vs. ViT

      第57回 コンピュータビジョン勉強会@関東 https://kantocv.connpass.com/event/260132/ で読みました。CNNとViTの争いの現時点の情報をお届けしています。ただECCV 2022の論文を読んだのかと言われると怪しい…(ECCV2022の論文「も」読んだというのが正しい)

        CNN vs. ViT
      • 「DeepL翻訳」が日本語対応、「自然な訳文」と話題に 独ベンチャーが開発

        独スタートアップのDeepLが提供している機械翻訳サービス「DeepL翻訳」がこのほど、日本語と中国語に対応した。同社の調査では、米Googleなどの翻訳サービスと比べて「高い評価」を受けているといい、ネットでは「敬語をちょっと直すだけでほぼ完璧な翻訳」「かなり自然な訳文」などと話題を呼んでいる。 DeepLは、2017年8月にDeepL翻訳を公開。ディープラーニングを活用した機械翻訳サービスで、これまで英語、ドイツ語、フランス語、スペイン語、イタリア語、ポーランド語、オランダ語、ポルトガル語、ロシア語に対応していたが、20年3月下旬に日本語と中国語にも対応した。 テキスト入力だけでなく、Microsoft WordやPowerPointの文書などをドラッグ&ドロップして翻訳することも可能。PCに専用アプリ(Windows/macOS)をダウンロードすると、キーボードのショートカットキー(

          「DeepL翻訳」が日本語対応、「自然な訳文」と話題に 独ベンチャーが開発
        • ChatGPTはどのようなシチュエーションで使えるか 活用シーンと正しい答えが出やすくなる命令のやり方を解説

          システムから言語モデルがどのように使えるか、その時どういうことに気をつける必要があるかを考える「『ChatGPTなどの言語モデルはどのようにシステムで使えるか』きしだなおき氏」。ここで、LINE Fukuoka株式会社のきしだなおき氏が登壇。まずは、ChatGPTの概要と、人間がどう使うかについて話します。 きしだ氏の自己紹介 きしだなおき氏:今日は「ChatGPT」などの言語モデルがどのようにシステムで使えるかという話を、概要レベルでやりたいと思います。まだ細かい知見は溜まっていない……。たぶん世界中でまだ知見が溜まっていないので、今は知見を溜めていくところだという話をしたいと思っています。 まず自己紹介です。LINE Fukuokaで働いています。役職的にはDeveloper Relationsなので、別に仕事でLLMを触っているわけではないです。Twitter(現X)は@kis(とい

            ChatGPTはどのようなシチュエーションで使えるか 活用シーンと正しい答えが出やすくなる命令のやり方を解説
          • Graph Neural Network を用いたグラフの木幅予測 - Preferred Networks Research & Development

            本記事は、2019年夏のインターンシップに参加された中野裕太さんによる寄稿です。 皆様はじめまして。2019 年 PFN 夏季インターンシップに参加していた北海道大学の中野裕太です。本ブログでは、私が夏季インターンで取り組んだテーマである、「Graph Neural Network を用いたグラフの木幅予測」について説明します。 要旨 与えられた無向グラフがどれくらい木に近いかを表す値である木幅は、グラフ上の組み合わせ最適化問題に対するアルゴリズムの効率性や解そのものと深く関係しています。しかし、木幅を計算することは NP 困難なため、木幅を計算するには頂点数に対し指数時間かかってしまいます。そこで、今回 Graph Neural Network を用いた 2 つの方法でこの問題にアプローチしました。1 つ目は、よく知られた既存のアルゴリズムと組み合わせ探索木の枝刈りを行い高速化を図り計算

              Graph Neural Network を用いたグラフの木幅予測 - Preferred Networks Research & Development
            • Graph Neural Networksを完全に理解したい

              社内の輪講で発表した資料です。 Graph Neural NetworksについてSpectral MethodとSpatial Methodについて代表的な手法を簡単に紹介し、更にDeep Graph Library (DGL)を用いた具体的な実装方法を紹介しています。

                Graph Neural Networksを完全に理解したい
              • ゼロから作るDeep Learning ❸

                大ヒットを続ける人気シリーズの第3弾。今回は「DeZero」というディープラーニングのフレームワークをゼロから作ります。DeZeroは本書オリジナルのフレームワークです。最小限のコードで、フレームワークのモダンな機能を実現します。本書では、この小さな――それでいて十分にパワフルな――フレームワークを、全部で60のステップで完成させます。それによって、PyTorch、TensorFlow、Chainerなどの現代のフレームワークに通じる知識を深めます。キャッチフレーズは――作るからこそ、見えるモノ。 関連ファイル サンプルコード 正誤表 ここで紹介する正誤表には、書籍発行後に気づいた誤植や更新された情報を掲載しています。以下のリストに記載の年月は、正誤表を作成し、増刷書籍を印刷した月です。お手持ちの書籍では、すでに修正が施されている場合がありますので、書籍最終ページの奥付でお手持ちの書籍の刷

                  ゼロから作るDeep Learning ❸
                • Deep Learningを始めたい!初心者エンジニアにおすすめの入門本

                  様々な分野でデジタル化が進む近年、AI(人工知能)という言葉をよく目にするようになりました。 例えば、コールセンターで人の代わりにロボットが対応したり、医師の代わりに機械がCTスキャンの読影を行なったり。これはAI(人工知能)技術を応用して実現しており、そして私たちの生活の中に少しずつ姿を表すようになってきたのです。 こうして少しずつ便利な世の中になってきましたよね。 そのAI(人工知能)を構成している技術の一つに皆さんも一度は目にしたことがあるであろう「deep learning」と呼ばれる技術があります。これはAI(人工知能)を知る上では欠かせない技術でしょう。 ですから、AI(人工知能)を使った製品などを開発しようとする時、「deep learning」を勉強しておく必要があります。 そこで今回は、このdeep learningの概要と入門本についてお伝えしましょう。

                    Deep Learningを始めたい!初心者エンジニアにおすすめの入門本
                  • 機械学習におけるハイパーパラメータ最適化の理論と実践 Part.1

                    2019年9月16、17日、日本最大のPythonの祭典である「PyCon JP 2019」が開催されました。「Python New Era」をキャッチコピーに、日本だけでなく世界各地からPythonエンジニアたちが一堂に会し、さまざまな知見を共有します。プレゼンテーション「機械学習におけるハイパーパラメータ最適化の理論と実践」に登壇したのは、株式会社サイバーエージェント/産総研特定集中研究専門員の野村将寛氏。講演資料はこちら ハイパーパラメータ最適化問題 野村将寛 氏(以下、野村):簡単に自己紹介をさせていただきます。僕は今、サイバーエージェントのAI Labという研究組織に所属していまして、ハイパーパラメータ最適化の研究をしています。先ほどの午前中のセッションで、AutoMLのセッションがあったと思うんですけど、そちらで発表していた芝田のチームメンバーになります。 産総研でもハイパーパ

                      機械学習におけるハイパーパラメータ最適化の理論と実践 Part.1
                    • Deep Learningで遊びながらアイドルの顔診断器を作る #juicejuice - razokulover publog

                      最後にブログを書いてから1ヶ月が経ってしまいました。この期間の振り返りもしたいところですが、それはまた別の機会に。 今回はこの2週間くらいDeep Learningを使って画像を分類したりする遊びをしていましたのでそれについて。 まずは成果物から。 yuheinakasaka.github.io 画像をアップするとJuice=Juiceというハロプロのアイドルにどれだけ似てる顔なのかを判定できるサイトです(herokuの無料枠で動いてるのでサーバーはいともカンタンに死にます...😇)。 見せられるようなコードではないですが、一応ソースコードも置いておきます。 GitHub - YuheiNakasaka/yukanya: Juice=Juiceのメンバーを画像から判定する分類器 GitHub - YuheiNakasaka/yukanya-api GitHub - YuheiNakasa

                        Deep Learningで遊びながらアイドルの顔診断器を作る #juicejuice - razokulover publog
                      • 手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」

                        手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」 2020-06-04 中国科学院と香港城市大学による研究チームが開発した「DeepFaceDrawing」は、手書きスケッチからリアルな顔画像を生成する深層学習フレームワークだ。 手書きスケッチからリアル顔を生成するDeepFaceDrawing このような深層学習を用いたスケッチ画像からリアル画像への変換では、Image-to-Image Translation with Conditional Adversarial Nets [Isola et al. 2017] などで実証されている。しかしデータ駆動型の性質上、実画像とそれに対応するエッジマップのペアからネットワークを学習することが多いため、リアルな顔画像を合成するためには、実画像のエッジマップに近い品質のテストスケッチが必要となる。それを用意する

                          手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」
                        • PyTorchでDCGANを作ってみよう

                          そこで、今回は「CNNなんて怖くない! その基本を見てみよう」や「PyTorchで畳み込みオートエンコーダーを作ってみよう」などで取り上げた畳み込みニューラルネットワークを利用して、GANを構築してみることにします。 実際の構成は、次のようになります。以下ではConv2dクラスとConvTranspose2dクラスのみを含めてありますが、BatchNorm2dクラスおよびtorch.nnモジュールが提供する活性化関数クラス(torch.nn.Sigmoidクラス、torch.nn.Tanhクラス)も使用します。訓練データと偽物のデータの識別と偽物データの生成の中心的な処理はこれら2つのクラスが請け負うということです。 識別器(ディスクリミネーター)では、CNNで使用するConv2dクラスにより訓練データおよび生成器(ジェネレーター)から入力されたデータを最終的に0~1の値へと変換していきま

                            PyTorchでDCGANを作ってみよう
                          • AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワークが特定の概念を呼び起こすかを知る試みをAnthropicが解説

                            チャットAI「Claude」などを開発するAI企業「Anthropic」がAIモデルの内部動作について、何百万もの概念がどのように表現されているかという研究結果を報告しました。 Mapping the Mind of a Large Language Model \ Anthropic https://www.anthropic.com/research/mapping-mind-language-model AIモデルの本体である大規模言語モデル(LLM)の出力はブラックボックスとして扱われており、入力に対応して出力が行われた時になぜその特定の応答が出力されたのかは不明となっています。そのため、モデルが有害・偏見・ウソなどの危険な出力をしないことを信頼するのは難しいものです。 Anthropicは以前よりLLMの内部についての研究を行っており、2023年10月には「特徴」単位でまとめるこ

                              AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワークが特定の概念を呼び起こすかを知る試みをAnthropicが解説
                            • NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language

                              DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム チュートリアル講演資料 Part2: Vision-and-Language

                                NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language
                              • ABCIで回そう爆速深層学習 (基礎編)

                                チーム内で使用したABCI活用Tips集を公開します. 免責|本資料は坂東の個人的経験・実験に基づくTips集であり,ABCI公式とは無関係で不正確な場合があります. 公式情報は https://abci.ai , https://docs.abci.ai をご参照下さい.

                                  ABCIで回そう爆速深層学習 (基礎編)
                                • 大規模モデルを単一GPUで効率的に学習する方法|npaka

                                  以下の記事が面白かったので、かるくまとめました。 ・Methods and tools for efficient training on a single GPU 1. LLMを単一GPUで効率的に学習する方法大規模モデルの学習では、次の2つを考慮する必要があります。 ・スループット・学習時間 ・モデルのパフォーマンス 「スループット」 (サンプル / 秒) を最大化すると、学習コストの削減につながります。これは通常、GPUメモリを限界まで利用することで実現されます。必要なバッチサイズがメモリオーバーする場合は、「Gradient Accumulation」などの「メモリの最適化」が必要になります。 ただし、「推奨バッチサイズ」がメモリに収まる場合は、学習が遅くなる可能性があるため、「メモリの最適化」を適用する必要はありません。どのバッチサイズが最良の結果をもたらすかを決定し、それに応じ

                                    大規模モデルを単一GPUで効率的に学習する方法|npaka
                                  • からあげさんってすごいなあポエム(松尾研LLMコミュニティ初心者セミナー)

                                    はじめに 今回始めて松尾研LLMコミュニティの初心者向け講座"Begginning LLM"の第一回に参加しました! 1~2ヶ月に1回ほど開催される連続講座のようでChatGPTで遊んだことあるけど本格的にLLMのこと知りたい!けど何からはじめていいのか分からないという人にぴったりの講座だと感じました。 この講座内容のすべては以下のYoutubeで公開されています。 今回のセミナーの中では松尾研所属のからあげさんが2つのユニットのセミナーを行っていました。 この記事ではからあげさんから学んだことを思ったままに書いていきます。 からあげさんはここがすごいぞ みなさんからあげさんのセミナーがとても気になって受講された方が多いんじゃないかな?と思いました。 もちろん、わたしも松尾研LLMでのからあげさんのご活躍が見たくて申し込みました!!! 約100枚の圧倒的スライド数 まず、すごいボリュームの

                                      からあげさんってすごいなあポエム(松尾研LLMコミュニティ初心者セミナー)
                                    • Edge TPU の性能を引き出すためには? - OPTiM TECH BLOG

                                      はじめに オプティムの R&D チームで Deep な画像解析をやっている奥村です。 Edge TPU は NVIDIA GPU と同じような感覚で使うことはできません。NVIDIA GPU よりもメモリの制約が強く、Edge TPU の性能を引き出したり、複数のモデルを1つの Edge TPU で同時に実行するにはいくつかのコツが必要になります。Edge TPU Compiler | Coral をベースに、意訳・追記したものをメモしました。 Edge TPU はモデルのパラメータデータをキャッシュするための 8MB 程度の SRAM を持っており、ここにモデルが乗り切らない場合、都度外部メモリから Edge TPU にデータを転送する必要があるため、性能低下を引き起します。また、複数モデルを 1 つの Edge TPU で実行する場合、同時コンパイル (Co-Compile) しないと

                                        Edge TPU の性能を引き出すためには? - OPTiM TECH BLOG
                                      • 「AIのゴッドファーザー」雌伏の30年 華麗なるAI人脈(1) - 日本経済新聞

                                        あらゆる産業に浸透し始めた人工知能(AI)。20世紀後半の2度のブームから「冬の時代」を経て幕が上がった復活劇の主役はカナダ東部の街トロントにいる「AIのゴッドファーザー」と2人の弟子。3人を源流とするAI革命を彩る華麗なる人脈を追う。【次回記事】ザッカーバーグがほれた男 日本にまいたAIの種「ディープラーニング」の伝道師「ディープラーニング(深層学習)」。10年前にはほとんど知られていなかったAIのキーワードを世界に広めたのが、トロント大学名誉教授で「ゴッドファーザー」の異名を取るジェフリー・ヒントン(71)、その弟子でフェイスブックのヤン・ルカン(59)、孫弟子でモントリオール大学教授のヨシュア・ベンジオ(55)だ。AI研究者は3人を「カナディアン・マフィア」と称する。ヒントンがいるトロントには世界中からAI人材が集まり、今や「北のシリコンバレー」と呼ばれる。200社超のAIスタートア

                                          「AIのゴッドファーザー」雌伏の30年 華麗なるAI人脈(1) - 日本経済新聞
                                        • 深層学習を用いた文生成モデルの歴史と研究動向

                                          2020/07/02に開催されたDLLab主催のイベント、「自然言語処理ナイト」の第2セッション「生成系NLPの研究動向」で使用したスライド資料です。Read less

                                            深層学習を用いた文生成モデルの歴史と研究動向
                                          • 日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可

                                              日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可
                                            • データサイエンス/AI/ディープラーニングの資格ガイド

                                              AI/機械学習/データサイエンス関連で筆者が注目する、データサイエンティスト検定、G検定/E資格、統計検定、データサイエンス数学ストラテジスト、人工知能プロジェクトマネージャー試験という5つの認定資格や検定試験を紹介する。

                                                データサイエンス/AI/ディープラーニングの資格ガイド
                                              • GitHub - mrdbourke/tensorflow-deep-learning: All course materials for the Zero to Mastery Deep Learning with TensorFlow course.

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - mrdbourke/tensorflow-deep-learning: All course materials for the Zero to Mastery Deep Learning with TensorFlow course.
                                                • 地図作成速度を3倍以上にするFacebook製AIが実用化へ

                                                  世界の人々が共同で地図を作成するWikipediaの地図版のようなプロジェクト「「OpenStreetMap(OSM)」では、日々ボランティアがフリーの地図を作り上げるために貢献しています。FacebookがAIに地図を作らせるサービス「Map With AI」で書き込みを始めたと発表しています。Map With AIを使うと6年半かかると地図作りがわずか1年半で終わるそうです。 AI is supercharging the creation of maps around the world https://tech.fb.com/ai-is-supercharging-the-creation-of-maps-around-the-world/ 従来までのオンラインでの地図作成は、衛星写真に手作業で道の種類や場所のデータなど加えていくというものでした。この手法は作業者に負担がかかり、さ

                                                    地図作成速度を3倍以上にするFacebook製AIが実用化へ
                                                  • オノマトペ(擬音語)から環境音を合成するニューラルネットワーク(Onoma-to-Wave)をPyTorchで実装した - 備忘録

                                                    はじめに 事前準備 ソースコード 実装の概要と動かし方 補助的に作成したモジュールの概要 おまけ:訓練済みモデルのリリース 環境音合成実験 音響イベントによる条件付けなし 音響イベントによる条件付けあり 実装の舞台裏とかTIPS おわりに 参考文献 はじめに 下記の雑誌論文が最近出版された。 Yuki Okamoto, Keisuke Imoto, Shinnosuke Takamichi, Ryosuke Yamanishi, Takahiro Fukumori and Yoichi Yamashita, "Onoma-to-wave: Environmental Sound Synthesis from Onomatopoeic Words", APSIPA Transactions on Signal and Information Processing: Vol. 11: No.

                                                      オノマトペ(擬音語)から環境音を合成するニューラルネットワーク(Onoma-to-Wave)をPyTorchで実装した - 備忘録
                                                    • 猫でもわかるTabNet

                                                      Python と Snowflake はズッ友だょ!~ Snowflake の Python 関連機能をふりかえる ~

                                                        猫でもわかるTabNet
                                                      • AIを作るAIを作る

                                                        人工知能(AI)はデータのパターンを識別して学習するため、とにかく十分なデータと処理能力が必要です。AI開発現場における処理能力の要請は年々増大しており、AIの開発者は数百万から数十億のパラメータを注意深く調整しなければいけません。これを達成するために設計された「ハイパーネットワーク」について、インドの作家兼ジャーナリストのアニル・アナンサスワーミー氏が解説しています。 Researchers Build AI That Builds AI https://www.quantamagazine.org/researchers-build-ai-that-builds-ai-20220125/ 人工知能の構築には「最適化」と呼ばれるプロセスで限りなく理想に近い値を見つけていくことが肝要ですが、ここに到達するためにネットワークをトレーニングすることは簡単ではありません。そんな難解なプロセスにつ

                                                          AIを作るAIを作る
                                                        • 基盤モデルを使ったTuringの完全自動運転戦略

                                                          基盤モデルが自動運転車を操ってる筆者のイメージ created by DALL-E Turingで機械学習チームでエンジニアをしている井ノ上です。(Twitter: いのいち) Turingは2030年までにあらゆる場所で自動走行が可能で、ハンドルが必要ない完全自動運転システム(Level 5自動運転)の開発を目指して様々な技術の調査や検証を行っています。このテックブログではTuringがどのようにしてLevel 5完全自動運転にアプローチしていくのか、近年の基盤モデルやGoogleのロボティクス研究から考えていきたいと思います。 TuringのLevel 5への仮説 Level 5の自動運転をどのようにして作るのか。これは多くの人が気になるところだと思います。TuringではLevel 5自動運転の実現の鍵は「知能」にあると考えています。従来の自動運転の開発によって、LiDARやレーダー

                                                            基盤モデルを使ったTuringの完全自動運転戦略
                                                          • BASEアプリにおける類似画像検索の裏側 機械学習における画像とテキストの使い分け

                                                            AWS上で機械学習を運用しているデベロッパーやデータサイエンティストのためのイベント「ML@Loft」。第11回のテーマは、類似画像/テキスト検索です。ネットショップを作れるサービスBASEには、店舗を横断して類似商品を表示する機能があり、類似商品を検索するためのAPIが使われています。BASE株式会社/Data Strategyチームのエンジニアである氏原淳志氏が、この類似商品APIの仕組みと運用について紹介します。 BASEにおける類似画像検索を利用した関連商品表示の裏側 氏原淳志氏:今日は「『BASE』の類似商品APIの裏側」という内容でお話しします。 まず自己紹介します。私は氏原淳志と言いまして、BASE株式会社でData Strategyチームのエンジニアをやっております。Data Strategyチームというのは、データの分析であったりとか機械学習であったりとかを担当するチーム

                                                              BASEアプリにおける類似画像検索の裏側 機械学習における画像とテキストの使い分け
                                                            • なぜn_estimatorsやepochsをパラメータサーチしてはいけないのか - 天色グラフィティ

                                                              ハイパーパラメータを探索するため、グリッドサーチやOptunaなどを利用することがあると思います。 しかし、「ハイパーパラメータ探索してみた」のようなQiita記事などでは間違って書かれていることも多いのですが、XGBoostやLightGBMの n_estimators ( num_boosting_rounds )やKerasの epochs をパラメータサーチの対象にしてはいけません。 いけません、というか、すごく無駄なことをしています。 なぜ、n_estimatorsやepochsを探索すると無駄なのか 理由はシンプルで、これらのパラメータは「大きい値で精度確認する過程で小さい値の結果も分かる」からです。 LightGBMのn_estimatorsは構築する決定木の数を表しています。 例として、n_estimators=5 (こんな小さい値で学習することはないですが、簡単のため)で

                                                                なぜn_estimatorsやepochsをパラメータサーチしてはいけないのか - 天色グラフィティ
                                                              • 表形式データに対する深層学習ライブラリの開発と実験 - Preferred Networks Research & Development

                                                                本記事は、2021年度PFN夏季インターンシップで勤務した平川雅人さんと畠山智之さんによる寄稿です。 はじめに 2021年度PFN夏季インターン生の平川雅人と畠山智之です。 今回のインターンでは、表形式データに対して様々な深層学習モデルを試すことができるライブラリを共同で開発しました。開発したライブラリは https://github.com/pfnet-research/deep-table で公開しています。 背景 近年、深層学習は画像や自然言語、音声の分野で目覚ましい成功を収めてきました。しかし表形式データに対しては、深層学習はそのような成功を遂げることは少なく、いまだにXGBoostやLightGBMのような決定木ベースのモデルが主流となっています。 深層学習の有望な手法として、決定木のアンサンブルを模倣して勾配ベースの学習を可能にしたNODE [1] や、スパースなattenti

                                                                  表形式データに対する深層学習ライブラリの開発と実験 - Preferred Networks Research & Development
                                                                • GitHub - google-research/tuning_playbook: A playbook for systematically maximizing the performance of deep learning models.

                                                                  This document is for engineers and researchers (both individuals and teams) interested in maximizing the performance of deep learning models. We assume basic knowledge of machine learning and deep learning concepts. Our emphasis is on the process of hyperparameter tuning. We touch on other aspects of deep learning training, such as pipeline implementation and optimization, but our treatment of tho

                                                                    GitHub - google-research/tuning_playbook: A playbook for systematically maximizing the performance of deep learning models.
                                                                  • PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載

                                                                    Modular社がAI処理を高速化するプラットフォーム「MAX」をプレビュー公開。PyTorchやTensorFlow、ONNXなどのAIモデルと入れ替えるだけで処理が最大5倍高速になる。 Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました。 MAX Developer Edition Preview has officially launched! It's a drop-in replacement for running and serving @PyTorch, @tensorflow and @onnxai models much faster and leverages the

                                                                      PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載
                                                                    • Stable-Diffusionの学習設定まとめ|gcem156

                                                                      なんか学習設定について、よく分からんけどデフォルト!とかよく分からんけどこうしてみたらうまくいった!みたいな感覚で議論されていることが多い気がするので、学習設定についてまとめてみようと思います。機械学習のこと知らん人にも分かるようにするはずの記事でしたが多分そうなってないです。間違いもあると思いますが、私の記事が間違っていたとしても、悪いのは私よりも頭がいい人が分かりやすい説明をしないせいであって私のせいではありません。 機械学習の簡単な説明機械学習が分からない人にも!と思って難しい用語を避けようとしてみましたが、誤差逆伝搬のことをフィードバックって言いかえたところで分かりやすくなっているのでしょうか? 機械学習はモデルの数値を学習データに合うように少しずつ調整していく作業です。なぜ少しずつかというと、機械学習では改善する方向はなんとなくわかるけど、最適な数値の位置は分からないからです。位

                                                                        Stable-Diffusionの学習設定まとめ|gcem156
                                                                      • 大澤昇平 :: AI 救国論 🇺🇳 on Twitter: "機械学習の定理に「みにくいアヒルの子の定理」というものがあります。これは「純粋に客観的な立場からは、いかなるものも区別できない」というものです。 私はこの定理を前提とし、あくまで営利を目的とする私企業におけるパフォーマンスのことと、スコープを切って発言しています。"

                                                                        機械学習の定理に「みにくいアヒルの子の定理」というものがあります。これは「純粋に客観的な立場からは、いかなるものも区別できない」というものです。 私はこの定理を前提とし、あくまで営利を目的とする私企業におけるパフォーマンスのことと、スコープを切って発言しています。

                                                                          大澤昇平 :: AI 救国論 🇺🇳 on Twitter: "機械学習の定理に「みにくいアヒルの子の定理」というものがあります。これは「純粋に客観的な立場からは、いかなるものも区別できない」というものです。 私はこの定理を前提とし、あくまで営利を目的とする私企業におけるパフォーマンスのことと、スコープを切って発言しています。"
                                                                        • TechCrunch

                                                                          Welcome, folks, to Week in Review (WiR), TechCrunch’s weekly news recap. The weather’s getting hotter — but not quite as hot as the generative AI space, which saw a slew of new model

                                                                            TechCrunch
                                                                          • 伊藤詩織さんが杉田水脈衆院議員と大澤昇平さんを提訴 「ツイッターの投稿で名誉を傷つけられた」 - 弁護士ドットコムニュース

                                                                              伊藤詩織さんが杉田水脈衆院議員と大澤昇平さんを提訴 「ツイッターの投稿で名誉を傷つけられた」 - 弁護士ドットコムニュース
                                                                            • Stable DiffusionでSeedを固定して同じ絵を生成できるのか問題を検証

                                                                              Stable Diffusionでseedを固定して同じ絵を生成できるのか問題 Stable Diffusionでseed値を固定すると同じ絵を生成できるのかが(私の中で)話題です。 きっかけは、shi3zさんとdrikinさんの動画のラストの1,2分。 Seedを固定すると同じ絵が出ると主張するdrikinさんと、そんなことはないんじゃないかといい、その場で実践して確かめるshi3zさん。 自分も、GPUを多用するディープラーニングの演算だと、seed固定しても経験的に完全再現できないことを体感していたのと、当時調べたら「GPUでは完全再現は難しい」という情報が多かったので、seed値を固定しても、結果は再現できないものとずっと思っていました。 でも、Stable Diffusionの実験して挙動みてると、同じpromptとseed値から同じ絵が再現できていそうなんですよね。 その後も繰

                                                                                Stable DiffusionでSeedを固定して同じ絵を生成できるのか問題を検証
                                                                              • 要注目?DeepGBM: ニューラルネット+GBDT(速報) - Paoの技術力を磨くブログ

                                                                                KDD2019のPaper一覧で気になるものがあったので紹介します。 ※記載時点でまだ論文公開、発表されておらず、こちら鮮度重視の記事です。 内容に誤りがある可能性は十分あるのでご了承ください。 DeepGBMとは データマイニングのトップカンファレンスKDD2019で発表される予定の手法です。 Guolin Ke, Zhenhui Xu, Jia Zhang, Jiang Bian, and Tie-yan Liu. "DeepGBM: A Deep Learning Framework Distilled by GBDT for Online Prediction Tasks." In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, ACM

                                                                                  要注目?DeepGBM: ニューラルネット+GBDT(速報) - Paoの技術力を磨くブログ
                                                                                • ディープラーニングは自動で特徴を抽出してくれる? - HELLO CYBERNETICS

                                                                                  はじめに 特徴抽出とは ニューラルネットワークによる特徴抽出 深層学習は特徴抽出を自動で行うのか 補足:本当に自動機械学習に向けて はじめに 未だに強く主張されることの多い「ディープラーニングは人手の特徴抽出作業を自動で実施してくれる」という話。 このことについては肯定も否定もしないというのが私の立場ですが、基本的に「思っているより思い通りには行かない」という事実があることは主張しておきたいです。 そのために、今回「ディープラーニングが自動で特徴抽出を行ってくれる」ということがどういうことなのかを簡単に説明します。 特徴抽出とは まず特徴抽出とは何かを説明していきましょう。特に断りが無い限りは大文字は行列、小文字はベクトルあるいはスカラーだと思って差し支えありません(今回は特に細かい数式の設定が議論に影響することはありません)。 今、入力 $x$ で出力が $y$ となるような適当なデータ

                                                                                    ディープラーニングは自動で特徴を抽出してくれる? - HELLO CYBERNETICS