並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 1839件

新着順 人気順

ディープラーニングの検索結果81 - 120 件 / 1839件

  • 機械学習・ディープラーニングのおすすめ本11冊+α!(初心者〜中級者向け)

    AIエンジニアを目指す方、機械学習やディープラーニングを学びたい方におすすめの本・書籍を紹介します。 機械学習やディープラーニングのおすすめ本を紹介するにあたって、私が勤務するITメガベンチャーで実際に機械学習・ディープラーニングなどのAI(人工知能)を業務でゴリゴリ活用しているサイエンティストやAIエンジニアにもヒアリングしてきました。初心者・未経験者の方はもちろん、実務で活用したいという人も読んでいただけると幸いです。 本記事の構成としては、①プログラミングもあまり経験が無い本当の初心者向け ②プログラミング経験はあるけど機械学習やディープラーニングをこれから学びたい人向け ③機械学習・AIの基礎知識はあり実践的なスキルを学びたい人向け ④その他AIの読み物や特に専門分野などの番外編 といった4部構成です。 単純に本を羅列するだけではなく、実際に本を読んだ人の感想や口コミも合わせて掲載

    • Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」

      Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」:Microsoft Ignite Microsoftは2つのカスタム設計チップ、AIに最適化した「Maia 100」とArumベースの汎用「Cobalt 100」を発表した。「インフラストラクチャスタックのすべての層を最適化して統合することが重要」とガスリー氏。 米Microsoftは11月15日(現地時間)、開発者向け年次イベント「Microsoft Ignite」で、2つのカスタム設計チップ、AIに最適化した「Microsoft Azure Maia 100 AI Accelerator」(以下「Maia 100」)とArmベースの汎用「Microsoft Azure Cobalt 100 CPU」(以下「Cobalt 100」)を発表した。 Microsoftは現在、A

        Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」
      • Microsoft、生成AIの開発を加速する128コアのArm CPU「Cobalt」とAIアクセラレータ「Maia」

          Microsoft、生成AIの開発を加速する128コアのArm CPU「Cobalt」とAIアクセラレータ「Maia」
        • 『ゼロから作る Deep Learning ❺』 公開レビューのお知らせ|斎藤 康毅(さいとう こうき)

          問題に感じた箇所や改善すべきと思った点など、コメントいただけますと幸いです。レビューに貢献していただいた方には、感謝の印として、本書に名前を記載させていただく予定です(もちろん、同意のある方のみです)。下記のように、レビューアの方の名前をクレジットとして掲載する予定です。 左は『ゼロから作るDeep Learning ❷』、右は中国語に翻訳された『Deep Learning 2』なお、本のタイトルに「❺」とありますが、前作までの知識がなくても読める内容になっています。前提条件としては、Pythonと数学の基本的な知識が必要になります。数式も多く登場します。ちなみに、本書の概要は次のとおりです。 人気シリーズの第5弾。今回のテーマは「生成モデル」です。本書では「正規分布」から「拡散モデル」に至るまでの技術を繋がりのあるストーリーとして展開します。読者は小さな学びを積み重ねながら、ステップバイ

            『ゼロから作る Deep Learning ❺』 公開レビューのお知らせ|斎藤 康毅(さいとう こうき)
          • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

            Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

              コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
            • 大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場

              Low Rank Adapation(LoRA)はAIへの追加学習を少ない計算量で行うためのモデルです。このLoRAを使って、事前トレーニングされた大規模言語モデルに低コストかつ効率的にファインチューニング(微調整)を行えるシステム「Punica」を、ワシントン大学とデューク大学の研究チームが公開しました。 GitHub - punica-ai/punica: Serving multiple LoRA finetuned LLM as one https://github.com/punica-ai/punica [2310.18547] Punica: Multi-Tenant LoRA Serving https://arxiv.org/abs/2310.18547 企業や開発者が特定のタスクに適した大規模言語モデルを用意したい場合、事前学習済みの大規模言語モデルをファインチューニン

                大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場
              • ドスパラがGPUクラウドサービス提供 生成AIなどで利用見込む

                PC販売などを手掛けるサードウェーブは11月1日、法人向けブランド「ドスパラプラス」で、GPUクラウドサービス「raytrek cloud」を始めた。 PC販売などを手掛けるサードウェーブは11月1日、法人向けブランド「ドスパラプラス」で、GPUクラウドサービス「raytrek cloud」を始めた。データセンター事業などを手掛けるハイレゾ(東京都新宿区)のGPUクラウドサービス「GPUSOROBAN」を代理販売する形で提供。当初はGPUSOROBANと同じサービス内容だが、今後サードウェーブ独自の施策などを検討する。

                  ドスパラがGPUクラウドサービス提供 生成AIなどで利用見込む
                • 群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞

                  Introduction 人工知能(AI)関係者の間では名の知れた米グーグル出身の研究者コンビが東京でAI開発スタートアップを立ち上げた。1人は今の生成AIの土台となる「トランスフォーマー」技術の論文を共同執筆したライオン・ジョーンズ氏。もう1人はグーグルのAI研究部門の東京チームを率いたデビッド・ハ氏だ。生成AIの開拓者たちが見据える「次」を聞いた。(聞き手は生川暁、伴正春)現行の生成AI、開発負担大きく

                    群知能で生成AIの次 「トランスフォーマー」生みの親 - 日本経済新聞
                  • Announcing Optuna 3.4 - Preferred Networks Research & Development

                    ハイパーパラメータ自動最適化フレームワークOptunaの新しいバージョンであるv3.4がリリースされました。今回のリリースには、ユーザーの相対的な評価結果をもとに最適化を行う新機能 “Preferential Optimization” や、ファイル管理機構、Jupyter Lab拡張、VS Code拡張が含まれています。 ✨ハイライト機能 選好に基づく最適化 (Preferential Optimization) 今回のリリースでは、選好に基づく最適化 (Preferential Optimization)が導入されました。この機能は、画像生成や音声合成、自然言語生成タスクのように、生成物の定量的な評価が難しく、人間が主観的な評価をつける必要があるタスクにおいて特に有用です。 Optuna 3.2においてサポートされたHuman-in-the-Loop最適化では、絶対評価のみが可能となっ

                      Announcing Optuna 3.4 - Preferred Networks Research & Development
                    • AIは怖くない。機械学習のイロハから、ゲームで利用するためのアプローチまでを学ぶ【CEDEC2023】

                      国内最大規模のゲーム業界カンファレンス「CEDEC2023」が、2023年8月23日(水)から8月25日(金)までの日程で開催されました。2日目となる8月24日には、ユニティ・テクノロジーズ・ジャパンの代表取締役社長・大前広樹氏が登壇し、「推論ライブラリを実装する」と題した講演が行われました。 本講演ではUnityで機械学習の結果を利用するためのアプローチについて触れていますが、機械学習の基本の部分についても解説がありました。ゲームエンジンに関わらず機械学習の初学者にとっても非常に勉強になる内容となっている本講演をレポートします。 TEXT / rita EDIT / 田端 秀輝

                        AIは怖くない。機械学習のイロハから、ゲームで利用するためのアプローチまでを学ぶ【CEDEC2023】
                      • Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development

                        はじめに Optunaの新しいバージョン3.4では、新たにJupyter Lab拡張とVS Code拡張が公開・アナウンスされました。これらの拡張機能を利用することで、Optuna DashboardをJupyter LabやVS Code内で起動し、最適化履歴をより手軽に確認できます。 本記事ではこれらの拡張機能がどのように実装されているのか、その仕組みを解説します。Optuna Dashboardの開発に興味を持ってくださっている方に限らず、Jupyter Lab拡張やVS Code拡張を開発しようとしている方のお役に立てば幸いです。 Jupyter Lab拡張の仕組み Optuna Dashboardは次の図に示すように、PythonのBottleフレームワークで書かれたサーバープログラムと、Reactで書かれたシングルページアプリケーションからなります。 このプログラムをJupyt

                          Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development
                        • 「言語を一般化する人間のような能力を持つニューラルネットワーク」の登場によりAIに革新が起こる可能性

                          言語における「一般化」を人間のように行えるニューラルネットワークの開発に成功したことが、2023年10月25日に科学誌のNatureに掲載された論文で報告されました。ChatGPTのような人間と自然に対話可能なチャットボットでも、言語の一般化は非常に難しいため、このニューラルネットワークの登場により対話型AIのさらなる進化が見込めると科学誌のNatureが指摘しました。 AI ‘breakthrough’: neural net has human-like ability to generalize language https://www.nature.com/articles/d41586-023-03272-3 Chatbots shouldn’t use emojis https://www.nature.com/articles/d41586-023-00758-y 人間は言語

                            「言語を一般化する人間のような能力を持つニューラルネットワーク」の登場によりAIに革新が起こる可能性
                          • ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ

                            概要 背景・目的 実験 実験の概要 定量評価 定性評価 おわりに 参考文献 DROBEで機械学習エンジニアをしております、藤崎です。 概要 類似商品検索の基盤となる複数の特徴抽出アルゴリズムについて、DROBEの保有するデータで評価した 定量評価によると、画像単体を入力とする ResNet-50(自己教師あり学習)とCLIPの性能が高かった 定性評価によって、取り扱うモーダルの違いによる各モデル出力の顕著な差異が確認できた 背景・目的 小売において、商品の在庫は無数に存在しています。そのため、消費者やサービス提供者が商品に紐づく情報(画像、商品の説明文など)を解釈して、特定の商品と類似したアイテムを人手で行うのは困難です。 この課題を解決するために、機械学習手法の活用が注目されています。 機械学習を用いた処理の流れは、 商品に紐づく情報を適切に 「要約」 し、 1.で 「要約」 した商品情

                              ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ
                            • 【独自】万博は「残念やけど中止に」大阪府が提供のAI活用チャット大ちゃんが回答(MBSニュース) - Yahoo!ニュース

                              大阪府が提供する生成AIを活用したチャットサービスが、万博に関する質問について「残念ながら中止」などと回答する現象が起きていることがわかりました。 大阪府が生成AIを活用して今年9月から提供しているサービス「大ちゃん」。しかし、記者が「大阪の万博は中止ですか?」と質問してみると、「残念やけど中止になってしまいました」と答えます。また、開催時期について聞くと、正しくは「2025年4月から」ですが「2025年3月から」と誤った回答をしていました。 府によりますと、「大ちゃん」は利用者に寄り添い会話を楽しむ目的で作られていて、生成AIはインターネットなどのあらゆる情報を学習するため、正確性に欠ける部分があるということです。こうした情報はSNSでも拡散されていて、府は状況を確認した上で、「修正できる部分があれば修正したい」としています。

                                【独自】万博は「残念やけど中止に」大阪府が提供のAI活用チャット大ちゃんが回答(MBSニュース) - Yahoo!ニュース
                              • ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント

                                GoogleやAmazonが投資するAIスタートアップのAnthropicの研究チームが、ニューラルネットワークがどのように言語や画像を扱っているのかを解き明かす研究において、個々のニューロンを「特徴」と呼ばれる単位にまとめることでニューラルネットワークの中身を解釈しやすくなるという研究結果を発表しました。 Anthropic \ Decomposing Language Models Into Understandable Components https://www.anthropic.com/index/decomposing-language-models-into-understandable-components 大規模言語モデルは多数のニューロンが接続されたニューラルネットワークで、ルールに基づいてプログラミングされるのではなく、多数のデータを元にトレーニングを行うことでタス

                                  ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント
                                • 日本最強ユニコーンPreferred Networks、損失30億円超 第9期決算 | 自動運転ラボ

                                  出典:官報(※クリックorタップすると拡大できます)日本を代表するユニコーン企業で、自動運転関連技術の開発も手掛けるAI(人工知能)開発企業の株式会社Preferred Networks(本社:東京都千代田区/代表取締役CEO:西川徹)。同社の第9期決算公告(2022年2月〜2023年1月)が、このほど官報に掲載された。 第9期は売上高が76億5,500万円、当期純損失は30億6,600万円であった。 これと同じタイミングで、同社は新設分割により、生成AI事業に関する新子会社「Preferred Elements」を2023年11月1日に設立することを発表した。2021年11月には、自律移動ロボット事業を手掛ける「Preferred Robotics」も新設分割により設立している。 過去の新設分割の経緯があるため、同社の決算を過去の決算と単純に比較はしにくいが、参考のために記載すると、第7

                                    日本最強ユニコーンPreferred Networks、損失30億円超 第9期決算 | 自動運転ラボ
                                  • 大規模モデルを単一GPUで効率的に学習する方法|npaka

                                    以下の記事が面白かったので、かるくまとめました。 ・Methods and tools for efficient training on a single GPU 1. LLMを単一GPUで効率的に学習する方法大規模モデルの学習では、次の2つを考慮する必要があります。 ・スループット・学習時間 ・モデルのパフォーマンス 「スループット」 (サンプル / 秒) を最大化すると、学習コストの削減につながります。これは通常、GPUメモリを限界まで利用することで実現されます。必要なバッチサイズがメモリオーバーする場合は、「Gradient Accumulation」などの「メモリの最適化」が必要になります。 ただし、「推奨バッチサイズ」がメモリに収まる場合は、学習が遅くなる可能性があるため、「メモリの最適化」を適用する必要はありません。どのバッチサイズが最良の結果をもたらすかを決定し、それに応じ

                                      大規模モデルを単一GPUで効率的に学習する方法|npaka
                                    • 日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可

                                        日本語/英語両方で世界トップクラス性能の大規模言語モデル。商用利用可
                                      • 拡散モデルチュートリアル_for_public.pdf

                                        ログイン読み込んでいます…

                                        • 機械学習と自動微分 (2023)

                                          「最適化法」第15回(ゲストトーク), 2023年1月20日, 同志社大学.

                                            機械学習と自動微分 (2023)
                                          • OpenAI Cookbook

                                            Processing and narrating a video with GPT's visual capabilities and the TTS API

                                              OpenAI Cookbook
                                            • 最近話題の マルチモーダルLLM まとめ|npaka

                                              最近話題の 「マルチモーダルLLM」 をまとめました。 1. マルチモーダルLLMの概要「マルチモーダルLLM」(MLLM)は、画像とテキスト(自然言語)を組み合わせたタスクに用いられるモデルです。視覚情報とテキスト情報を組み合わせて多くの実世界の問題を解決するための強力なツールとなっています。 以下のスライドが参考になります。 2. マルチモーダルLLM主な「マルチモーダルLLM」は、次のとおりです。 2-1. BLIP2022年1月、Salesforceが発表したマルチモーダルLLMです。

                                                最近話題の マルチモーダルLLM まとめ|npaka
                                              • Meteor Lakeの内蔵NPU、AI処理の電力効率はCPUの7.8倍

                                                  Meteor Lakeの内蔵NPU、AI処理の電力効率はCPUの7.8倍
                                                • 機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO

                                                  機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 1 はじめに CX 事業本部 delivery部の平内(SIN)です。 Meta社による Segment Anything Model(以下、SAM)は、セグメンテーションのための汎用モデルで、ファインチューニングなしで、あらゆる物体がセグメンテーションできます。 今回は、こちらを使用して、スーパーマーケットで冷蔵庫の缶ビールを検出してみました。 最初に、動作確認している様子です。 缶ビールがセグメンテーションされていることと、それぞれの銘柄が判定できていることを確認できると思います。 2 学習済みモデルによる物体検出 (YOLOv8) YOLOv8などの物体検出モデルでは、配布されている学習済みモデルで、ある程度の物体検出が可能です

                                                    機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 | DevelopersIO
                                                  • 【論文紹介】大規模言語モデルにおけるニューロンの挙動について|はまち

                                                    大規模言語モデルにおける人工ニューロンの挙動をテーマにした以下論文が面白かったので、ざっくり目についたキーワードを抜き出してみました。 理解不足など多分にあると思いますので、興味を持たれた方は、ぜひ原文をご確認ください。 概要LLMの内部構造を理解するため、パラメータの異なる125Mから66BまでのMeta社のOPTファミリーのモデル内部の人工ニューロンの挙動を分析した キーワード活性化しないニューロン(Dead Neurons)ネットワークの入力部付近の層では、多くの活性化しない「デッドニューロン」が存在しており、特に66B(660億)モデルでは、一部の層で70%以上のニューロンが活性化していない。 ネットワークの前半はデッドニューロンの割合が高く、後半はほとんどのニューロンが「活性化」している。 著者らは、この層間での疎さの違いは、初期層では「概念と対応するニューロン」の比率が後半の層

                                                      【論文紹介】大規模言語モデルにおけるニューロンの挙動について|はまち
                                                    • 深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

                                                      この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 このシリーズが良いと思った方はぜひ共有もよろしくお願いします! 前回(第一回) https://youtu.be/tc8RTtwvd5U?si=15_MXStvqOZqL74O (英語版概要欄より)------------------------------------- さらに学びたい方へ、Michael Nielsenの本 http://neuralnetworksanddeeplearning.com こちらの本ではシリーズで扱われている例のコードを説明していきます: https://github.com/mnielsen/neural-networks-and-deep-learning MNIST d

                                                        深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)
                                                      • 大規模言語モデル

                                                        2023年度統計関連学会連合大会チュートリアルセッション 言語モデルと自然言語処理のフロンティア

                                                          大規模言語モデル
                                                        • ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

                                                          この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 近年さまざまな分野で成果を出しているニューラルネットワーク。神経細胞を模したニューロンの多層構造による深層学習(ディープラーニング)の仕組みについてのシリーズの第一回です。 誤字訂正 14:16 バイアスのベクトルの最後の添え字はnではなくkです 編集 シリーズ第1回のみ英語版で赤緑の色分けになっている箇所があり、日本語版では青緑の色分けに変更しています。 線形代数シリーズ https://youtube.com/playlist?list=PL5WufEA7WHQGX7Su06JzbPDXUQGOd0wlq&si=dnM07l6OnnAP6Phs Michael Nielsenの本 https://goo.

                                                            ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
                                                          • ChatGPTに渡す文章の適切な区切り線について検証した記事|Clirea

                                                            はじめに大規模言語モデルであるChatGPTに文章を渡す際、適切な区切り線の使用は、情報の正確な伝達や解釈に大いに役立ちます。 この記事では、区切り線に適切なものを検証します。 区切り線とは?使い方区切り線は文章を区切る時に使用する文字列のことです。 例えば下記のようなものです。 また、使い方をまとめた記事もあるので参考にしてください。 def test() a = "a" b = "b" c = a + b print(c) ================================ ←これが区切り線 上記のコードについて教えてください 結論先に結論を言うと、4個~16個連続した「-」か「=」 もしくは8の倍数の「-」か「=」が区切り線としてはベストでした。 ---- ---------------- -------------------------------- ==== ==

                                                              ChatGPTに渡す文章の適切な区切り線について検証した記事|Clirea
                                                            • 企業による生成AIアプリ構築はどう楽になる? Google Cloudが開発基盤Vertex AIを強化

                                                              企業による生成AIアプリ構築はどう楽になる? Google Cloudが開発基盤Vertex AIを強化:Google Cloud Next ’23 Google Cloudが年次イベント「Google Cloud Next '23」で、多数のモデルへの対応、社内の既存アプリやデータとの連携など、企業による生成AIアプリ構築を支援するさまざまな新機能を発表した。

                                                                企業による生成AIアプリ構築はどう楽になる? Google Cloudが開発基盤Vertex AIを強化
                                                              • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                                                [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                                                  [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                                                • ゼロからはじめるPython(106) プログラム生成AIのCodeLlamaを手元のPCでも動かしてみよう

                                                                  ChatGPTを筆頭にした「大規模言語モデル(LLM)」と呼ばれるAIが話題に上らない日はない。このAIが得意なタスクには「プログラムの自動生成」が挙げられるが、Metaからプログラム生成に特化したCodeLlamaが商用利用可能なオープンなライセンスでリリースされた。そこで実際に使ってみよう。 CodeLlamaで素数判定のプログラムを自動生成させたところ プログラミングは大規模言語モデルが得意とするタスク リリースからわずか2ヶ月で1億ユーザーを達成した「ChatGPT」の公開から本稿執筆時点で8ヶ月が過ぎた。筆者も業務でChatGPTをはじめ、Github Copilotなど、大規模言語モデル(LLM)関連サービスを使わない日はないくらいだ。 特に「プログラミング」は、間違いなく大規模言語モデルが得意とするタスクであり、GitHub Copilotを利用している多くの人がその利便性を

                                                                    ゼロからはじめるPython(106) プログラム生成AIのCodeLlamaを手元のPCでも動かしてみよう
                                                                  • Victor MARTIN ~ Understanding Automatic Differentiation in 30 lines of Python

                                                                    ---> For French version of this article, click here I'm a Machine Learning engineer and I use libraries like Tensorflow and Pytorch in my work to train my neural networks. And it's been a while since I wanted to write the simplest piece of code to perform what is called automatic differentiation which is at the heart of neural network training. In this article, I will try to iteratively build the

                                                                    • AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」

                                                                      この図はざっくりと3つの領域に分かれます。まず左下が従来のプログラミングの領域です。これは簡単に言うと「プログラムは間違ってはいけない定形な仕事を奪う」ということです。次にその上の士業が責任を取る領域です。これは「責任」を取る人がいないと成立しない仕事です。ミスが発生した際に罰則を与えるという形で、ミスの発生を防いでいます。最後に右側のホワイトカラーの仕事の領域です。ホワイトカラーの仕事は入出力が不定形であり、作業フローも非定型であったりします。そのため、多少のミスはあっても仕方ないという前提の上で仕事が行われています。 機械学習がビジネスに組み込まれるにつれ、ホワイトカラーの仕事領域はそれらによって少しずつ代替されつつあります。その図がこちらになります。 ホワイトカラーの担っていた領域は、表データの機械学習(重回帰や、Lasso回帰、SVM、RandomForest、LightGBMなど

                                                                        AIはどのような仕事ができるようになったのか?ChatGPTで変わる「優秀な人材」
                                                                      • ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                                        現在の人工知能(AI)を取り巻く環境では、 大規模言語モデル(LLM)の話題から、ますます大規模なニューラルネットワークの開発競争が起きている。しかし、すべてのアプリケーションが、大規模なディープラーニングモデルの計算量とメモリの要求をできるわけではない。 このような環境の制約が、いくつかの興味深い研究の方向性につながっている。MIT(マサチューセッツ工科大学)の CSAL(コンピュータ科学・人工知能研究所)の研究者が開発した新しいタイプのディープラーニングアーキテクチャ「Liquid Neural Networks」は、特定の AI 問題に対して、コンパクトで適応性が高く、効率的なソリューションを提供する。これらのネットワークは、従来のディープラーニングモデルに内在する課題のいくつかに対処するように設計されている。 Liquid Neural Network は AI の新たなイノベーシ

                                                                          ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                                        • AIイラストのLoRA学習におすすめなグラボを検証【Stable Diffusion】 | ちもろぐ

                                                                          無料で使えるAIイラスト「Stable Diffusion」で、推しのキャラクターや癖に刺さるシチュエーションを狙って生成するには「LoRA」の作成が必要です。 LoRA作成は「学習」と呼ばれ、イラストの生成よりもVRAMの使用量が増えます。必要なVRAMが増えるとLoRA作成に適したグラフィックボードはハイエンドに偏りそうですが、実際はどうなのか?

                                                                            AIイラストのLoRA学習におすすめなグラボを検証【Stable Diffusion】 | ちもろぐ
                                                                          • ChatGPTはどのようなシチュエーションで使えるか 活用シーンと正しい答えが出やすくなる命令のやり方を解説

                                                                            システムから言語モデルがどのように使えるか、その時どういうことに気をつける必要があるかを考える「『ChatGPTなどの言語モデルはどのようにシステムで使えるか』きしだなおき氏」。ここで、LINE Fukuoka株式会社のきしだなおき氏が登壇。まずは、ChatGPTの概要と、人間がどう使うかについて話します。 きしだ氏の自己紹介 きしだなおき氏:今日は「ChatGPT」などの言語モデルがどのようにシステムで使えるかという話を、概要レベルでやりたいと思います。まだ細かい知見は溜まっていない……。たぶん世界中でまだ知見が溜まっていないので、今は知見を溜めていくところだという話をしたいと思っています。 まず自己紹介です。LINE Fukuokaで働いています。役職的にはDeveloper Relationsなので、別に仕事でLLMを触っているわけではないです。Twitter(現X)は@kis(とい

                                                                              ChatGPTはどのようなシチュエーションで使えるか 活用シーンと正しい答えが出やすくなる命令のやり方を解説
                                                                            • NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に | テクノエッジ TechnoEdge

                                                                              米ロサンジェルスで開催中のコンピュータグラフィックス国際会議SIGGRAPH 2023で8月8日、NVIDIAのジェンスン・ファンCEOが基調講演を行いました。新しいGPUアーキテクチャの発表こそなかったものの、いくつかの重要なアナウンスがありました。 その一つが、Hugging Faceとの提携。 Hugging Faceといえば、画像生成AIから大規模言語モデル(LLM)まで、さまざまなAIモデルのリポジトリとして使われている、生成AIに関わっている人なら必ずお世話になっているサービスです。 NVIDIAはこの発表を、「NVIDIAとHuggung Faceはパートナーシップを結び、生成AIスーパーコンピューティングを数百万もの開発者に提供し、LLMをはじめとする先進のAIアプリケーション開発に資する」と説明しています。 具体的には、NVIDIAのクラウドAIスーパーコンピューティング

                                                                                NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に | テクノエッジ TechnoEdge
                                                                              • 特徴量エンジンKaskada利用イメージ: 機械学習モデルのトレーニング - Qiita

                                                                                from kaskada.api.session import LocalBuilder session = LocalBuilder().build() %load_ext fenlmagic サンプルデータセットの構築 この例では、ゲームプレイヤーの行動に関するイベントを扱います。 イベントには、ユーザーが勝った、負けた、そして物の購入の3種類があります。 イベントは 2 つの CSV ファイルに保存されているものとします(ここではテストデータの作成をJupyterノートブック上で行います)。 game_play.csvには、プレイヤーが行ったゲームの勝敗に関するイベント情報が含まれています。 %%writefile game_play.csv event_at,entity_id,duration,won 2022-01-01 02:30:00+00:00,Alice,10,true

                                                                                  特徴量エンジンKaskada利用イメージ: 機械学習モデルのトレーニング - Qiita
                                                                                • NVIDIA、生成AIモデルをPCやワークステーションで構築するための「AI Workbench」を近日リリース

                                                                                  米NVIDIAは8月8日(現地時間)、生成AIモデル構築のための新たな統合ツールキット「AI Workbench」を発表した。生成AIモデルをPCやワークステーション上で構築、テスト、カスタマイズできるように設計されている。必要であればそれをデータセンターやクラウドに拡張可能だ。 現在、多数の事前トレーニング済みモデルが利用可能になっているが、それを複数のオンラインリポジトリを横断して探し回り、適切なフレームワークやツールを探すのが大きな負担になっているとNVIDIAは説明する。 AI Workbenchはローカルシステム上で実行できる簡素化されたツールを介してモデルにアクセスできるため、こうした負担を軽減できるとしている。 開発者は、Hugging Face、GitHub、NVIDIA NGCなどの一般的なリポジトリのモデルをカスタマイズでき、モデルは複数のプラットフォーム間で共有できる

                                                                                    NVIDIA、生成AIモデルをPCやワークステーションで構築するための「AI Workbench」を近日リリース