並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 643件

新着順 人気順

モデルの検索結果281 - 320 件 / 643件

  • KPIは「シンプルに作る・王道なモデルを使う・みんなで作る」のが良い|Masaya Hirano

    - このnoteは「モバイルアプリマーケティングアドベントカレンダー2021」の7日目の投稿です! - 面白かったら是非ハッシュタグ「#アプリマーケアドベント 」を付けてシェアをお願いします! はじめにこんにちは。Retty分析MGRの平野です。 今回はKPIについての記事です。 良いKPIの作り方に関しては既に語り語り尽くされている領域だと思うものの、失敗エピソードはあまり語られていない気がします。 また、KPI設計と言っても、組織・事業のフェーズによって難しさが変わると思っていて、良いKPIを作り続けるのは難しいと感じています。 そこで、この記事では過去のKPI設計の失敗事例をベースに学びを紹介したいと思います。 記事の三行まとめ・KPI設計の失敗事例として「複雑にし過ぎる」「モデルを発明」「ステークホルダーと一緒に作らない」を述べた。 ・失敗からの学びとして「シンプルに作る」「王道を

      KPIは「シンプルに作る・王道なモデルを使う・みんなで作る」のが良い|Masaya Hirano
    • LINE が公開した日本語言語モデルをM2 Macbook Airで動かす

      これはなに? LINE が公開した日本語言語モデルをローカルで動かしたいけど、GPUがなくて動かなくて悲しかったのです。でも、huggingface に良い変換モデルを公開されてる方がいらして、それを試したら、いい感じで動きました。というご報告です。やったね! 結論: 動かす手順 homebrew で cmake をインストール mmngaさんが公開されている ggml 変換版の readme に従ってターミナルで以下を実行 git clone https://github.com/ggerganov/ggml.git cd ggml mkdir build && cd build cmake .. make -j mmngaさんが公開されているggml 変換版のモデルをダウンロード 保存先は 2. で mkdir した build ディレクトリに。 以下のコマンドで推論を実行 ./bin

        LINE が公開した日本語言語モデルをM2 Macbook Airで動かす
      • 佐藤彰洋氏(横浜市立大学)の新型コロナ感染予測シミュレーションに関する疑義について | 2020年4月9日 | 本堂 毅、佐野雅己、松下 貢 | Sano-Labo

        This webpage was generated by the domain owner using Sedo Domain Parking. Disclaimer: Sedo maintains no relationship with third party advertisers. Reference to any specific service or trade mark is not controlled by Sedo nor does it constitute or imply its association, endorsement or recommendation.

        • https://twitter.com/djrio_vr/status/1516235833548111872

            https://twitter.com/djrio_vr/status/1516235833548111872
          • やる気が出ないを分析。小学生も大人もハマる勉強法:書評 | ライフハッカー・ジャパン

            疲れやすい、呼吸の浅さを改善。ストレッチポールは毎日使いたいほど気持ちがいい!【今日のライフハックツール】

              やる気が出ないを分析。小学生も大人もハマる勉強法:書評 | ライフハッカー・ジャパン
            • ベイズ統計モデリングを使って藤井聡太と全盛期の羽生善治を比べてみた② - ベストモデル

              はじめに 前回は年齢による実力の変化を考えずに各騎士の実力を評価しました。年齢による実力の衰えは明白であるため、このモデルで異なる世代の棋士の比較は正当ではありませんでした。 その後、インターネットで検索をすると、統計モデリングでの棋士の順位付けをしている記事がいくつかありました。[1][2] また、stanの書籍にも同様な手法が載ってます。[3] しかし、年齢効果による実力の変化を取り入れたモデルはまだないようですので、次はこの変化をモデル化して、世代をまたいで実力を比較できるモデルを構築してみます。一見、実力をローカルレベルモデル等のノイズ入り時系列モデルで表すことが出来そうですが、それだけでは新しい世代が有利なモデルのままになります。年齢による実力の増減を別個に取り入れる必要があります。 データ 用いるデータは、前回の記事「ベイズ統計モデリングを使って、藤井聡太と全盛期の羽生善治を比

                ベイズ統計モデリングを使って藤井聡太と全盛期の羽生善治を比べてみた② - ベストモデル
              • 機械学習とHuman-in-the-Loopで優勝する違反検知の話 | メルカリエンジニアリング

                こんにちは。AIチーム所属ソフトウェアエンジニアの@shidoです。 機械学習は様々なサービスの中で強力な武器となりますが、データパイプラインの構築や学習のための計算リソースの確保など、リーズナブルにシステムに組み込むには機械学習特有の困難を克服しなければなりません。 またその困難は機械学習の応用先によっても様々だと思っています。今回の記事ではデータパイプラインの構築に「Human-in-the-Loop (HITL)」と呼ばれる機構を違反出品検知のための機械学習システムへ取り入れた実例と、この仕組みについての考察をお話します。 もくじ 違反出品検知システムについて メルカリの安心・安全・公正な取引環境への取り組み ポリシーの変更について 不正取引の潮流の変化について 機械学習システムによる違反出品の検知 機械学習による違反出品検知の強みと課題 継続的なモデルアップデートの重要性 Huma

                  機械学習とHuman-in-the-Loopで優勝する違反検知の話 | メルカリエンジニアリング
                • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge

                  https://www.techno-edge.net/special/560/recent/%E7%94%9F%E6%88%90AI%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%92%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%AB%E3%83%A1%E3%83%A9%E3%83%9E%E3%83%B3%E3%81%8C%E4%BD%9C%E3%82%8B%E3%81%A8%E3%81%A9%E3%81%86%E3%81%AA%E3%82%8B%EF%BC%9F続きを読む » Modelに無い顔や彼女の顔を出したい!生成AIでポートレート写真やグラビアを作っていると、同じような雰囲気の顔ばかりが結構出るのに気付く。 もちろん何パターンもあるので、毎回同じでもないのだが、XやInstagramなどの生成AI画像

                    生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge
                  • Meta、テキストプロンプトで作曲できる生成AIスイート「AudioCraft」をオープンソース化

                    米Metaは8月2日(現地時間)、テキストプロンプトから音楽や音声を生成する生成AIツールスイート「AudioCraft」をオープンソース化したと発表した。トレーニングに使うデータの多様化もオープンソース化のねらいの1つだ。 AudioCraftは、エフェクトやサウンドスケープを生成する「AudioGen」、テキストからメロディーを生成する「MusicGen」、ニューラルネットワークベースのオーディオ圧縮コーデックの「EnCodec」の3つのコンポーネントで構成されている。MusicGenは単体で6月にオープンソース化されている。EnCodecは昨年11月に公開済みだが、最近の改良でより高品質な音楽生成が可能になったという。 MusicGenは、Metaが所有する音楽と、「この目的のために特別にライセンスを取得した音楽」をあわせて2万時間分のデータでトレーニングしたとしている。 Metaは

                      Meta、テキストプロンプトで作曲できる生成AIスイート「AudioCraft」をオープンソース化
                    • [ここまで進化したChagGPT!] 今日から何がどう変わるのか [2023年11月最新版] - Qiita

                      皆さん初めましてこんにちはこんばんは。スウェーデン在住のエンジニア、Harry(ハリー: https://twitter.com/harrythecode )と申します。 普段はDevOpsエンジニアとして働く傍ら、生成AIの最前線にも繰り出し、ToBやToC向けのアプリケーション開発などにフルスタックエンジニアとして携わっています。 2023年11月7日 日本時間午前3時より、ChatGPTの生みの親、OpenAI社のサム・オルトマンによる講演が行われました。 この中で、多くの人が待ち望んだ様々な機能の実装や改善が行われています。 読むのが辛いよ、って方は以下の一言まとめをどうぞ。 また今回の発表によって何が新しくなって、今後どう変わっていくのか、を現役エンジニア目線でご紹介します。では見ていきましょう。 何が新しいん? GPT-4 Turboの発表: コンテキスト長の拡張: 128,0

                        [ここまで進化したChagGPT!] 今日から何がどう変わるのか [2023年11月最新版] - Qiita
                      • dbtを使ったELTデータパイプライン構築と運用事例 - DataEngineeringStudy #13

                        DataEngineeringStudy #13に10Xの瀧本が登壇した際の資料です。

                          dbtを使ったELTデータパイプライン構築と運用事例 - DataEngineeringStudy #13
                        • モデルとは何であって、何でないのか #kichijojipm

                          吉祥寺pm#19 での LT 資料です。

                            モデルとは何であって、何でないのか #kichijojipm
                          • ブラウザ1つで独自の機械学習モデルを無料で作成できる「Nanonets」を使ってみた! - paiza times

                            どうも、まさとらん(@0310lan)です! 今回は、誰でも簡単にブラウザからオリジナルの機械学習モデルを作成・トレーニングすることができるサービスをご紹介します。 画像に写っているモノを特定したり、対象のオブジェクトを検出・抽出するなどさまざまな活用方法があり、トレーニングも数分で完成するので効率よくモデルを構築することができます。 また補足として、Airtableを活用した事例についても合わせて紹介しているので、ご興味ある方はぜひ参考にしてみてください! なお、paizaラーニングでも機械学習を学べる「Python×AI・機械学習入門編」を公開していますので、合わせてチェックしてみてください。 Python×AI・機械学習入門編について詳しくはこちら 【 Nanonets 】 ■「Nanonets」の使い方 それでは、最初にNanonetsをどのように使っていけば良いのかを見ていきまし

                              ブラウザ1つで独自の機械学習モデルを無料で作成できる「Nanonets」を使ってみた! - paiza times
                            • 時系列予測のベストプラクティスを共有するGitHubリポジトリを開設、Microsoft

                              時系列予測のベストプラクティスを共有するGitHubリポジトリを開設、Microsoft:PythonやR向け Microsoftは、時系列予測のベストプラクティスを共有するためのGitHubリポジトリを開設した。PythonやRを使っている開発者に向けたものだ。 Microsoftの「R」コミュニティー向けブログサイト「Revolutions」は、2020年4月14日(米国時間)、時系列予測のベストプラクティスを共有するためのGitHubリポジトリ「Time Series Forecasting Best Practices & Examples」を開設したと発表した。 Microsoftはこのリポジトリについて、README.mdで次のように説明している。 「時系列予測は、データサイエンスで最も重要なトピックの一つだ。的確な意思決定と効果的な資源配分を行うために、ほぼ全ての企業には未来

                                時系列予測のベストプラクティスを共有するGitHubリポジトリを開設、Microsoft
                              • 日本語大規模言語モデル「Japanese Stable LM Beta」シリーズをリリースしました — Stability AI Japan

                                Stability AI Japan は、オープンな日本語大規模言語モデルの中で最高性能*のものを含む「Japanese Stable LM Beta (JSLM Beta)」シリーズをリリースしました。 各モデルは Llama-2 をベースとしており、追加の学習を行うことで日本語の能力や日本に関する知識等を追加し、日本における用途に特化させています。特に、最大サイズの指示応答言語モデルである JSLM Beta 70B は、700億パラメータの商用利用可能な日本語言語モデルです。2023年11月現在、我々の知る限りでは最大規模のオープンな日本語特化言語モデルとなります。 *注:性能の評価方法は後述 "A cute robot wearing a kimono writes calligraphy with one single brush" — Stable Diffusion XL (

                                  日本語大規模言語モデル「Japanese Stable LM Beta」シリーズをリリースしました — Stability AI Japan
                                • 【自然言語処理】Python初心者でも文章要約タスクが実装できた

                                  はじめに わたくし、Python歴1年の初心者ですが、このたび、苦労に苦労を重ねて、自然言語処理タスクの文章要約を実装できました。 自然言語処理に興味のあるPython初心者のお役に立てればと、記事に残したいと思います。 実装にあたっては、ネットの記事も手あたり次第調べましたが、最終的には、以下の本が大変参考になりました。 ただし、バージョンの変更により、この本の通りに実装しても、2022年8月時点ではエラーになる箇所があります。出版社経由で著者の方にお聞きして一部コードを修正したほか、自分なりに工夫をして実装しました。 モデルについて Huggingface社が提供している深層学習フレームワークのTransformersを使います。 transformersにはBERTをはじめとするさまざまな言語モデルが実装されていますが、今回のタスクでは、T5というモデルをファインチューニングして使い

                                    【自然言語処理】Python初心者でも文章要約タスクが実装できた
                                  • 使える統計モデル10選(後編) | AIdrops

                                    使える統計モデル10選(後編) 前回の記事では、使える統計モデル10選の前編として、主に回帰モデルに焦点を絞って紹介しました。 今回はその後編に当たる生成モデル編です。生成モデル(generative model)は、端的に言うと、コンピュータシミュレーションによりデータを人工的に作ることができるモデルです。データが作られる過程をうまく表現したモデルを構築することができれば、予測だけではなく異常検知やデータ圧縮など幅広いタスクに応用することができます。 生成系(教師なし系) 回帰モデルと同様、生成モデルも数個のパラメータから構成される簡単なものから、複数のモデルを巧みに組み合わせた複雑なものまで無限に存在します。ここでは、データ圧縮から自然言語処理、ソーシャルネット解析までさまざまなデータ解析のタスクで利用されている代表的な生成モデルを5つ選んで紹介します。また、生成モデルのすべては潜在変

                                      使える統計モデル10選(後編) | AIdrops
                                    • AIで画像とテキストから3Dモデルを生成「Atlas」。アセットを数秒で作成可能

                                        AIで画像とテキストから3Dモデルを生成「Atlas」。アセットを数秒で作成可能
                                      • 機械学習で入ってはいけないデータが混入する「リーケージ」とその対策

                                        機械学習で入ってはいけないデータが混入する「リーケージ」とその対策:もう失敗しない!製造業向け機械学習Tips(1)(1/2 ページ) 製造業が機械学習で間違いやすいポイントと、その回避の仕方、データ解釈の方法のコツなどについて、広く知見を共有することを目指す本連載。第1回では「リーケージ」について取り上げる。 ⇒連載「もう失敗しない!製造業向け機械学習Tips」バックナンバー 筆者はデータサイエンティストとして、機械学習自動化プラットフォーム「DataRobot」の導入サポートをさまざまな製造業のクライアントに提供してきました。本連載では、その経験に基づいてお話させていただきます。 機械学習が使われる製造業特有の分野は、物性予測、工程管理、予防保全、故障予測、要因分析など多岐にわたります。しかし筆者は、それらの多くで同様のミスが繰り返されていることに気が付きました。これらの間違うポイント

                                          機械学習で入ってはいけないデータが混入する「リーケージ」とその対策
                                        • 鬼滅の概念モデリング - Qiita

                                          はじめに 概念モデリングとは、システムのドメインを構成する概念を発見しその属性・振る舞い・関連を定義する活動である。例えば、段階的に理解する O/R マッピングで実例として挙げたシンプルな課題管理システムにはプロジェクト・課題・コメントの 3 概念が登場するが、これらを概念モデルとして表すと以下のようになる。 本来、概念モデリングは DDD の主要な活動の一つである。DDD の Whirlpool プロセスの図を見てみよう。Model は Code Probe と Scenario に挟まれた中心概念であり、常時フィードバックを受けて更新されることが想定されている。 にもかかわらず、日本での DDD 関連の議論においては、概念モデリングが語られることは少なく、レイヤ分割やクラス類型といったアーキテクチャ的側面への偏りが見られる。パターンカタログを眺めればわかる通り、それらの要素は DDD

                                            鬼滅の概念モデリング - Qiita
                                          • 大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development

                                            本記事は、2023年夏季インターンシッププログラムで勤務された竹田悠哉さんによる寄稿です。 はじめに 2023年度のPFN夏季インターンに参加した、東京大学大学院工学系研究科の竹田悠哉と申します。学部では画像生成の研究をしていましたが、技術の社会実装をより俯瞰的に学びたいと思い、現在は技術経営戦略学専攻で教育工学の研究をしています。 インターンでは「機械学習技術の社会実装」をテーマに、LLM(Large Language Model)にドメイン知識を習得させることに取り組みました。様々な設定において、主に英語で学習されたモデルであるLLaMA2に対して日本語のデータでのFine-tuningを行い、LoRAやInstruction Tuning、ドメイン知識の習得に関する知見を得ることができたと思います。本記事では、そこで利用した技術の紹介と、日本語におけるドメイン知識の習得に関する実験、

                                              大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development
                                            • 【西川和久の不定期コラム】 自分で撮影したグラビアを使い、Stable Diffusion用美女モデルを作成してみた

                                                【西川和久の不定期コラム】 自分で撮影したグラビアを使い、Stable Diffusion用美女モデルを作成してみた
                                              • Laboro.AI、日本語版「BERT」モデルを開発--オープンソースで公開

                                                印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます オーダーメイドのAI(人工知能)を開発・提供するLaboro.AIは4月17日、自然言語処理モデル「BERT(Bidirectional Encoder Representations from Transformers)」を独自に事前学習させた日本語版モデル「Laboro.AI BERTモデル」を開発し、オープンソースとして公開したと発表した。 自然言語処理は、機械学習の技術領域の一つである。人が日常的に使用する言葉や文字など、テキスト情報をAIに処理させる分野になる。手書き文字の読み取りを行うOCR(光学文字認識)やテキストで会話するチャットボットのほか、スマートスピーカーにも技術が活用されている。 BERTは、2018年10月にG

                                                  Laboro.AI、日本語版「BERT」モデルを開発--オープンソースで公開
                                                • 最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk

                                                  今回は、最新の Google Gemma モデルを Apple Silicon に最適化されたライブラリ MLX を使ってローカルで実行したり、ファインチューニングしてみましたのでその手順を紹介します。 MLX 関連の情報はドキュメンテーションが分かりづらいものも多かったので色々試した経緯も共有しながら少しでも何かの参考になれば幸いです。 実際に使った Jupyter Notebook を Gist にアップロードしていますので、そちらも参考にしてください。 →Google Gemma モデルを MLX を使ってローカルでファインチューニング 事前準備必要なライブラリをインストールします。 また Apple Silicon 搭載の Mac が必要です。今回は M3 Max 128GB 搭載の MacBook Pro で実行しました。 !pip install -U mlx mlx_lm t

                                                    最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk
                                                  • 放課後ていぼう日誌実写 | 芦北町観光協会

                                                    TVアニメ「放課後ていぼう日誌」 小坂泰之氏の原作「放課後ていぼう日誌」(「ヤングチャンピオン烈」(秋田書店))をアニメ化したもので、2020年から放送された人気アニメです。 ※注意:個人所有の敷地内や学校への立ち入りや撮影はご遠慮ください。 【あらすじ】 都会から引っ越してきた高校1年生の鶴木陽渚が、ひょんなことから海釣りなどを楽しむ部活「ていぼう部」に入部することになり、同級生の帆高夏海や先輩の黒岩悠希・大野真と共に釣りの楽しさにハマっていく様子が描かれています。 【舞台モデルの紹介】 芦北町が作品舞台のモデルとなっているTVアニメ「放課後ていぼう日誌」には、芦北町 内の多くの場所や施設がモデルとなりアニメに登場しています。ここでは主な舞台をアニ メシーンのカットとともに紹介します。 ①芦北大橋【1話】 田舎に引っ越してきた主人公・鶴木陽渚が海沿いの道を歩くシーンに登場する「芦北大橋」

                                                    • ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編

                                                      はじめに こんにちは。ELYZAの研究開発チームの佐々木 (@hikomimo)、中村 (@tyo_yo_)、堀江 (@eemon18)、平川 (@h__must__) です。 先日弊社株式会社ELYZAでは以下のようなリリースをさせていただきました。 Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 上記のリリースには、Metaの「Llama 2」をベースとした以下のモデルが含まれます。 日本語追加事前学習済みモデル ELYZA-japanese-Llama-2-7b ELYZA-japanese-Llama-2-7b-fast 上記の事前学習済みモデルに事後学習 (instruction tuning) を実施したモデル ELYZA-japanese-Llama-2-7b-instruct (デモ)

                                                        ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編
                                                      • パラメータ数を激減させる新しい畳み込み「MixConv」解説!

                                                        3つの要点 その1  パラメータ数を激減させる新しい畳み込みMixConvを提案 その2  MixConv層を含んだモデルをAIに自動生成(=NAS)させることでMixNetを開発 その3  MixNetはMobileNet-V3やMnasNetなどの小型画像認識モデルのみならずResNet-153に対してはパラメータ数1/9程度で性能を凌いだ MixConv: Mixed Depthwise Convolutional Kernels written by Mingxing Tan, Quoc V. Le (Submitted on 22 Jul 2019 (v1), last revised 1 Dec 2019 (this version, v3)) Journal reference: BMVC 2019 Subjects: Computer Vision and Pattern

                                                          パラメータ数を激減させる新しい畳み込み「MixConv」解説!
                                                        • NII、130億パラメータのLLM構築 コーパスなども全公開 「今後の研究に資するため」

                                                          国立情報学研究所(NII)は10月20日、パラメータ数130億の大規模言語モデル(LLM)「LLM-jp-13B」を公開した。初期段階のモデルだが、アカデミアや産業界の研究開発に資するため、コーパスやツールなどを含めてすべてオープンにする。 公開したLLMの学習データ量は合計約3000億トークン。うち日本語は約1450億トークン(mC4/Wikipedia)、英語は約1450億トークン(The Pile/Wikipedia)、プログラムコード約100億トークン。 計算資源としては、大学や研究機関が共同運営する仮想化環境・データ活用社会創成プラットフォーム「mdx」を12ノード活用。モデル構築にはMicrosoftのDeepSpeedを、モデル構築時の監視やログの保存には、モデル開発プラットフォームのWeights&Biasesを利用した。 NIIが主宰するLLM勉強会(LLM-jp)で7月

                                                            NII、130億パラメータのLLM構築 コーパスなども全公開 「今後の研究に資するため」
                                                          • 1枚の画像から3Dモデルを生成できる「TripoSR」をローカルに構築する方法を解説【Blender ウォッチング】

                                                              1枚の画像から3Dモデルを生成できる「TripoSR」をローカルに構築する方法を解説【Blender ウォッチング】
                                                            • データサイエンスによる日韓のコロナ対策比較|筆の滑り

                                                              振り返りまとめを書きました。まずそちらをご覧ください。 ベイジアンモデリングという手法を使って日本と韓国のコロナ対策の有効性を考えます。 SIRDモデルまず背景にある数学的モデルを説明します。理論的な話に興味のない方は飛ばしてください。 ベースになっているのはよく知られているSIRDモデル(susceptible, infected, recovered and death model)です。これはこのように考えます。S[t]を時点tで未感染の人の数、I[t]を今感染している人の数(アクティブ)、R[t]を回復した人、D[t]を死亡した人の数とします。感染している人は各時点である確率βで未感染の人に病気をうつします。今感染している人はある確率aで回復し、確率dで死亡します。一旦回復すると免疫がついてもう病気にはかからなくなります。これを式にまとめてみましょう。Pは人口です。 新型コロナウイ

                                                                データサイエンスによる日韓のコロナ対策比較|筆の滑り
                                                              • ディープラーニングのモデリングの経験則を語る会についての有識者からの反応まとめ

                                                                かまろ/Camaro @mlaass1 ディープラーニングのモデリングの経験則を語る会をやってみたい。理論的な背景は不要(あってもいい)で、こういうときはこうする、こういうデータにはこうすると上手くいく、初手はいつもこれ、などのヒューリスティックを無責任に語る会。 2020-08-03 12:23:09 かまろ/Camaro @mlaass1 画像だとデータの特徴と合わせてこの辺り話してみたい。 ・image sizeとmodelの大きさ ・batch sizeの決め方とBatch norm ・fp16使うか ・デバイス(GPU/TPU)の違い ・間違いないaugmentation ・間違いないscheduling ・frameworkの違い(tf/pytorch) ・lossの選び方 ・optimizerの違い ・headの設計方法 2020-08-03 12:46:04 かまろ/Cam

                                                                  ディープラーニングのモデリングの経験則を語る会についての有識者からの反応まとめ
                                                                • 【随時更新】主要な大規模言語モデル比較表

                                                                  これはなに? ひょんなことからOpenAI・Anthropic・GoogleのLLMの一覧表を作りました 手前味噌ながら便利だなと思ったのでZennにも載せておきます 各社のモデルの主要諸元・費用に加えて、自分の印象を書いてあります。 性能の目安としてChatbot Arenaのスコアを参考までに添付しています これはあくまで参考用かつ英語での評価なので、スコアが一番高いものがいい、もしくは低いからダメというわけではありません。 少なくともこの記事に掲載されているモデルは、スコアが低いものでも単純な翻訳などでは十分な性能を持っています。そして何より高性能モデルとは比較にならないほど高速です。 用途や使用言語によって試してみて最適なものを選ぶのが良いでしょう OpenAI 歴史的経緯もあり、以下の表に掲載するもの以外にも大量のモデルがあります。 一旦は最新のモデルを列挙します。 モデル名 A

                                                                    【随時更新】主要な大規模言語モデル比較表
                                                                  • Googleの無料サービスTeachable Machineで画像認識モデルを作成してみた | Ledge.ai

                                                                    「Teachable Machine」はGoogleが提供する、簡単に機械学習のモデルを作成できるサービスです。Teachable Machineでは「画像プロジェクト」「音声プロジェクト」「ポーズプロジェクト」の3種類のモデルが作成可能ですが、今回は「画像プロジェクト」を作成します。 まずはTeachable Machineにアクセスします。 「使ってみる」をクリックします。 「画像プロジェクト」を選択します。 「標準の画像モデル」を選択します。 「Class1」と「Class2」にそれぞれ犬と猫の画像を10枚ずつアップロードします。 アップロードができたら、「モデルをトレーニングする」をクリックします。 学習が完了したら、「Webcam」の部分を「ファイル」に変更し、学習時に使わなかった画像をアップロードします。 無事、予測ができました。 最後に今回はTeachable Machine

                                                                      Googleの無料サービスTeachable Machineで画像認識モデルを作成してみた | Ledge.ai
                                                                    • アパレル業界がざわつく! 本物みたいな「AIモデル」ができること

                                                                      従来のモデル撮影は、モデル、カメラマン、アシスタント、スタイリスト、ヘアメイクなど多くの人手が必要になり、コストや時間がかかってしまう。加えて、既存モデルでは独自の世界観を表現しづらい点も悩みといえる。 同サービスを手掛けるAI model(AIモデル)社の谷口大季CEOは、「アパレルにおけるモデル撮影の負荷を軽減し、新たな価値を創出したい」と創業の目的を語る。AIモデルが広がれば、アパレル業界はどのように変化するのか。 関連記事 「サクマ式ドロップス」製造元が廃業に追い込まれた、これだけの理由 「サクマ式ドロップス」を製造する佐久間製菓が2023年1月に廃業する。廃業の理由として、同社は「コロナ」と「原材料高騰」の2つを挙げているが、本当にそうなのか。筆者は違った見方をしていて……。 「マルチ商法の優等生」アムウェイは、なぜこのタイミングで“お灸”を据えられたのか 日本アムウェイ合同会社

                                                                        アパレル業界がざわつく! 本物みたいな「AIモデル」ができること
                                                                      • 「今日好き」現役高校生カップル・しゅんまや(前田俊&重川茉弥)、結婚と妊娠を発表 現在8ヶ月目<コメント全文> - モデルプレス

                                                                        「今日好き」現役高校生カップル・しゅんまや(前田俊&重川茉弥)、結婚と妊娠を発表 現在8ヶ月目<コメント全文> ABEMAオリジナル恋愛リアリティーショー『今日、好きになりました。』(毎週月曜夜10時から放送/通称『今日好き』)のハワイ編に出演し、カップル成立した前田俊(まえだ・しゅん/17)と重川茉弥(しげかわ・まや/16)の“しゅんまや”カップルが6月に結婚することとまやの妊娠を発表した。

                                                                          「今日好き」現役高校生カップル・しゅんまや(前田俊&重川茉弥)、結婚と妊娠を発表 現在8ヶ月目<コメント全文> - モデルプレス
                                                                        • stablediffusion WebUI モデル一覧

                                                                          stablediffusion WebUI モデル一覧         共有ログインお使いのブラウザのバージョンはサポートが終了しました。 サポートされているブラウザにアップグレードしてください。閉じる ファイル編集表示ツールヘルプユーザー補助機能デバッグ

                                                                            stablediffusion WebUI モデル一覧
                                                                          • 「生成AIのハイプ・サイクル」2023年版をガートナーが公開 LLMやプロンプトエンジニアリングは「過度な期待のピーク」に

                                                                            ガートナージャパンは10月12日、「生成AIのハイプ・サイクル」2023年版を公開した。大規模言語モデル(LLM)やプロンプトエンジニアリングといった技術は「過度な期待のピーク」にあると指摘。一方でオープンソースのLLMやマルチモーダル(画像や言語など複数の入力ソースを扱える)な生成AIなどは黎明期にあるとした。 中でも「生成AIに対応したアプリケーション」や、大量のデータでトレーニングし、さまざまなタスクに適応可能な「ファウンデーション・モデル」(基盤モデル)、AIの信頼性を高めリスクに対応する取り組み「AI TRiSM」については「10年以内に組織に大きなインパクトを及ぼすと予測される」(同社)とコメント。 ファウンデーション・モデルとAI TRiSMについては普及のめども示した。前者は「2027年までに、ファウンデーション・モデルは自然言語処理 (NLP)のユースケースの60%を支え

                                                                              「生成AIのハイプ・サイクル」2023年版をガートナーが公開 LLMやプロンプトエンジニアリングは「過度な期待のピーク」に
                                                                            • 確率予測とCalibrationについて - 機械学習 Memo φ(・ω・ )

                                                                              概要 確率予測とCalibration(キャリブレーション)に関する勉強会に参加したので、学んだことの一部と、自分で調べてみたことについてまとめました。 概要 Calibrationとは Calibration Curve Calibrationの方法 Sigmoid / Platt Scale Isotonic Regression 確率予測に使われる評価指標 Brier Score ECE コード 不均衡データに対するCalibration LightGBMにCalibrationは不要か NNにCalibrationは不要か 追記 : Calibrationの検討について 追記 : 発表スライドについて 終わり techplay.jp 勉強会で使われていた言葉を、自分なりの言い方に変えています。 間違いがありましたら、コメントいただけたら嬉しいです。 Calibrationとは 普通

                                                                                確率予測とCalibrationについて - 機械学習 Memo φ(・ω・ )
                                                                              • Googleが音声から「テキストと音声の両方」に翻訳できる大規模言語モデル「AudioPaLM」を発表

                                                                                Googleが「AudioPaLM」を発表しました。AudioPaLMはテキストベースの言語モデルである「PaLM 2」と音声ベースの言語モデルである「AudioLM」を統合したマルチモーダルアーキテクチャであり、テキストと音声を処理・生成し、音声認識や音声翻訳などのアプリケーションに利用できるとのことです。 [2306.12925] AudioPaLM: A Large Language Model That Can Speak and Listen https://doi.org/10.48550/arXiv.2306.12925 AudioPaLM https://google-research.github.io/seanet/audiopalm/examples/ AudioPaLMは、AudioLMから話す速さ、声の強さ、高さ、沈黙、イントネーションなどのパラ言語情報を保持する

                                                                                  Googleが音声から「テキストと音声の両方」に翻訳できる大規模言語モデル「AudioPaLM」を発表
                                                                                • 「富の不平等は必然的に生じる」と数理モデルで証明可能

                                                                                  By anankkml アメリカのタフツ大学経済学部のブルース・ボゴシアン教授が、経済そのものが持つ原理によって「貧富の差は必ず生じる」という事実や「現実の経済では何が起きているのか」という問題に関して、数理モデルを使ってわかりやすく解説しています。 Is Inequality Inevitable? - Scientific American https://www.scientificamerican.com/article/is-inequality-inevitable/ 何かを購入する際、運よくお得な値段で買えることもあれば、高値で買ってしまうこともあります。ボゴシアン教授の解説によると、「得」と「損」がある取引が無限回行われると、必ず富は1人に集中するとのこと。 By amenic181 ボゴシアン教授は、富が1人に集中することの証明に「ゲーム」を活用しています。例えば、コイン

                                                                                    「富の不平等は必然的に生じる」と数理モデルで証明可能