並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 82件

新着順 人気順

機械学習の検索結果41 - 80 件 / 82件

  • 新型 iPad Proを忘れて、純粋にSoCとしてのM4と「その先」について考えてみる(本田雅一) | テクノエッジ TechnoEdge

    実際、OLEDを採用したノートPCなどの評判をチェックしてみて欲しい。いずれも消費電力の大きさに悩まされている。 しかし、新型iPad Proが過去のアップル製品の中で最も薄い製品として 登場したことは、OLED採用において消費電力が問題にならなかったことを示す。 その理由となっているのがタンデムスタック構造のOLEDだ。 写真:iPod nanoより薄いM4 iPad Pro タンデムスタック構造は決して最新のアイデアではなく、以前からテレビ向けなどで試されてきた技術だ。 ただし、構造的には2枚のOLEDパネルが重ね合わされたようになっているため、2つのプレーンを同期させて駆動する特別なディスプレイ回路が必要となる。M4にはこの新しいディスプレイ回路が搭載されている。 写真:M4のディスプレイエンジンはタンデムOLEDをサポートする これによりアップルがXDRと呼ぶ拡張ダイナミックレンジ

      新型 iPad Proを忘れて、純粋にSoCとしてのM4と「その先」について考えてみる(本田雅一) | テクノエッジ TechnoEdge
    • プロンプトだけで一歩先へ:AI画像生成でセンスをみがこう【生成AIストリーム】

        プロンプトだけで一歩先へ:AI画像生成でセンスをみがこう【生成AIストリーム】
      • 【西川和久の不定期コラム】 自前でStable Diffusion用美女モデル作成の後日談。そしてVRAM 80GBのA100も使ってみた!

          【西川和久の不定期コラム】 自前でStable Diffusion用美女モデル作成の後日談。そしてVRAM 80GBのA100も使ってみた!
        • Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics

          皆さんこんにちは 機械学習チームYAMALEXの@tereka114です。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 日々、LLMが進化していて、画像が本職(のはず)の私ですら、ここ数年LLMの勉強をはじめています。 学習してモデル公開しましたといった記事はよく見ますが、今回は今、非常に注目されている日本に拠点があるAIスタートアップである「Sakana.ai」が公開した「Evolutionary Model Merge」を使う話をします。 Evolutionary Model Merge 「Evolutionary Model Merge」は「Sakana.ai」から発表された進化的モデルマージと呼ばれる技術です。 端的に言ってしまえば、複数のモデルを利用して新し

            Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics
          • ローカルLLM on iOS の現状まとめ

            2024年3月5日に開催されたイベントで発表した内容です。 スライドはこちら: またLTで全然時間が足りなかったので、イベント終了後にひとりで撮ったプレゼン動画がこちら: 以下、発表資料を記事として再構成したものになります。登壇後に調査した内容も追記しています。 「ローカルLLM on iOS」のデモ オンデバイスで [1]処理してます APIは叩いていません 倍速再生していません 8.6 tokens/sec iOSローカルでLLMを動かすメリット オフラインでも動く プライバシーが守られる(データがどこにもアップされない) どれだけ使っても無料 モバイル端末スタンドアローンで最先端の機能が動作することには常にロマンがある iOSでローカルLLMを動かす方法 大きく分けて2つ llama.cpp Core ML llama.cpp LLMが高速に動くランタイム C/C++製 Georgi

              ローカルLLM on iOS の現状まとめ
            • 競技としてのKaggle、役に立つKaggle

              Kaggle Masterが語るMachineLearning - TechLovers #1 https://sony.connpass.com/event/315090/ での登壇資料です。 コンペの流れとtips的な情報を主観強めで紹介しています。

                競技としてのKaggle、役に立つKaggle
              • ED法への生理学的な考察 - Qiita

                初めまして。普段は産婦人科医をしつつAIの医学応用に関する研究をしています。 Qiitaは見る専でしたが、以下のバズっている記事を拝見した時、生理学の神経構造の話をふと思い出したのでメモ代わりに記載しようと思います。 読みにくい部分があれば申し訳ありません。 とくに@pocokhc(ちぃがぅ)さんの記事のコード詳細と実験内容を見ていた時、実際の神経系の構造とあまりに似ていたことにびっくりしました。 まず、興奮性ニューロンと抑制性ニューロンの2種類から構成されるED法の構成ですが、これは実際の神経系でも同様の構造になっています。実際の神経はシナプスのつながりをニューロンと言います。信号を伝える側の興奮性シナプスに電気が走ると、電位依存性のカルシウムチャネルが開き、Caが放出されます。このCaの影響でシナプスの末端にある小さな袋から神経伝達物質(中枢神経系では主にグルタミン酸)が放出されます。

                  ED法への生理学的な考察 - Qiita
                • 『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ

                  グラフニューラルネットワーク (機械学習プロフェッショナルシリーズ) 作者:佐藤 竜馬講談社Amazon 講談社より『グラフニューラルネットワーク(機械学習プロフェッショナルシリーズ)』を上梓しました。 グラフニューラルネットワークはグラフデータのためのニューラルネットワークです。化合物やソーシャルネットワークのようなグラフデータの解析に使うことができます。また後で述べるように、テキストも画像もグラフなのでテキストや画像の分析にも使えますし、それらを組み合わせたマルチモーダルなデータにも適用できます。要は何にでも使うことができます。この汎用性がグラフニューラルネットワークの大きな強みです。 本稿ではグラフニューラルネットワークを学ぶモチベーションと、本書でこだわったポイントをご紹介します。 グラフニューラルネットワークは何にでも使える 付加情報をグラフとして表現できる グラフニューラルネッ

                    『グラフニューラルネットワーク』を上梓しました - ジョイジョイジョイ
                  • Megatron-LMとGKEで作るMixtral 8x7Bを語彙拡張継続事前学習 Part1 ~学習コードとモデルの先行公開~ - ABEJA Tech Blog

                    こんにちは!ABEJAでデータサイエンティストをしている大谷です。 ABEJAは国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が公募した「ポスト5G情報通信システム基盤強化研究開発事業/ポスト5G情報通信システムの開発」に当社提案の「LLMの社会実装に向けた特化型モデルの元となる汎化的LLM」が採択されたことを受け、LLMの事前学習を実施しました。 以降、本LLMプロジェクトをGENIAC(Generative AI Accelerator Challenge)と表記します。 開発内容は表題の通り、Mistral社のMIxtral 8x7Bをベースにした日本語の語彙拡張版継続事前学習です。弊社が調べた限り、Megatron-LMでMixtralモデルを継続事前学習するソースコードは2024年4月12日時点(執筆時)では存在していません。 GENIACの計算資源提供の

                      Megatron-LMとGKEで作るMixtral 8x7Bを語彙拡張継続事前学習 Part1 ~学習コードとモデルの先行公開~ - ABEJA Tech Blog
                    • Kaggleで学ぶ系列データのための深層学習モデリング

                      最近は画像コンペではモデリングの余地があまりないことが多いが、系列データのコンペはデファクトの(pretrain)モデルが確立しておらずモデリングで勝敗が分かれることが多い。ここで系列データとは、時系列データ、センサデータ、RNA等のシーケンスデータのようなデータを意図している。 このような背景のもと、これまでの系列データを扱ったKaggleコンペティションとその上位解法を振り返りながら、系列データの深層学習モデリングを俯瞰する。 紹介しているコンペ: - IceCube - Neutrinos in Deep Ice - Google - American Sign Language Fingerspelling Recognition - Stanford Ribonanza RNA Folding - HMS - Harmful Brain Activity Classifica

                        Kaggleで学ぶ系列データのための深層学習モデリング
                      • 「凄いドローンが出てきた、まさにゲームチェンジャーだ」--KDDIが「Skydio X10」にベタ惚れ、3桁億円を出資

                        「驚くべきドローン、まさにゲームチェンジャーだ」──。米国Skydio製のドローン「Skyido X10」について興奮気味に語るのは、KDDIで取締役執行役員常務 CDO 先端技術統括本部長 兼 先端技術企画本部長を務める松田浩路氏だ。 KDDIは5月13日、Skyido X10を開発する米Skydioとの資本業務提携を発表。同社に「三桁億円」(松田氏)を出資したという。今後はプライマリーパートナーとしてSkydio X10を国内販売するほか、Skydio製品の独占販売権を韓国、台湾、シンガポール、モンゴル、タイ、フィリピン、ベトナム、インドネシア、マレーシア、バングラデシュ、カンボジアにおいて獲得し、ドローン事業の海外展開も目指す。

                          「凄いドローンが出てきた、まさにゲームチェンジャーだ」--KDDIが「Skydio X10」にベタ惚れ、3桁億円を出資
                        • ローカルやOpenAIのモデルを使ってAIの力を借りながらメモを作成できるアプリ「Reor」を使ってみた

                          「Reor」はメモを書いている時に過去のメモの関連する部分が表示されたり、AIにメモの内容について質問したりできるメモ作成アプリです。AIモデルとしてOpenAIのモデルのほか、ローカルのモデルも利用可能とのことだったので、実際に使ってみました。 Reor https://www.reorproject.org/ Reorの公式サイトにアクセスし、「Downloads」をクリック。 「Download for Windows」をクリックします。 ダウンロードした実行ファイルをダブルクリック。 「詳細情報」をクリックします。 「実行」をクリック。 インストーラーが起動するので「次へ」をクリックします。 今回は特にインストール先を変更せず、そのまま「インストール」をクリックしました。 「Reorを実行」にチェックマークが入っているのを確認し、「完了」をクリック。 無事Reorが起動しました。初

                            ローカルやOpenAIのモデルを使ってAIの力を借りながらメモを作成できるアプリ「Reor」を使ってみた
                          • AI編集者とつくろう!わたしの現代新書|講談社 現代新書 創刊60周年

                            60周年を記念して制作したサコッシュ・冊子・卓上カレンダー・ステッカーのセットが、フォロー&ポストで10名様に当たる! 応募方法 講談社現代新書公式X(@gendai_shinsho)をフォローして、わたしの現代新書でつくったあなただけの本を、以下の2つのハッシュタグ #現代新書60周年キャンペーン#わたしの現代新書をつけてXにポストしよう!

                              AI編集者とつくろう!わたしの現代新書|講談社 現代新書 創刊60周年
                            • Raspberry Pi(ラズパイ)のローカル環境でLLMを動かす

                              ラズパイでLLM 普通にローカル動きました。Raspberry Pi 5です。DockerでOllamaを動かしています。簡単にメモします。 ラズパイのセットアップ 以下でラズパイの基本的なセットアップをします。 Dockerをセットアップします。 Ollamaセットアップ 続いてOllamaをセットアップします。ラズパイでDockerを使えば、以下コマンドを実行するだけでOllamaをインストールできます。 $ docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

                                Raspberry Pi(ラズパイ)のローカル環境でLLMを動かす
                              • 本家Examplesで知る、新たなニューラルネットワーク『KAN』の威力 - Qiita

                                文中の図は理がない限り、原論文あるいはドキュメントからの引用です。 KANってなに? KAN(Kolmogorov-Arnold Network) は2024年4月30日にプレプリント公開サイトarXivに投稿された論文 にて提案された従来のMLPとは異なる新たなニューラルネットワーク構造です。1 コルモゴロフ・アーノルド表現定理(Kolmogorov-Arnold representation theorem)に基づいて設計されており、非線形な活性化関数そのものを直接学習することから、パラメータ効率が良く、学習結果の解釈可能性が高いことが特徴です。 上の画像は$x, y$を入力として$\exp(\sin(\pi x)+y^2)$を正解として学習させるケースを示した図ですが、元の関数の関係性がそのまま活性化関数の形状として学習され現れていることが読み取れます。 コルモゴロフ・アーノルド表現

                                  本家Examplesで知る、新たなニューラルネットワーク『KAN』の威力 - Qiita
                                • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通

                                  PRESS RELEASE 2024年5月10日 東京工業大学 東北大学 富士通株式会社 理化学研究所 名古屋大学 株式会社サイバーエージェント Kotoba Technolgies Inc. スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed

                                    スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通
                                  • ED法と3値(+1,-1,0)のアイデアを元に新しい活性化関数(ExP2)を作ってGELU、ELUと性能比較してみた。MINIST精度 99.43%以上達成 - Qiita

                                    ED法と3値(+1,-1,0)のアイデアを元に新しい活性化関数(ExP2)を作ってGELU、ELUと性能比較してみた。MINIST精度 99.43%以上達成DeepLearningPyTorch活性化関数誤差逆伝播法ED法 追記 ELUとの比較を追加しました、金子さんのアイデアの凄さが明確に結果に出ています。 また最後にニューロンが正・負どちらに発火しているのか可視化したチャートも追加しました。 初めに 誤差逆伝播法を用いずに、興奮性・抑制性ニューロンの出力を調整することでニューラルネットワークの学習を進める金子さんの誤差拡散法はとても衝撃的でした。 しかし、誤差拡散法は現在広く使用されているニューラルネットワークのアーキテクチャとは互換性がないため、 今すでに利用されているニューラルネットワークに興奮性、抑制性ニューロンのアイデアを直接反映できません。 そのため、今の誤差逆伝播法の範囲内

                                      ED法と3値(+1,-1,0)のアイデアを元に新しい活性化関数(ExP2)を作ってGELU、ELUと性能比較してみた。MINIST精度 99.43%以上達成 - Qiita
                                    • 実例で紹介するRAG導入時の知見と精度向上の勘所

                                      2024/04/24に開催したセミナーで登壇した際に、使用した資料です https://dev.classmethod.jp/news/240424-ai-rag-webinar/

                                        実例で紹介するRAG導入時の知見と精度向上の勘所
                                      • Amazon Kendra の Custom Document Enrichment と Amazon Bedrock で画像検索に対応する - Taste of Tech Topics

                                        こんにちは、機械学習チーム YAMALEX の駿です。 YAMALEX は Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 皆さんは、「前のプレゼン資料に使った、犬の画像はどこいったかな?あの画像が欲しいので、探してくれないかな?」と無茶振りされたことはありませんか? そんな時でも、「舌を出して喜んでいる」と検索すれば画像がヒットし、こんな無茶振りにも応えることができるシステムを Amazon Kendra (以下、 Kendra )で構築しました。 舌を出して喜んでいる犬 ちょっと待って Kendra は機械学習を利用した検索サービスで、ウェブサイトや S3 に保存したドキュメントなどをもとに、適切な検索結果を返します。 しかし、 Kendra で検索できるのはテキストだけで、画像を S

                                          Amazon Kendra の Custom Document Enrichment と Amazon Bedrock で画像検索に対応する - Taste of Tech Topics
                                        • GNN の最新動向 (ICLR 2024) - ジョイジョイジョイ

                                          拙著『グラフニューラルネットワーク』が重版して第 3 刷となりました。皆さまありがとうございます! 拡散モデルと最適輸送でもやりましたが、漫画家さんやイラストレーターさんが重版したときに重版感謝の描き下ろしイラストを投稿しているのを見ていいなと思ったので、僕も専門書が重版したときに重版感謝の書き下ろし専門記事を投稿します。 本稿では、ICLR 2024(5/7 - 5/11 @ウィーン)で発表されたグラフニューラルネットワーク (GNN) 関連の研究動向を紹介します。 ICLR 2024 で発表された GNN 関連の論文は全部で 170 本です。凄まじい量ですね。ICLR 2024 では全て合わせて 2296 本の論文が採択されたので、7.4 パーセントが GNN 関連ということになります。この分量からも、GNN が活気ある研究対象であることが伺えます。 以下では、代表的なトピックについて

                                            GNN の最新動向 (ICLR 2024) - ジョイジョイジョイ
                                          • OpenAI、ChatGPTの望ましい動作を規定する「モデル仕様」を公開 | gihyo.jp

                                            OpenAI⁠⁠、ChatGPTの望ましい動作を規定する「モデル仕様」を公開 OpenAIは2024年5月8日、AIモデルの動作に関する議論を深めるため、OpenAI APIとChatGPTにおけるAIモデルの望ましい動作を規定する「モデル仕様(Model Spec⁠)⁠」の最初のドラフトを公開した。 Introducing the Model Spec | OpenAI To deepen the public conversation about how AI models should behave, we’re sharing our Model Spec — our approach to shaping desired model behavior. https://t.co/RJBRwrcTtQ — OpenAI (@OpenAI) May 8, 2024 モデル仕様は、望ま

                                              OpenAI、ChatGPTの望ましい動作を規定する「モデル仕様」を公開 | gihyo.jp
                                            • 【検閲なし】GPUで生成するローカルAIチャット環境と小説企画+執筆用ゴールシークプロンプトで叡智小説生成最強に見える|カガミカミ水鏡👯

                                              この記事では日本語小説に強いローカルLLM環境を簡単構築できるEasyLightChatAssistantの紹介と、論理破綻が少ない効率的な小説生成を促す(と個人的には思っている)AIチャット用プロンプトの公開をしていきます。このコンテンツは主に官能小説をベースに語りますので、年齢制限などお住まいの国家地域のレーティングに従ってお読みください。 どうもこんにちは、休日に「生成AIなんでも展示会」というイベントを知って寝てからいくかーと思って起きて行こうと思ったら当日参加不可イベントだったことを知ったカガミカミ水鏡です。そうよ鉄郎……私は計画性がない女…… ところでエロ小説が大好きな皆さん(直球)、カガミカミ水鏡さんという方はご存知ですか? 生成AIが頭角を表すはるか以前の2015年からpixivの片隅できしょいジャンルの小説を投稿してるエロSS書きです(猫耳の奴などは2011年にbbspi

                                                【検閲なし】GPUで生成するローカルAIチャット環境と小説企画+執筆用ゴールシークプロンプトで叡智小説生成最強に見える|カガミカミ水鏡👯
                                              • チェビシェフ距離(Chebyshev distance)/L∞ノルムとは?

                                                チェビシェフ距離(Chebyshev distance)/L∞ノルムとは?:AI・機械学習の用語辞典 用語「チェビシェフ距離」について説明。2点間の距離を計測する方法の一つで、2つの点座標(n次元)で「次元ごとの距離(=各成分の差)の絶対値」のうち「最大値」を距離として採用する計算方法を意味する。 連載目次 用語解説 数学/統計学/機械学習におけるチェビシェフ距離(Chebyshev distance、Chessboard distance:チェス盤距離)とは、2点間の距離を計測する際に、n次元ベクトルで表現されるそれらの点座標の次元ごとに距離(=成分間の差)の絶対値を求めて、その中の最大値を距離とする方法である。 チェビシェフ距離は、n次元のチェス盤の上をキング(駒)が移動する手数(=ステップ数)によく例えられる(図1)。キングは斜めにも真っ直ぐにも動けるため、例えば左下にあるx地点から

                                                  チェビシェフ距離(Chebyshev distance)/L∞ノルムとは?
                                                • 金子勇さんのED法の解説と弱点、行列積を使用した効率的な実装 - Qiita

                                                  はじめに 先日以下の記事が話題となり、とてもワクワクしたので自分も実装して色々実験してみました。 実装するうちに理解が深まったので一度、 誤差拡散法の元ネタ紹介から 数式の解説、 ED法の弱点、 行列計算を使用した実装と簡単なテスト結果、 実装上の工夫 までまとめてみたいと思います。 誤差拡散(Error Diffusion)法 もともとは画像の2値化において失われる情報を周囲のピクセルで補うことで、遠目に元の画像の濃淡が残っているように見せる技術(ハーフトーン処理の一種)です。 Error diffusion -Wikipedia(英語版) 左の画像をちょうど半分の明るさをしきい値として2値化すると中央の画像のようになりますが、誤差拡散法を適用すると2値化後も右の画像のようにある程度濃淡を保存・表現できます。 誤差拡散法(画像処理)のサンプルコード コメントアウト箇所はFloyd, St

                                                    金子勇さんのED法の解説と弱点、行列積を使用した効率的な実装 - Qiita
                                                  • KAN: Kolmogorov-Arnold Networks

                                                    Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes ("neurons"), KANs have learnable activation functions on edges ("weights"). KANs have no linear weights at all -- every weight parameter is replaced by a univariate function parametriz

                                                    • Introducing the Model Spec

                                                      To deepen the public conversation about how AI models should behave, we’re sharing the Model Spec, our approach to shaping desired model behavior. We are sharing a first draft of the Model Spec, a new document that specifies how we want our models to behave in the OpenAI API and ChatGPT. We’re doing this because we think it’s important for people to be able to understand and discuss the practical

                                                        Introducing the Model Spec
                                                      • RAGの評価をRagasを使ってやってみる - Re:ゼロから始めるML生活

                                                        この前はPhoenixを使ってRAGの実験管理をしてみました。 とはいうものの、Phoenixに事前定義された機能で評価をしただけなので、今回改めてRAGアプリケーションの精度評価について考えてみようと思います。 RAGの評価周りでよく知られたツールとしてRagasがありますが、今回はこちらを使いながら評価について勉強してみようと思います。 Ragas Ragasで用いる評価指標 基本的な評価指標 Faithfulness Answer relevancy Context recall, Context precision Context Relevancy Context entities recall やってみる 評価 今回使用したnotebook 参考文献 感想 Ragas この記事の本題であるRAGの評価について入っていきたいと思います。 github.com docs.ragas

                                                          RAGの評価をRagasを使ってやってみる - Re:ゼロから始めるML生活
                                                        • データ解析・機械学習を始める際のサンプル数の目安(あくまで目安!)

                                                          分子設計・材料設計・プロセス設計・プロセス管理において、分子記述子・実験条件・合成条件・製造条件・評価条件・プロセス条件・プロセス変数などの特徴量 x と分子・材料の物性・活性・特性や製品の品質などの目的変数 y との間で数理モデル y = f(x) を構築し、構築したモデルに x の値を入力して y の値を予測したり、y が目標値となる x の値を設計したりします。 データ解析・機械学習でモデルを構築し始める際のサンプル数の目安について、もちろんモデルを構築する時には、可能な限り多くのサンプルを用いることが望ましいです。多くのサンプルを用いることで、サンプルの変化に強い (例えばサンプルが一つ追加されたり一つ削除されたりしても結果の変わりにくい) 頑健なモデルを構築できる可能性が高まります。頑健なモデルにより、より妥当な x の設計やモデルの解釈が可能になります。 ただし、サンプルを集め

                                                            データ解析・機械学習を始める際のサンプル数の目安(あくまで目安!)
                                                          • 20分で分かる Human-in-the-Loop 機械学習におけるアノテーションとヒューマンコンピューターインタラクションの真髄

                                                            第8回 Data-Centric AI勉強会 ~Human-in-the-Loop機械学習 特別回~の発表内容です。 https://dcai-jp.connpass.com/event/315963/ 書籍「Human-in-the-Loop 機械学習」において、翻訳を担当した章(1,7,8,11,12章)の内容を抜粋して紹介します。Human in the loop 機械学習において重要な概念であるアノテーションとヒューマンコンピューターインタラクションについて、著者の機械学習エンジニアとしての実例を交えつつ説明します。 Amazon での書籍リンク https://amzn.to/47u5tFz

                                                              20分で分かる Human-in-the-Loop 機械学習におけるアノテーションとヒューマンコンピューターインタラクションの真髄
                                                            • AlphaFold 3 predicts the structure and interactions of all of life’s molecules

                                                                AlphaFold 3 predicts the structure and interactions of all of life’s molecules
                                                              • GitHub - Zuntan03/EasyNovelAssistant: 軽量で規制も検閲もない日本語ローカル LLM『LightChatAssistant-TypeB』による、簡単なノベル生成アシスタントです。ローカル特権の永続生成 Generate forever で、当たりガチャを積み上げます。

                                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                  GitHub - Zuntan03/EasyNovelAssistant: 軽量で規制も検閲もない日本語ローカル LLM『LightChatAssistant-TypeB』による、簡単なノベル生成アシスタントです。ローカル特権の永続生成 Generate forever で、当たりガチャを積み上げます。
                                                                • イオン、AIが値引き率を決める「AIカカク」を拡充 新たに生鮮部門でも活用へ

                                                                  AIカカクは、販売実績や天候・客数などの環境条件を学習したAIが“その日その時”の需要を予測。バーコードで読み取った商品情報と陳列数をもとに、適切な割引率を提示する仕組みだ。同社によると、AIカカク導入前と比較してロス率が1割以上低減しているほか、値引きや売り切り業務に関わる教育時間も低減しているという。 畜産部門と水産部門での実装により、適用品目数はこれまでの約1.5倍に増加する。同社は「生鮮部門への拡大に当たり、部門ごとの販売特性や値引きによる売れ方の変化などを細かく分析。店舗特性も考慮しさまざまなチューニングを施すことで実現に至った」とコメントしている。 加えて、イオンリテールが2023年に導入した需要予測・発注システム「AIオーダー」についても、6月から適用範囲を拡大する。新しく対象となるのは、日配品の漬物やチルド飲料、チーズ、ハム、デリカの冷総菜やサラダで、品目数としてはこれまで

                                                                    イオン、AIが値引き率を決める「AIカカク」を拡充 新たに生鮮部門でも活用へ
                                                                  • OpenAIのGPTsより凄い!無料で使えるDifyを徹底解説してみた

                                                                    こんにちは、にゃんたです。 今回は話題になっているDifyの基本的な使い方を解説してみました😆 めちゃくちゃ便利なので是非使ってみてください! もっと詳しく知りたいとか要望があったらコメントしてください😊 ■LINE公式で限定コンテンツ配布中! ▼登録はこちらから行えます▼ https://liff.line.me/2004040861-3Jvq4bAG 今ならキーワード「プレゼント」と入力すると ・ChatGPTのプロンプトまとめ ・Caludeのプロンプトまとめ ・Difyのまとめ を無料でお渡ししています! ■チャプター 00:00 オープニング 02:16 Difyとは? 10:00 Difyの使い方 ■Dify公式リンク https://dify.ai/ ■以前の関連動画 OpenAI最新のEmebddingモデルって何が凄いのか解説してみた https://you

                                                                      OpenAIのGPTsより凄い!無料で使えるDifyを徹底解説してみた
                                                                    • ロボット制御AIのオフライン強化学習で東芝が世界初と世界最高精度を達成

                                                                      東芝は、あらかじめ作成したデータでロボット制御に用いられるAIの機械学習を行う「オフライン強化学習」において、少量の画像データで複雑なロボット操作を高精度に制御する技術を開発した。 東芝は2024年5月10日、あらかじめ作成したデータでロボット制御に用いられるAI(人工知能)の機械学習を行う「オフライン強化学習」において、少量の画像データで複雑なロボット操作を高精度に制御する技術を開発したと発表した。これまでロボット制御AIのオフライン強化学習では数千以上のデータが必要だったが、新技術は10分の1以下のとなる100程度のデータで精度を向上できる。公開ベンチマーク環境によるシミュレーション評価の結果、平均成功率が従来比で2倍となる72%に向上した。少量の画像データから複雑なロボット操作を高精度に制御するAI技術は「世界初」(東芝)、公開ベンチマーク環境における72%の成功率は「世界最高精度」

                                                                        ロボット制御AIのオフライン強化学習で東芝が世界初と世界最高精度を達成
                                                                      • 【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル

                                                                        【DL輪読会】Evolutionary Optimization of Model Merging Recipes モデルマージの進化的最適化

                                                                          【DL輪読会】KAN: Kolmogorov–Arnold Networks | ドクセル
                                                                        • Apple M4チップはArm SEM命令のサポートにより、物体検出など一部の機械学習ワークロードがApple M2の1.5~2倍となっているもよう。

                                                                          Apple M4チップはArm SEMのサポートにより、物体検出など一部の機械学習ワークロードがApple M2の約2倍となっているようです。詳細は以下から。 Appleは現地時間2024年05月07日、タンデムOLEDテクノロジーを採用したUltra Retina XDRディスプレイを搭載しApple史上最も薄い「iPad Pro (M4)」を発表するとともに、そのiPad Proに初めて搭載する第2世代の3nmテクノロジーを採用した「Apple M4チップ」を発表しました。 このApple M4チップは、Apple史上最も高速なNeural Engineを搭載し、iPad Pro (M4)ではワンタップで被写体を背景から分離できるFinal Cut Proのシーン除去機能などが、より高速に実行できると発表されていますが、 Geekbenchに投稿された10コアのCPUのApple M4

                                                                            Apple M4チップはArm SEM命令のサポートにより、物体検出など一部の機械学習ワークロードがApple M2の1.5~2倍となっているもよう。
                                                                          • GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning

                                                                            torchtune is a PyTorch-native library for easily authoring, fine-tuning and experimenting with LLMs. We're excited to announce our alpha release! torchtune provides: Native-PyTorch implementations of popular LLMs using composable and modular building blocks Easy-to-use and hackable training recipes for popular fine-tuning techniques (LoRA, QLoRA) - no trainers, no frameworks, just PyTorch! YAML co

                                                                              GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning
                                                                            • 怒っている顔画像をAIであまり怒っていない表情に変形させる(笑って怒ってハイチーズ!に使われている技術_前編)

                                                                              はじめに こんにちは! Whatever Co. でエンジニアをしている登山です。 お台場にある 日本科学未来館では、2023 年 11 月に常設展示の大規模リニューアルが行われました。その中の一つである「老いパーク」では、「老い」をテーマに、老化による目・耳・運動器・脳の変化を疑似体験できるコンテンツが展示されています。 日本科学未来館 web ページより引用 Whatever Co. は、「老いパーク」の企画・設計・制作を担当しました。(クレジットは こちら からご確認ください) 本記事では、自分がテクニカルディレクションおよび実装を担当した、脳の変化を疑似体験できるコンテンツ「笑って怒ってハイチーズ!」の開発で使用した技術について解説します。(2 本立ての前編です。後編はこちら) どんなコンテンツ? 「笑って怒ってハイチーズ!」(通称わらおこ)は、 「年をとると、相手の怒りや悲しみな

                                                                                怒っている顔画像をAIであまり怒っていない表情に変形させる(笑って怒ってハイチーズ!に使われている技術_前編)
                                                                              • Fugaku-LLM/Fugaku-LLM-13B · Hugging Face

                                                                                Fugaku-LLM利用規約\n この利用規約(以下「本規約」といいます)は、富士通株式会社、国立研究開発法人理化学研究所、国立大学法人東京工業大学、国立大学法人東北大学、株式会社サイバーエージェント、国立大学法人東海国立大学機構、及び株式会社Kotoba Technologies Japan (以下「開発者」といいます)による、スーパーコンピュータ「富岳」政策対応枠における大規模言語モデル分散並列学習手法の開発の成果物として公開する大規模言語モデル(以下「Fugaku-LLM」といいます)の利用に関する条件を定めるものです。Fugaku-LLMの利用者(以下「利用者」といいます)は、本規約に同意した上でFugaku-LLMを利用するものとします。 \n\n第1条(利用許諾) Fugaku-LLMの利用者は、本規約に従い、Fugaku-LLMを商用または非商用目的を問わず利用することができ

                                                                                  Fugaku-LLM/Fugaku-LLM-13B · Hugging Face
                                                                                • Dockerで構築したDifyを利用しノーコードでRAGのチャットボットを作る - Qiita

                                                                                  概要 最近話題の Dify を利用し、RAG の機能を持ったチャットボットを作る。 Qiita CLI の README をRAGに登録し、Qiita CLI に関する知識を持ったチャットボットをノーコードで作成する。 最終的に作成される画面は以下のイメージ。 Difyを利用することで、ノーコードで簡単にRAGの機能を持ったチャットボットを作成できる RAGの参照もととなるQiita Cli のリポジトリは以下の通り。 Dify とは Dify は最近注目されているオープンソースの LLM アプリケーション開発プラットフォーム。 「ワークフロー」を利用して GUI ベースで簡単にLLMアプリケーションを作成し、公開やアプリケーションへの組み込みまで簡単にできる。 日本語で書かれた README もあるので日本人にとっても使いやすい。 RAG の機能を持ったチャットボットの作成 利用するライ

                                                                                    Dockerで構築したDifyを利用しノーコードでRAGのチャットボットを作る - Qiita