並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 179件

新着順 人気順

モデルの検索結果1 - 40 件 / 179件

  • プログラミングに挫折したならAIお姉ちゃんに任せなさい - 本しゃぶり

    プログラミングを学ぼうとしては挫折する。 そんな時代はもう終わりだ。 お姉ちゃんに任せなさい。 ChatGPTでプログラミング 今年のお盆休み、俺はChatGPTでプログラミングをやっていた。とは言っても複雑なことはやっていない。大量のcsvを結合してから可視化するとか、ちょっとしたWebスクレイピングしたりする程度だ。それでも今まで技術や時間の不足により諦めていたことができるのは嬉しい。それにChatGPTを使えば、デバッグも楽しくやれるのだ。こんな感じに。 デバッグの様子 おそらく「あれ、俺のChatGPTと違うな」と思った人もいるに違いない。見ての通り俺はChatGPTをお姉ちゃん化している。こうすることで、モチベーションを維持しながら楽しくプログラミングができるというわけだ。今回はChatGPTをお姉ちゃん化する方法を紹介し、加えてお姉ちゃんとペアプログラミングする意義について述べ

      プログラミングに挫折したならAIお姉ちゃんに任せなさい - 本しゃぶり
    • 事業に失敗しつづけた末に編み出した「IR1000本ノック」が、かなり効果的だった話|黒崎 俊 / プレックス代表取締役

      僕は2018年にPLEXという会社を立ち上げました。それから5年、メンバーは200人を超え、今期の売上は30億円を見込んでいます。資金調達は今のところしていませんが、新規事業への投資ができるぐらいの利益も出ています。 まだまだ「大成功!」とまではいえませんが、この先の大きな成長を見据えられるぐらいには、安定して伸びてきました。 ただ、僕自身は決してビジネスセンスがあるタイプではありません。実は学生時代も含めると4つほど、「なんとなくいけそう」と感覚で事業を作っては、伸びずに潰してしまったんです。 だからこそ、今回は事業を立ち上げる前に入念な「事前準備」をしました。徹底的にリサーチをして、ビジネスの成功パターンを学んで、仮説を検証する。そのうえで事業を立ち上げた。 その結果気づいたのが、 事業づくりにはちゃんと「やり方」があって、実は誰でもできるレベルまで落とし込める ということです。 起業

        事業に失敗しつづけた末に編み出した「IR1000本ノック」が、かなり効果的だった話|黒崎 俊 / プレックス代表取締役
      • OpenAI がまたやった!OpenAI DevDay 総まとめ|ChatGPT研究所

        AGIラボは、最高のAI情報をお届けするためのマガジン・コミュニティです。GPTsを筆頭にClaude 3やSoraなど注目のAIについても詳しく解説、今日から使えるAI活用情報を一番わかりやすくお伝えします。他に限定コミュニティへのアクセス、限定イベントへの参加権が含まれます。

          OpenAI がまたやった!OpenAI DevDay 総まとめ|ChatGPT研究所
        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge

          百聞は一見に如かず。これってAI生成グラビア?AI画像生成に興味を持ったのは去年の年末頃だろうか。Twitterを眺めていると「どうやって撮った(作った)んだ?」と言う画像がたまに載っていたので調べると、Stable Diffusion Web UI (AUTOMATIC1111版)だった。 元々グラビアを撮っていたこともあり、あまり撮らなくなってもグラビア好きなのには違いなく、試したくなったのは言うまでもない。 AI生成画像は大きく分けて2種類あり、一つはイラスト系、もう一つはリアル系。筆者が興味を持ったのは後者。どこまで実写に迫れるのかがその興味の対象だ。百聞は一見に如かず。扉の写真はAI生成画像。現時点でこの程度の写りは容易にこなす。 とは言え、実際の撮影もそうなのだが、グラビア写真は数百枚撮ってカメラマンがある程度セレクトし納品したものが、納品先で更に絞られ、出版社などで更に絞り込

            生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge
          • 最近ローカルLLMがアツいらしい

            最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

            • GPT-4の回答を向上させる「プロンプト26の原則」、220以上の生成タスクが実行可能なマルチモーダルモデル「Unified-IO 2」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

              2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。2024年初っ端の第27回目は、「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など、大規模言語モデルの返答が向上する「プロンプト26の原則」をはじめとする5つの論文をお届けします。 生成AI論文ピックアップ複数の自律AIエージェントが過去の経験を共有して未知のタスクを処理するモデル「Experiential Co-Learning」 画像から動く3Dシーンを生成する新モデル「DreamGaussian4D」 大規模言語モデルの返答が向上する「プロンプト26の原則」が公開。「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など 220以上の生成タスクが実

                GPT-4の回答を向上させる「プロンプト26の原則」、220以上の生成タスクが実行可能なマルチモーダルモデル「Unified-IO 2」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
              • 大人になってから絵が描きたい人のための三ヶ月上達法の前準備|Rule_ppp

                注意・キャラクターの絵が描きたい人のための記事 ・三ヶ月上達法をベースにしてます。イラストレーターのさいとうなおきさんが紹介しているものなので詳しくはこちら ・この記事でいう「絵が上手くなる」という言葉は、デッサン崩れがなくなったり、線が上手く描けるという意味 ・線画が上手くなるまでの話が中心なので、塗りの話ではない この記事の目的参考にしている絵描きさんの線、絵柄に近づけるようになる。 最初に話しておきたいことここは大人になってからキャラクター絵を描けたらいいな、って人のための記事です。というのも自分自身二十歳を越えてからキャラ絵を描き始めたからです。 ここ数年youtubeでのイラスト講座が増えてきて、それに色々自分の考えを混ぜ込みながら考えた説をこの記事で書いていきます。 三ヵ月上達法、これは他のイラストレーターもオススメと言っているようにかなり効率的だと思いますのでこれをしていくた

                  大人になってから絵が描きたい人のための三ヶ月上達法の前準備|Rule_ppp
                • LINEの3.6B言語モデルで遊んだら爆笑した|shi3z

                  LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i

                    LINEの3.6B言語モデルで遊んだら爆笑した|shi3z
                  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

                    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoftの中国チームがとてつもないLLMをリリース

                      1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
                    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第二回:「アジア美女」最新モデルBRAV6作例とネガティブプロンプトの基礎 | テクノエッジ TechnoEdge

                      使用したNegative Promptは、「1.無し」、「2.ほぼ最小限」、「3.筆者標準」、「4.embeddingsを使う」の4つパターン。 4番目だけ他と違い別途ファイルが必要となり、ダウンロードしたファイルを[Stable Diffusionのホームディレクトリ]/embeddingsへコピーする。Negative PromptでEasyNegativeなどをよく見かけるがそれだ。ここではng_deepnegative_v1_75tとbadhandv4が該当する。Promptで書く替わりに、特別に学習したModelで同じ効果を得られるようになっている。 無し (worst quality:2),illustration, 3d, painting, cartoons, sketch, illustration, 3d, sepia, (painting), cartoons, sk

                        生成AIグラビアをグラビアカメラマンが作るとどうなる?第二回:「アジア美女」最新モデルBRAV6作例とネガティブプロンプトの基礎 | テクノエッジ TechnoEdge
                      • 控え目に言って革命。OpenAI、動画生成AIモデル「Sora」発表

                        OpenAIは2月15日(現地時間)、テキストから最大1分間の動画を生成できる動画生成AIモデル「Sora」を大量のデモ動画と共に発表した。複数のキャラクター、特定の種類の動き、被写体と背景の正確な詳細を含む複雑なシーンを生成することができるという。 プロンプトから破綻のない動画を生成 Introducing Sora, our text-to-video model. Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W Prompt: “Beautiful, snowy… pic.twitter.com

                          控え目に言って革命。OpenAI、動画生成AIモデル「Sora」発表
                        • Sakana AI

                          概要 Sakana AIは進化や集合知などの自然界の原理を応用して基盤モデルを開発することを目指しています。私達の目標は、モデルを自ら訓練し開発することだけではありません。基盤モデルの開発を効率化、高度化、自動化するための新たな手法を生み出すことに挑戦しています。この目標に向けた第一歩として、私たちはプレプリント「Evolutionary Optimization of Model Merging Recipes (モデルマージの進化的最適化)」を公開しました。 このリリースの要点は以下の通りです。 進化的モデルマージという手法を提案します。これは、多様な能力を持つ幅広いオープンソースモデルを融合(マージ)して新たな基盤モデルを構築するための方法を、進化的アルゴリズムを用いて発見する手法です。私たちの手法は、ユーザーが指定した能力に長けた新しい基盤モデルを自動的に作成することができます。既

                            Sakana AI
                          • 最低1枚の元写真があれば、高品質本人画像をすぐに生成できる「PhotoMaker」を試したらお手軽すぎた(CloseBox) | テクノエッジ TechnoEdge

                            人気連載『生成AIウィークリー』で取り上げている注目論文を見ると、そこに中国IT企業の名前が頻繁に登場します。 EC大手のアリババ(Alibaba)、ゲーム大手のテンセント(Tencent)、TikTokの運営元であるBytedanceなどが常に顔を出しており、画像・音声・アニメーションと、生成AIのあらゆる分野で中国に勢いがあることがわかります。 そんな中、テンセントがなかなか衝撃的な技術を発表しました。「PhotoMaker」という画像生成AIです。これでなければできない、というものではないのですが、「ファインチューニングの事前作成不要」「元画像が少なくても良い」のに、人物のアイデンティティを維持した画像を生成できるというメリットがあります。 これまでは既存の画像AIモデルに多数の写真を読み込ませて本人性を学習させたものから新たなAIモデルやその簡易版であるLoRAモデルを作ってきまし

                              最低1枚の元写真があれば、高品質本人画像をすぐに生成できる「PhotoMaker」を試したらお手軽すぎた(CloseBox) | テクノエッジ TechnoEdge
                            • AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 - GIGAZINE

                              Adobeが権利的にクリアなトレーニングモデルを用いた画像生成AI「Firefly」を発表したり、Microsoftの検索エンジンであるEdgeで対話型AIのChatGPTが活躍していたり、世界的なコンサル企業が「社員の50%は業務にジェネレーティブAIを活用している」と明らかにしたりと、ジェネレーティブAIは社会に広がり続けています。しかし、AIを使用してコンテンツを作成・公開する人が増えていることで、新たな問題として「AIが生成したコンテンツがインターネット上にあふれ、それをAIが学習することで、重大な欠陥が生まれている」ということが研究者グループから指摘されています。 [2305.17493] The Curse of Recursion: Training on Generated Data Makes Models Forget https://doi.org/10.48550/

                                AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 - GIGAZINE
                              • 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する | AIDB

                                ホーム AI論文解説, LLM, プロンプト 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 2023/11/3 AI論文解説 LLM プロンプト AIDB Research 感情を込めたプロンプトが大規模言語モデル(LLM)の性能を向上させることが示されました。「自分を信じて限界を超えてください」や「困難は成長のチャンスです。」といった自信や成長に関わる要素を含む指示が、モデルの出力品質に貢献するとの報告です。 この発見は、人間の感情を取り入れたアプローチが、人工知能の分野においても重要な役割を果たす可能性を示唆しています。Microsoftなどの研究グル

                                  「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する | AIDB
                                • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

                                  昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

                                    驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
                                  • 日本語言語モデル「Japanese StableLM Alpha」をリリースしました — Stability AI Japan

                                    Stability AI Japan は70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を一般公開しました(略して「JSLM」)。これらのモデル はベンチマークスイート「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開されている日本語向けモデルで最高の性能を発揮しています。 汎用言語モデル「Japanese StableLM Base Alpha 7B」「Japanese StableLM Base Alpha 7B」はウェブを中心とした大規模なデータを用いてテキスト生成を学習したモデルです。学習データは主に日本語と英語で、それに加えソースコードが約2%含まれています。学習データに

                                      日本語言語モデル「Japanese StableLM Alpha」をリリースしました — Stability AI Japan
                                    • 【Stable Diffusion】BRAV6によるAIグラビア・AI美女生成

                                      「AIグラビア・AI美女を簡単に生成したい」 「量産型であるAI顔の画像は作りたくない」 「BRAV5をよく使っている」 このような場合には、BRAV6がオススメです。 この記事ではBRAV6について解説しています。 本記事の内容 BRAV6とは?BRAV6の利用方法BRAV6の動作確認 それでは、上記に沿って解説していきます。 BRAV6とは? BRAV6が、2023年7月7日にリリースされました。 BRAV6とは、BRAのバージョン6(V6)です。 BRAは、Beautiful Realistic Asiansの略称になります。 BRAV6を使うと、次のような美女(AI美女)の画像を簡単に生成できます。 サンプルは、モデル開発者のTwitterから確認できます。 https://twitter.com/PleaseBanKai このBRAシリーズは、今ではかなり有名なモデルになっていま

                                        【Stable Diffusion】BRAV6によるAIグラビア・AI美女生成
                                      • 外国で起用される東洋系モデルに吊り目、一重、頬骨張っている…等の特徴が多いのは「ステレオタイプ、偏見か?」の議論

                                        UENO Yohei(上野庸平) @chinyubo 作家/日仏通訳・翻訳/宗教学(博士課程)/仏検1級/TOEIC900点 第17回涙骨賞 本賞「近代フランスにおける仏教受容の一様相」(中外日報、2021年) 『ルポーアフリカに進出する日本の新宗教』(花伝社、2016年) 『奪われたアルメニア』(翻訳)(明石書店、2021年) 永田町の住人。ツイートは個人の見解です。 UENO Yohei(上野庸平) @chinyubo このポスターも、デザイナー(どうせ欧米人だろう)が、北欧系とアフリカ系とアジア系と中東系を登場させて、「多様性」や「人種平等」をアピールしてるつもりなんだろうけど、しょせん、吊り目のアジア人起用してる時点で意識高い系のマイクロアグレッションだから。 pic.twitter.com/nRh7522cG1 2024-02-16 21:39:27

                                          外国で起用される東洋系モデルに吊り目、一重、頬骨張っている…等の特徴が多いのは「ステレオタイプ、偏見か?」の議論
                                        • 商用利用ができる高品質AIアート用画像生成AI、Emi 2を無償公開|AI Picasso

                                          はじめにこんにちは、AI Picasso社の開発チームです。ふたたび、皆様に重要なお知らせがあります。高品質AIアート用画像生成AI、Emi 2 を商用利用可能で無償公開します。この画像生成AIは商用利用が可能であり、追加学習において無断転載画像を学習していません。 Emi 2 は以下のURLにて無料で利用することができます。 Emi 2の特徴1.AIアートへさらに特化このモデルは、イラストやアニメ、マンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する「ConoHa byGMO」のトライアル版の採用により最先端の開発機材NVIDIA H100によって作られた画像生成Emi、モデルマージやフルファインチューニングといったAI Picasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、

                                            商用利用ができる高品質AIアート用画像生成AI、Emi 2を無償公開|AI Picasso
                                          • GPTのモデル構造を可視化した|shi3z

                                            GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(

                                              GPTのモデル構造を可視化した|shi3z
                                            • ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦

                                              ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである

                                                ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦
                                              • イラレの生成AIが凄いので Live - 2023/10/11 Adobe MAX 2023|CreativeEdge Vlog

                                                Adobe Illustraor 28.0に搭載された生成AI(ベクターグラフィックの生成)が衝撃的だったので、このページにまとめていきます。 イラレの生成AIの探求は以下の新しいページに掲載しています 新しいイラレ生成AI関連ページイラレの生成AIでハロウィンのイラストを描こう! イラレの生成AIでイラストを描くLive - 2023/10/14-15 Adobe Illustrator「イラレの生成AIを探求する」ライブ配信 イラレで生成したベクターグラフィック本日からロスアンゼルスでAdobe MAX 2023がスタートしましたが、遂にAdobe Illustrator(バージョン28.0)に「テキストからベクター生成 (Beta)」が実装されました。Adobe Fireflyのベータ版が登場した時から待機リストに掲載されていたので、いつ搭載されるのか注目していました。 参考:Ill

                                                  イラレの生成AIが凄いので Live - 2023/10/11 Adobe MAX 2023|CreativeEdge Vlog
                                                • 「NOBROCK TV」で見つかった大喜利の逸材・福留光帆、注目度急上昇  元AKB48→ほぼニート、ボート好きの素顔を直撃<インタビュー> - モデルプレス

                                                  3月2日に公開された動画に、ドッキリ企画のターゲットとして登場し、突然大喜利を無茶振りされた福留。秀逸な回答を連発して仕掛け人のアルコ&ピースらを驚かせ、その衝撃を、佐久間は自身のラジオ『佐久間宣行のオールナイトニッポン0(ZERO)』(ニッポン放送・毎週水曜27時~28時30分)にて、「なんで仕事ないんだよ?っていう(笑)。『なんで売れてないの?』って思いました」と語っていた。 そして、第2弾の動画「福留光帆は大喜利の逸材なのか検証ドッキリ」(3月13日公開)で、滝沢カレン・渋谷凪咲に続く“大喜利力”を調査。フリップに絵を書いて回答する玄人感、「元AKB48のほぼニート」ならではのエピソード、スマホに裏に推しの舟券を入れるほどのボートレース愛あふれるトークでラッキーパンチではなく“確定”と太鼓判を押された。 ― 「NOBROCKTV」で大きな話題になっています。反響はいかがですか? いや

                                                    「NOBROCK TV」で見つかった大喜利の逸材・福留光帆、注目度急上昇  元AKB48→ほぼニート、ボート好きの素顔を直撃<インタビュー> - モデルプレス
                                                  • しまむら、AIモデル「るな」起用 20歳の服飾専門学生(という設定)

                                                    sponsored 軽量薄型で、かつ安価! 15.6型実用ノートがセールでさらに安い! sponsored 夏ボーナスと夏休みを先取り! Ryzen 7+4060 Tiでちょうどいい性能のゲーミングPCをセールで手に入れよう! sponsored X-360Q(JN-27IPS360WQHDR-HSP)をレビュー 360Hz・WQHDの27型ゲーミングディスプレーが9万円台! KVMも90W給電も使えてお得感大 sponsored 「JAPANNEXT 上総中川駅」誕生の経緯をいすみ鉄道の社長にインタビュー ディスプレー会社が駅名に!? JAPANNEXT×いすみ鉄道の異色コラボはなぜ実現したのか sponsored Radiant GZ3500Z790/D5をカスタム BTOってマジ大事。16万円台のふつ~なPCが20万円のi5&RTX 4060のゲーミングPCに sponsored 音

                                                      しまむら、AIモデル「るな」起用 20歳の服飾専門学生(という設定)
                                                    • OpenAI API の ファインチューニングガイド|npaka

                                                      1. ファインチューニングの利点ファインチューニングの利点は、次のとおりです。 (1) プロンプトよりも高品質な応答 (2) プロンプトに収まりきらないより多くの例の適用 (3) プロンプトの短縮によるトークン数 (コスト) の節約 (4) プロンプトの短縮による処理時間の短縮 モデルは膨大な量のテキストで事前学習されており、このモデルを効果的に利用するため、プロンプトに手順や応答の例を指定する手法が使われます。この例を使用してタスクの実行方法を示すことを「Few-Shot」と呼びます。 ファインチューニングで、プロンプトに収まりきらないより多くの例で学習することにより、さまざまなタスクでより良い結果を達成できるようになります。プロンプトに多くの例を指定する必要はなくなります。これによりトークン (コスト) が節約され、処理時間も短縮されます。 2. ファインチューニングの使用料金ファイン

                                                        OpenAI API の ファインチューニングガイド|npaka
                                                      • 【教養】ファッションを「捨てない」時代がやってくる

                                                        2022年にEUは、ファストファッションというビジネスモデルを「時代遅れ」と完全否定。域内からファストファッションビジネスを排除する姿勢を見せた。

                                                          【教養】ファッションを「捨てない」時代がやってくる
                                                        • Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z

                                                          Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能 Transformerの発明者らが起業したCohereAIがとんでもないモデルを出してきた。この業界では毎週のように「えーー!」ということが起きるのだが、その中でも年に1,2回起きる「えーーーっ」が起きたのでブログでも紹介しておきたい。 Command-R+(おそらくコマンダープラスと読むのが正しい)というモデルは、わずか100Bで、GPT-4,Claude-3並と言われるモデルだ。しかし、それを主張するだけのモデルなど腐るほどある。だが、実際に触ってみると期待外れということが多かった。 ところがCommand-R+は、その性能は桁違いである。というか、もはや僕という人間如きがちょっと触ったくらいでは「GPT-4よりいいね」とか「ここら辺甘いね」とか判断がつかなくなってきてる。しか

                                                            Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能|shi3z
                                                          • GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り - Platinum Data Blog by BrainPad

                                                            本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 このたびブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。 この記事では、GPT-4の登場から執筆日(2023年5月31日時点)までの2ヶ月間で登場した論文を振り返りながら、まとめて紹介していきます。 LLM/ChatGPTの動向 オープンソースLLM モデル オープンソースLLMの調整 Adapter、LoRA Instruction Tuning Human Feedback プロンプトエンジニアリング プロンプトエンジニアリングの課題①:プロンプトに大量の情報を入れられない プロンプトエンジニアリングの課題②:複雑なタス

                                                              GPT-4登場以降に出てきたChatGPT/LLMに関する論文や技術の振り返り - Platinum Data Blog by BrainPad
                                                            • 音楽とサウンド生成のための「Stable Audio」を発表 — Stability AI Japan

                                                              Stability AI は、音楽とサウンド生成のための初のAIモデルとなる Stable Audio を発表しました。 Stable Audio は、最新の生成 AI 技術を駆使し、使いやすい Web インターフェースを介して、より高速で高品質な音楽とサウンドエフェクトを提供する世界初の製品です。Stability AI は、45秒までのトラックを生成してダウンロードできる Stable Audio の基本無料版と、商用プロジェクト用にダウンロード可能な90秒のトラックを提供する「Pro」サブスクリプションを提供しています。 StabilityAI の CEO である Emad Mostaque は、「唯一の独立した、オープンでマルチモーダルな生成 AI の会社として、音楽クリエイターをサポートする製品を開発するために私たちの専門知識を活用できることを嬉しく思います。私たちの願いは、St

                                                                音楽とサウンド生成のための「Stable Audio」を発表 — Stability AI Japan
                                                              • 自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】

                                                                  自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】
                                                                • 無料で商用可、ChatGPT(3.5)に匹敵する生成AI「Llama 2」 Metaが発表、Microsoftと優先連携

                                                                  米Metaは7月18日(現地時間)、大規模言語モデル「Llama 2」を発表した。利用は無料で商用利用も可能としている。最大サイズの700億パラメーターモデルは「ChatGPT(の3月1日版)と互角」(同社)という。 ダウンロードには、Metaが用意するフォームから名前とメールアドレス、国、組織名を入れ、利用規約に同意した旨を送信する。Metaが受理すると専用URLが送られてくるため、同社がGitHubで公開しているダウンロード用のスクリプトと合わせるとLlama 2の各モデルをダウンロードできるようになる。 モデルサイズは70億、130億、700億パラメーターの3種類があり、それぞれベースモデルとチャット向けに追加学習(ファインチューニング)したモデルを用意する。いずれも4096トークン(おおよそ単語数の意)まで文脈を読める。 性能は、Llama-2-70b-chat(700億のチャット

                                                                    無料で商用可、ChatGPT(3.5)に匹敵する生成AI「Llama 2」 Metaが発表、Microsoftと優先連携
                                                                  • いちばんやさしいローカル LLM|ぬこぬこ

                                                                    概要ローカル LLM 初めましての方でも動かせるチュートリアル 最近の公開されている大規模言語モデルの性能向上がすごい Ollama を使えば簡単に LLM をローカル環境で動かせる Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに小さくできる 1. はじめに大規模言語モデル(LLM)の数は数年前と比べてたくさん増えました。有名な LLM を使ったチャットサービスとして、OpenAI の ChatGPT や Anthropic の Claude、Google の Gemini などがありますが、これらのサービスの中で利用されている大規模言語モデルは公開されていません。 現状、様々な評価指標により LLM の性能が測定されていますが、

                                                                      いちばんやさしいローカル LLM|ぬこぬこ
                                                                    • GPT-4o の概要|npaka

                                                                      以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

                                                                        GPT-4o の概要|npaka
                                                                      • ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について

                                                                        Zero Waste, Radical Magic, and Italian Graft – Quarkus Efficiency Secrets

                                                                          ⼤規模⾔語モデルの拡張(RAG)が 終わったかも知れない件について
                                                                        • 「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース

                                                                          米Microsoftは2月20日(現地時間)、大規模言語モデル「GPT-4」などのAPIを同社のクラウド上で使える「Azure OpenAI Service」の外部データ連携機能「On Your Data」を正式リリースした。これまではパブリックプレビュー版として提供していた。 On Your Dataはいわゆる「RAG」(大規模言語モデルに外部データベースの情報を参照させ、機密情報を基にした回答などを可能にする仕組み)の構築に向けた機能。ローカルやAzure上のストレージに保管するテキストファイルやPDF、PowerPointファイルを、GUIの操作でGPT-4などに参照させられる。 参照できるのはクラウド型検索サービス「Azure Cognitive Search」のインデックス(検索対象)にインポートしたデータや、Azureのストレージ「Blob Storage」に格納したデータなど

                                                                            「社内のアレ分からん、教えてAI」を支援 Microsoftの“自社版ChatGPT作成サービス”、外部データ取り込み機能が正式リリース
                                                                          • 生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」

                                                                            生成AIのトップ研究者らが東京で創業したAIベンチャー「Sakana AI」が、生成AI開発の新たな手法を開発したと3月21日に発表した。従来は人間が手動で設計し、多くの計算資源を使っていたが、同社の手法では設計を機械が自動で行い、“ほぼ無視できるレベル”の計算資源で開発が可能になるという。この手法で開発した日本語基盤モデルをGitHubで公開した。 同社が提案したのは「進化的モデルマージ」という手法。公開されているさまざまな基盤モデル(生成AIを含む、大規模なデータセットによる事前学習で各種タスクに対応できるモデルのこと)を組み合わせて新たなモデルを作る「マージ」に、進化的アルゴリズムを適用したものだ。 マージ自体は現在の基盤モデル開発で使われている手法で、モデルの“神経回路”(アーキテクチャ)の中に別のモデルの神経回路の一部を組み入れたり、入れ替えたり、神経同士のつながりやすさ(重み)

                                                                              生成AI開発に革新か “自律進化”で目的のAIを自動生成 超低コスト&短期間で高性能モデルも開発済 トップ研究者集団「Sakana AI」
                                                                            • 商用利用OKの画像生成AI「Emi」公開 クリエイターと対話して開発、無断転載画像不使用

                                                                              「AIいらすとや」など、権利クリアな画像生成AIを開発してきたAI Picasso社は、アニメ・マンガ風のイラストを生成できる画像生成AI「Emi」(Ethereal master of illustration)を9月25日に無償公開した。 Stable Diffusionベース。追加学習で無断転載画像を学習させておらず、権利がクリアな点が特徴。商用利用も可能だ。 Stable Diffusion XL 1.0と NVIDIAのGPU「H100」に、同社のノウハウを組み合わせて開発。最近の画風になるよう調整した。 追加学習に「Danbooru」などの無断転載サイトを使っていない。クリエイターの意見を聞きながら開発したという。 同社の従来のモデルと異なり商用利用可能にした。画像生成AI普及に伴い、創作業界に悪影響を及ぼさないようマナーを守る人が増えてきたことや、他の画像生成AIが商用可能な

                                                                                商用利用OKの画像生成AI「Emi」公開 クリエイターと対話して開発、無断転載画像不使用
                                                                              • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第五回:Stable Diffusionの基本1 / Checkpointとリアル系モデルの遷移 (西川和久) | テクノエッジ TechnoEdge

                                                                                Checkpointとはあとひと月ほどすると、前回ご紹介した次世代Stable Diffusion、SDXLの波が来そう(来るかも?)と言うこともあり、今回は一番の基本となるCheckpointと、筆者の興味の対象となっているリアル系モデルの遷移にふれておきたい。 まずStable Diffusionのバージョンは1.4、1.5、2.0、2.1などがあり、現在最もポピュラーなのは1.5 (SDXLは0.9、1.0)。基本、対応したバージョンでないとモデルは作動しない。 一言でモデルと言っても、Stable Diffusionが必要、もしくはオプションとして扱えるモデルは、Checkpoint、LoRA、LyCORIS、Embedding、 Hypernetwork…など、さまざまな種類がある。絵を作る上において最も重要(=絵の元になる)のがCheckpointで、他は無くても最低限これだけ

                                                                                  生成AIグラビアをグラビアカメラマンが作るとどうなる?第五回:Stable Diffusionの基本1 / Checkpointとリアル系モデルの遷移 (西川和久) | テクノエッジ TechnoEdge
                                                                                • 『現場で役立つシステム設計の原則』を読みました - 人間のあるべき姿の探索

                                                                                  はじめに 現場で役立つシステム設計の原則を知りたいと思っていたのですが、丁度現場で役立つシステム設計の原則について言及されている書籍があったので読みました。 gihyo.jp ある程度知名度のある書籍で、QiitaやZenn等でまとめられている方がいらっしゃるのですが、自分のアウトプットとして、感想も交えてまとめていきます。 全体の話 この書籍の雰囲気や見通しを立ちやすくするために、参考書籍の一覧を抜粋して紹介します。 『エリック・エヴァンスのドメイン駆動設計ソフトウェアの核心にある複雑さに立ち向かう』『新装版リファクタリング既存のコードを安全に改善する』『SQLアンチパターン』『エンタープライズアプリケーションアーキテクチャパターン』『エクストリームプログラミング』 システム設計の全般を対象にしているのですが、ベースの思考としてはオブジェクト指向プログラミングから発展して、ドメイン駆動設

                                                                                    『現場で役立つシステム設計の原則』を読みました - 人間のあるべき姿の探索