タグ

stealthinuのブックマーク (25,663)

  • AI作曲サービスの新星「Udio」が誰でも利用可能に。Sunoを超えたか、試してみた(CloseBox) | テクノエッジ TechnoEdge

    Suno対抗のAI作曲サービスとして前評判の高かったUdioがパブリックベータとして一般公開されました。

    AI作曲サービスの新星「Udio」が誰でも利用可能に。Sunoを超えたか、試してみた(CloseBox) | テクノエッジ TechnoEdge
    stealthinu
    stealthinu 2024/04/11
    Suno.AI対抗サービス。だいぶ音質よい。これ普通にフルコーラス生成できる余裕が出てきたら、また世界が変わってきそう。TikTokやYouTubeみで使う音楽はこれでいいだろうし。
  • 「現状、人間はこの技術を制御しきれない」。読売新聞とNTTが生成AIのあり方に共同提言 

    「現状、人間はこの技術を制御しきれない」。読売新聞とNTTが生成AIのあり方に共同提言 
    stealthinu
    stealthinu 2024/04/11
    この提言内容についてNTTの中でLLM研究されてる方はどんなふうに思ってるんだろうな…。ハルシネーションとかバイアスとかあたりの話しなんて技術でどんどん改善されてってるよね。今更感。
  • CNN vs. ViT

    第57回 コンピュータビジョン勉強会@関東 https://kantocv.connpass.com/event/260132/ で読みました。CNNとViTの争いの現時点の情報をお届けしています。ただECCV 2022の論文を読んだのかと言われると怪しい…(ECCV2022の論文「も」読んだというのが正しい)

    CNN vs. ViT
    stealthinu
    stealthinu 2024/04/10
    画像認識でCNNとTransformerでTransformerでの優位性はないのでは?という話。
  • 富士通製メインフレームが残り700台の衝撃、保守期限までの撤廃に求められる策

    「まだ700台も残っているのか」――。富士通と米Amazon Web Services(アマゾン・ウェブ・サービス、AWS)の会見を聞いた筆者の感想だ。両社は2024年3月18日、グローバルパートナーシップの拡大と顧客システムのモダナイゼーション支援を発表した。その中で、富士通の島津めぐみ執行役員副社長COO (サービスデリバリー担当)(現職)が同社のメインフレーム残存数に触れたのだ。 島津副社長によれば、現在約700台のメインフレームと約9400台のUNIXサーバーが稼働しているという。富士通は2030年度末にメインフレームの製造・販売から撤退し、5年後の2035年度末で保守を終える。UNIXサーバーは2029年度下期に製造・販売を終了し、2034年度中に保守を終える予定だ。 脱メインフレームは間に合わない 果たして2035年度末までに700台あるメインフレームをすべて撤廃できるだろうか

    富士通製メインフレームが残り700台の衝撃、保守期限までの撤廃に求められる策
    stealthinu
    stealthinu 2024/04/09
    この問題って簡単な解決方法ないよなと思ってたけど、近い将来LLMが解決してくれると思うのでこのままメインフレームで逃げ切れそうに思う。本業もLLMの影響で世界かわるだろうけど。
  • 喫茶店の味♡懐かしまろやかナポリタン by mizu♡cafe

    2022/1/13をもって お客様がご利用中のブラウザ (Internet Explorer) のサポートを終了いたしました。 (詳細はこちら) クックパッドが推奨する環境ではないため、正しく表示されないことがあります。 Microsoft Edge や Google Chrome をご利用ください。 (Microsoft Edgeでクックパッドにログインできない場合はこちら)

    喫茶店の味♡懐かしまろやかナポリタン by mizu♡cafe
    stealthinu
    stealthinu 2024/04/09
    ナポリタンのレシピ、バターと生クリーム入れるのが出てたけど牛乳入れることでもまろやかになるのだな。
  • μTransfer: 小規模モデルでのハイパラ探索を大規模モデルに転移し学習を効率化する|Tatsuya Shirakawa

    最近、友人から大規模モデルの学習を劇的に効率化しそうな下記の事実(μTransfer)を教えてもらい、こんなことが成り立つことに非常に驚くとともに、それを知らなかったことにちょっとしたショックを受けました。 μTransfer 下記の手順で大規模モデル(Neural Networks)の最適なハイパーパラメータを効率的に獲得できる 1. 学習したい大規模モデル(ターゲットモデル)と同じアーキテクチャの次元や層数のより小さいモデルを用意し、それぞれのモデルのパラメータと最適化アルゴリズムを μP と呼ばれる方法でパラメータ付けする 2. その小さいモデルで、最適なハイパーパラメータ(学習率など)を探索する 3. ターゲットモデルに小さいモデルで獲得されたハイパーパラメータを適用する Greg Yang+, "Tensor Programs V: Tuning Large Neural Net

    μTransfer: 小規模モデルでのハイパラ探索を大規模モデルに転移し学習を効率化する|Tatsuya Shirakawa
    stealthinu
    stealthinu 2024/04/08
    小さいモデルで探索したハイパーパラメータをそのまま大きなモデルに転用できるという手法。そのための条件を数学的に決めれると。すごい頭の良さ。
  • GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - facebookresearch/schedule_free: Schedule-Free Optimization in PyTorch
    stealthinu
    stealthinu 2024/04/08
    学習率のスケジュールによる最適化不要な手法。とりあえずSGDとAdamの実装。
  • Login | Cohere

    Cohere provides access to advanced Large Language Models and NLP tools through one easy-to-use API. Get started for free.

    stealthinu
    stealthinu 2024/04/06
    Command R+の書いた小説例。これはすげえな。GPT-4とClaude3に同様のプロンプトで書かせて比較してみたい。少なくとも創作に関してはGPT-4超えてるのではないか。
  • CohereForAI/c4ai-command-r-plus · Hugging Face

    ","chat_template":[{"name":"default","template":"{{ bos_token }}{% if messages[0]['role'] == 'system' %}{% set loop_messages = messages[1:] %}{% set system_message = messages[0]['content'] %}{% elif false == true %}{% set loop_messages = messages %}{% set system_message = 'You are Command-R, a brilliant, sophisticated, AI-assistant trained to assist human users by providing thorough responses. You

    CohereForAI/c4ai-command-r-plus · Hugging Face
    stealthinu
    stealthinu 2024/04/05
    Command R+も公開されてた!104Bモデル。これもライセンスはCC-BY-NC。一部でGPT-4超えとの主張。このサイズで。
  • CohereForAI/c4ai-command-r-v01-4bit · Hugging Face

    stealthinu
    stealthinu 2024/04/05
    Comand-Rの20B4bit量子化。ライセンスがCC-BY-NC!Playgroundがあって試してみるとたしかにだいぶ性能良い。これがローカルで動くの??
  • Introducing Command R+: A Scalable LLM Built for Business

    Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads, and is available first on Microsoft Azure Today, we’re introducing Command R+, our most powerful, scalable large language model (LLM) purpose-built to excel at real-world enterprise use cases. Command R+ joins our R-series of LLMs focused on balancing high efficiency with strong accuracy, enabling b

    Introducing Command R+: A Scalable LLM Built for Business
    stealthinu
    stealthinu 2024/04/05
    「Command R+」というLLMでローカルでも動かせるサイズなのにGPT-4並の性能。特にRAG使ったときの性能がよくなるようチューニングされてるらしい。
  • HeyGen - AI Spokesperson Video Creator

    Create customized videos using HeyGen's AI Video Generator, turning scripts into talking videos with customizable AI avatars in minutes, without a camera or crew.

    stealthinu
    stealthinu 2024/04/05
    アバターと声を選択してデモ用動画をテキストだけで作れるサービス。日本語もほぼ違和感なく生成できている。
  • CursorとClaudeを使った最近の私の開発環境|ニケちゃん

    こんにちは、ニケです。 皆さん、CursorとClaude使っておりますでしょうか? ブラウザ版Claudeに課金してはや数週間、もうこれがないとコーディングもままならないくらいには依存しちゃっています。 それまではCursorのChat欄メイン、たまーにうまくいかないときにChatGPTを使っていましたが、もう完全に乗り換えてしまいました。 GPTsのようなChatGPT専用の機能も元々あまり使っていなかったので、今回のサムネ作成で2週間ぶりに使用…(もうサブスク辞めようかな というわけで今回は私が普段どうやってCursorとClaude使って開発しているのかを共有したいと思います。 ⚠ 以降の説明は、Cursor有料版($20)と ブラウザ版Claude($20)が前提となっています。 ⚠ 私の環境ではGithub Copilotも有効になっていますが、CursorのCopilot機能

    CursorとClaudeを使った最近の私の開発環境|ニケちゃん
    stealthinu
    stealthinu 2024/04/05
    この方のcursorのLLMのエンジンのモデル使い分けが参考になった。基本はgpt-4かcursor-fastを使っておいて、リポジトリ全体みたいとかそういうときだけトークン長が大きくても制度の良いclaude-3-opusに頼むと。
  • LLMの現在 - Speaker Deck

    今のLLMを取り巻く状況について紹介します。

    LLMの現在 - Speaker Deck
    stealthinu
    stealthinu 2024/04/04
    2024/4時点でのLLMや日本語LLMの状況がわかりやすく説明されてる。でも大まかには計算機力と良質で大量のデータが必要というのは変わらない。
  • Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita

    はじめに Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages という論文では、LLMの学習済み重みパラメータの足し引きによって、事前学習済みモデルに対話能力を与えることができるという結果が示されています。 具体的には、英語で事前学習されたモデル(以下ではベースモデルと呼びます)と、ベースモデルを指示チューニング (instruction tuning)してチャット形式の対話ができるようにしたモデル(英語チャットモデル)、ベースモデルを英語以外の言語で継続事前学習したモデルの3つのモデルを用います。 英語チャットモデルの重みからベースモデルの重みを引いたものは、チャット形式で対話ができる能力を表したベクトルであり、そのベクトルを

    Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita
    stealthinu
    stealthinu 2024/04/04
    同一学習済みモデルに追加学習したものは学習内容ベクトルの足し算引き算が出来るっていう件で、実際に英語チャット学習を日本語モデルに足した実験。実際に出来てるのほんとすげえ!となる。
  • 漫画家の著作権を守るAI

    エンドルフィン株式会社(社:東京都港区、代表:張鉉洙)、株式会社SUPERNGINE(社:韓国、代表:KIM DONGJUN)は2024年3月27日、東京・永田町にて開催された一般社団法人マンガジャパン及びデジタルマンガ協会合同「早春の会」にて、ピュアモデルAIによって制作したマンガ作品を初披露いたしました。 現在、市場で出回っている生成AIの多くは他の権利者の絵柄も学習した状態であるため、安易に使用してしまうと作家来の”個性”が失われるだけでなく、著作権侵害のリスクもはらんでいます。 一方で、エンドルフィン株式会社と株式会社SUPERNGINEが提供するサービスは、契約した漫画家のデータだけを学習させる、ピュアモデルAIによるものです。 加えて、著作権者である漫画家の許可がなければ作動せず、また漫画家自身がそのすべての学習成果をコントロールできるよう、オーダーメイド型でサービスを提

    漫画家の著作権を守るAI
    stealthinu
    stealthinu 2024/04/03
    やりたいことはわかるのだけどSDベースらしいので「ピュアモデルAI」という表現だけで説明するのはどうなんだろうかと。
  • Lightning Whisper MLX

    Lightning Whisper MLX An incredibly fast implementation of Whisper optimized for Apple Silicon. Results 10x faster than Whisper CPP, 4x faster than current MLX Whisper implementation. Features Batched Decoding -> Higher Throughput Distilled Models -> Faster Decoding (less layers) Quantized Models -> Faster Memory Movement Coming Soon: Speculative Decoding -> Faster Decoding with Assistant Model In

    stealthinu
    stealthinu 2024/04/03
    Lightning Whisper MLXめちゃくちゃ速いな。このグラフ、元のWhisperじゃなくってWhisper CPPとの比較でこれとは…
  • 「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地

    基盤モデルの開発をしている中で苦労することは? 南野充則氏(以下、南野):では、ここからパネルディスカッションに移っていきたいと思います。最初は、こちら側でお題を用意しています。大きなトピックとしては、基盤モデルの開発とコスト、基盤モデルにおけるアカデミアとビジネスの観点でどのような考え方をされているのかというところ。 あとは、日語特化LLMの意義と展望といったところですね。大きなトピックとして揃えていますが、今「Slido」でのご質問もいただいていますので、適宜Slidoも拾いながらやっていければと思います。Slidoは、このQRコードからみなさんに質問していただければと思います。 さっそくですが、トピック1に移っていきたいと思います。「基盤モデルの開発をしている中で苦労されることは?」というところで、これはまず垣内さんからお願いしたいです。この基盤モデルを作っている中でどんな苦労があ

    「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地
    stealthinu
    stealthinu 2024/04/03
    LLM、特に日本語LLMを学習させている人たちのノウハウ。学習データセットの問題だけじゃなくて色々とあるのだな…
  • 日本語最高性能のRerankerをリリース / そもそも Reranker とは? - A Day in the Life

    なお、今回作ったRerankerの技術的な話は、日語 Reranker 作成のテクニカルレポートに記載しているので、興味のある方はそちらをご覧ください。 そもそも Reranker とは? Reranker とは、名前の通り再ランク付け(rerank)するもので、質問文に対して関連する順に文章を並べ替えます。文ベクトル(文章のembeddings)で類似度を測って並べ替えするものと何が違うのか?と思われるかもしれませんが、実際、文ベクトル類似度でも同じように並べ替えが可能です。 しかしながら、大きく二つの点で異なります。 Reranker は再ランク性能が高い 文ベクトルは、質問文と文章を同じベクトル空間上の表現として類似度を測ります。そのため大規模なデータに対しても事前に文章のベクトルを算出しておくことで、効率的な計算が可能です。 しかしながら、Reranker は再ランクに特化してお

    日本語最高性能のRerankerをリリース / そもそも Reranker とは? - A Day in the Life
    stealthinu
    stealthinu 2024/04/02
    日本語リランカー。リランカーってLLMでやるのだと思ってたが、専用のリランカーもあるんだな。ローカルで速度出るなら良さそう。
  • 物理演算で現実とほぼ同じ動きのミニ四駆を作った

    物理の勉強してたら投稿が遅くなっちゃいました<3Dモデル>オーバルホームサーキット・td86890・td86893(分離)JCJC・td86129・td86892(分離)<BGM>OtoLogic様,魔王魂様,Uppbeat様,ニコニコモンズ(コンテンツツリーに登録)YouTube版https://youtu.be/byKmdWatGwA勉強時間を記録するDiscordサーバーを作りました学生じゃなくても、なにか勉強したいことがある人は自由に使ってください!入退出のログは特に記録していないので、合わなかったら抜けても大丈夫ですhttps://discord.gg/aKdrmhhq受験があるのでほんの少しの間インターネットから距離を置こうと思います

    物理演算で現実とほぼ同じ動きのミニ四駆を作った
    stealthinu
    stealthinu 2024/04/02
    Unityで物理演算の係数合わせてやったらミニ四駆の動作がちゃんと同じ結果になってる。これすごい面白い。