Suno対抗のAI作曲サービスとして前評判の高かったUdioがパブリックベータとして一般公開されました。
Suno対抗のAI作曲サービスとして前評判の高かったUdioがパブリックベータとして一般公開されました。
「まだ700台も残っているのか」――。富士通と米Amazon Web Services(アマゾン・ウェブ・サービス、AWS)の会見を聞いた筆者の感想だ。両社は2024年3月18日、グローバルパートナーシップの拡大と顧客システムのモダナイゼーション支援を発表した。その中で、富士通の島津めぐみ執行役員副社長COO (サービスデリバリー担当)(現職)が同社のメインフレーム残存数に触れたのだ。 島津副社長によれば、現在約700台のメインフレームと約9400台のUNIXサーバーが稼働しているという。富士通は2030年度末にメインフレームの製造・販売から撤退し、5年後の2035年度末で保守を終える。UNIXサーバーは2029年度下期に製造・販売を終了し、2034年度中に保守を終える予定だ。 脱メインフレームは間に合わない 果たして2035年度末までに700台あるメインフレームをすべて撤廃できるだろうか
最近、友人から大規模モデルの学習を劇的に効率化しそうな下記の事実(μTransfer)を教えてもらい、こんなことが成り立つことに非常に驚くとともに、それを知らなかったことにちょっとしたショックを受けました。 μTransfer 下記の手順で大規模モデル(Neural Networks)の最適なハイパーパラメータを効率的に獲得できる 1. 学習したい大規模モデル(ターゲットモデル)と同じアーキテクチャの次元や層数のより小さいモデルを用意し、それぞれのモデルのパラメータと最適化アルゴリズムを μP と呼ばれる方法でパラメータ付けする 2. その小さいモデルで、最適なハイパーパラメータ(学習率など)を探索する 3. ターゲットモデルに小さいモデルで獲得されたハイパーパラメータを適用する Greg Yang+, "Tensor Programs V: Tuning Large Neural Net
","chat_template":[{"name":"default","template":"{{ bos_token }}{% if messages[0]['role'] == 'system' %}{% set loop_messages = messages[1:] %}{% set system_message = messages[0]['content'] %}{% elif false == true %}{% set loop_messages = messages %}{% set system_message = 'You are Command-R, a brilliant, sophisticated, AI-assistant trained to assist human users by providing thorough responses. You
Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads, and is available first on Microsoft Azure Today, we’re introducing Command R+, our most powerful, scalable large language model (LLM) purpose-built to excel at real-world enterprise use cases. Command R+ joins our R-series of LLMs focused on balancing high efficiency with strong accuracy, enabling b
こんにちは、ニケです。 皆さん、CursorとClaude使っておりますでしょうか? ブラウザ版Claudeに課金してはや数週間、もうこれがないとコーディングもままならないくらいには依存しちゃっています。 それまではCursorのChat欄メイン、たまーにうまくいかないときにChatGPTを使っていましたが、もう完全に乗り換えてしまいました。 GPTsのようなChatGPT専用の機能も元々あまり使っていなかったので、今回のサムネ作成で2週間ぶりに使用…(もうサブスク辞めようかな というわけで今回は私が普段どうやってCursorとClaude使って開発しているのかを共有したいと思います。 ⚠ 以降の説明は、Cursor有料版($20)と ブラウザ版Claude($20)が前提となっています。 ⚠ 私の環境ではGithub Copilotも有効になっていますが、CursorのCopilot機能
はじめに Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages という論文では、LLMの学習済み重みパラメータの足し引きによって、事前学習済みモデルに対話能力を与えることができるという結果が示されています。 具体的には、英語で事前学習されたモデル(以下ではベースモデルと呼びます)と、ベースモデルを指示チューニング (instruction tuning)してチャット形式の対話ができるようにしたモデル(英語チャットモデル)、ベースモデルを英語以外の言語で継続事前学習したモデルの3つのモデルを用います。 英語チャットモデルの重みからベースモデルの重みを引いたものは、チャット形式で対話ができる能力を表したベクトルであり、そのベクトルを
エンドルフィン株式会社(本社:東京都港区、代表:張鉉洙)、株式会社SUPERNGINE(本社:韓国、代表:KIM DONGJUN)は2024年3月27日、東京・永田町にて開催された一般社団法人マンガジャパン及びデジタルマンガ協会合同「早春の会」にて、ピュアモデルAIによって制作したマンガ作品を初披露いたしました。 現在、市場で出回っている生成AIの多くは他の権利者の絵柄も学習した状態であるため、安易に使用してしまうと作家本来の”個性”が失われるだけでなく、著作権侵害のリスクもはらんでいます。 一方で、エンドルフィン株式会社と株式会社SUPERNGINEが提供するサービスは、契約した漫画家のデータだけを学習させる、ピュアモデルAIによるものです。 加えて、著作権者である漫画家の許可がなければ作動せず、また漫画家自身がそのすべての学習成果をコントロールできるよう、オーダーメイド型でサービスを提
Lightning Whisper MLX An incredibly fast implementation of Whisper optimized for Apple Silicon. Results 10x faster than Whisper CPP, 4x faster than current MLX Whisper implementation. Features Batched Decoding -> Higher Throughput Distilled Models -> Faster Decoding (less layers) Quantized Models -> Faster Memory Movement Coming Soon: Speculative Decoding -> Faster Decoding with Assistant Model In
基盤モデルの開発をしている中で苦労することは? 南野充則氏(以下、南野):では、ここからパネルディスカッションに移っていきたいと思います。最初は、こちら側でお題を用意しています。大きなトピックとしては、基盤モデルの開発とコスト、基盤モデルにおけるアカデミアとビジネスの観点でどのような考え方をされているのかというところ。 あとは、日本語特化LLMの意義と展望といったところですね。大きなトピックとして揃えていますが、今「Slido」でのご質問もいただいていますので、適宜Slidoも拾いながらやっていければと思います。Slidoは、このQRコードからみなさんに質問していただければと思います。 さっそくですが、トピック1に移っていきたいと思います。「基盤モデルの開発をしている中で苦労されることは?」というところで、これはまず垣内さんからお願いしたいです。この基盤モデルを作っている中でどんな苦労があ
なお、今回作ったRerankerの技術的な話は、日本語 Reranker 作成のテクニカルレポートに記載しているので、興味のある方はそちらをご覧ください。 そもそも Reranker とは? Reranker とは、名前の通り再ランク付け(rerank)するもので、質問文に対して関連する順に文章を並べ替えます。文ベクトル(文章のembeddings)で類似度を測って並べ替えするものと何が違うのか?と思われるかもしれませんが、実際、文ベクトル類似度でも同じように並べ替えが可能です。 しかしながら、大きく二つの点で異なります。 Reranker は再ランク性能が高い 文ベクトルは、質問文と文章を同じベクトル空間上の表現として類似度を測ります。そのため大規模なデータに対しても事前に文章のベクトルを算出しておくことで、効率的な計算が可能です。 しかしながら、Reranker は再ランクに特化してお
物理の勉強してたら投稿が遅くなっちゃいました<3Dモデル>オーバルホームサーキット・td86890・td86893(分離)JCJC・td86129・td86892(分離)<BGM>OtoLogic様,魔王魂様,Uppbeat様,ニコニコモンズ(コンテンツツリーに登録)YouTube版https://youtu.be/byKmdWatGwA勉強時間を記録するDiscordサーバーを作りました学生じゃなくても、なにか勉強したいことがある人は自由に使ってください!入退出のログは特に記録していないので、合わなかったら抜けても大丈夫ですhttps://discord.gg/aKdrmhhq受験があるのでほんの少しの間インターネットから距離を置こうと思います
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く