ユーザーが作成したAdd-ons/ThemesをBlender 4.2 Alpha上で利用できるプラットフォーム「Blender Extensions」がリリース GNU GPL v2.0ライセンスのもと、プラットフォーム内のAdd-ons/Themesが無料で利用可能 Blender 4.2 Manualに拡張機能の作成方法も記載されている オープンソースの無料3DCGツール「Blender」に作成したAdd-ons/Themesをユーザー同士で共有できるプラットフォーム「Blender Extensions」がリリースされました。 本機能は「Blender 4.2 Alpha」で実験機能を有効にすることで利用できます。
JSer.info #684 - Tailwind CSS v4.0 alphaがリリースされました。 Open-sourcing our progress on Tailwind CSS v4.0 - Tailwind CSS OxideというRustで書かれたエンジンを追加、Lightning CSSを組み込むように変更することでパフォーマンスやビルドトインでサポートする構文が改善されています。また、記事ではv4のロードマップについても触れられています。 TypeScript 5.4がリリースされました。 Announcing TypeScript 5.4 - TypeScript BetaやRCからの大きな機能的な追加などはありません。 クロージャーにおけるNarrowing結果の改善、NoInfer Utility Typeの追加、 --module preserveの追加が行われ
htmx 2.0.0-alpha1 Release I’m happy to announce the first alpha release of htmx 2.0 This is an alpha release and should NOT be considered ready for production. We are releasing it to begin testing the code against real world scenarios to figure out what is broken and what needs improvement. If you are able to do so, please switch to the release and do a quick run through any htmx-powered functiona
【Starling-LM-7B-alpha】小型なのにGPT-4と張り合うLLMを使ってみたら日本語対応力が凄かった 2024 2/14 Starling-LM-7B-alphaは、Reinforcement Learning from AI Feedback (RLAIF)という手法を用いて構築された最新の大規模言語モデルで、GPT-4ラベル付きランキングデータセットNectarと、新しい報酬モデルで学習及びポリシーチューニングが行われています。 このモデルの特徴は、最新のLLMであるOpenchat 3.5をベースに構築されており、一部のベンチマークスコアがあのGPT-4に迫るほどの性能を獲得している点です。 小型LLMながら、LLM界の巨人であるGPT-4と張り合うのは、映画「マトリックス」シリーズで 、システムに対する理解や戦闘訓練が不足していたネオが、次第に自身の能力を開花させて
Features [jest-config] [BREAKING] Add mts and cts to default moduleFileExtensions config (#14369) [jest-config] [BREAKING] Update testMatch and testRegex default option for supporting mjs, cjs, mts, and cts (#14584) [@jest/core] [BREAKING] Group together open handles with the same stack trace (#13417, & #14543) [@jest/core, @jest/test-sequencer] [BREAKING] Exposes globalConfig & contexts to TestSe
PLATEAUが『PLATEAU SDK for Unity』『PLATEAU SDK for Unreal』のv2.1.0-alphaを公開 航空写真や地図から取得したテクスチャを地面に張り付ける機能が追加 地物別にデフォルトマテリアルの設定が可能に PLATEAUは、『PLATEAU SDK for Unity v2.1.0-alpha』『PLATEAU SDK for Unreal v2.1.0-alpha』をGitHubにて公開しました。 GitHubに「#PLATEAU SDK for #Unity/Unreal (#UE)」のアルファ版v2.1.0をリリース! ・地形に航空写真や地図を貼り付ける機能を実装 ・地物別でデフォルトマテリアルに置換する機能を実装 ・インポート時の範囲選択画面のUIを改良 ■Unityhttps://t.co/f5NLtaJPGe ■UEhttps:/
、 10月も中旬になると 季節の移り変わりを肌で感じます(⸝⸝ᐡ. ̫ .ᐡ⸝⸝) 朝夕は羽織物が必須ですね 特に夜は 冷えます(๑•꙼꙼꙼꙼꙼꙼꙼ - •꙼๑)ムゥ 着るものの温度調節 大変ですが そこを楽しまなくては お洒落はできません₍ᐢ⸝⸝› ̫ ‹⸝⸝ᐢ₎ ˚✩∗*゚⋆。˚♡✩☪︎⋆。✩˚✩∗*゚⋆。˚✩⋆。˚✩ そこで上品なカジュアルコーディネート ˚✩∗*゚⋆。˚✩☪︎⋆。˚✩˚✩∗*゚⋆。˚✩☪︎⋆。˚✩ ❁.。.:*✿ 🦔カーディガン✿*:.。.❁ * UNIQLO ユニクロ 〜 INES DE LA FRESSANGE 〜 PARIS イネス・ド・ラ・フレサンジュ * ポインテールクルーネックカーディガン ポコポコとした編み地が可愛い 着心地は軽くて柔らかくゆったりしている 着丈もどんなものにも合わせやすい ふんわりとしたボックスシルエット 写真より実
Zephyr 7b Alphaは、Hugging FaceがリリースしたMistral AIのMistral 7bのファインチューニングモデルで、なんと10倍ほどモデルサイズが大きいChat Llama 70Bと同等の性能を持っています。 ファインチューニングで10倍の差を埋めるのはすごいですよね! 今回は、Zephyr 7b Alphaの概要や仕組み、実際に使ってみた感想をお伝えします。 是非最後までご覧ください! なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる Zephyr 7b Alphaの概要 Zephyr 7B Alphaは、Hugging FaceがリリースしたMistral AIのMistral 7bをファインチューニングしたモデルです。このモデルは、いくつかのベンチマークでChat Llama
Japanese-StableLM-Instruct-Alpha-7B-v2 "A parrot able to speak Japanese, ukiyoe, edo period" — Stable Diffusion XL Model Description japanese-stablelm-instruct-alpha-7b-v2 is a 7B parameter decoder-only language models pre-trained built on top of the Japanese-StableLM-Base-Alpha-7B model and further fine-tuned on various instruction-following datasets. Usage First install additional dependencies i
Japanese StableLM Instruct Alpha 7B v2 「Japanese StableLM Instruct Alpha 7B v2」は、汎用言語モデル「Japanese StableLM Base Alpha 7B」に対し追加学習を行い、ユーザーの指示に受け答えできるようにした日本語向け指示応答言語モデルです。 Stability AIは、2023年8月に、研究目的で作られた最初のバージョン「Japanese StableLM Instruct Alpha 7B」を公開しました。その後、さらに多くの方にJapanese StableLMに触れていただけるよう、商用利用可能なモデル開発を進めて参りました。 「Japanese StableLM Instruct Alpha 7B」との主な違いは、利用したデータセットです。商用利用を制限しないデータセットのみを利用し、
Stability AIが「Japanese InstructBLIP Alpha」をリリースしました。画像キャプションや質疑応答に活用できる日本語画像言語モデルです。 このAIニュースのポイント Stability AIが日本語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開 画像に対して説明を生成することや、画像に関する質問に回答することも可能 東京スカイツリーや金閣寺など日本特有の建造物に関しても正しく認識可能 Stability AIは、日本語に特化した画像言語モデル「Japanese InstructBLIP Alpha」を一般公開しました。このモデルは、画像に対してテキストで説明を生成する能力を持つだけでなく、画像に関する質問にもテキストで回答することが可能です。 「Japanese InstructBLIP Alpha」は、日本語向けの指
日本語画像言語モデル「Japanese InstructBLIP Alpha」をGoogle Colabで動かしてみました Japanese InstructBLIP Alpha 画像生成AI「Stable Diffusion」で有名なStability AIがリリースした、日本語向け画像言語モデルが「Japanese InstructBLIP Alpha」です。 用途は研究目的に限定されているようです。 「Japanese InstructBLIP Alpha」は研究目的で作成されたモデルであり、研究目的での利用に限定した公開となります。詳細は Hugging Face Hub のページをご確認ください。 というわけで研究目的(?)で触ってみます。 デモアプリを作る 既に偉大な先人(おなじみの方々)がやってらっしゃいました。 公式+これらの先人のコードを参考に、Google Colabで
このAIニュースのポイント Stability AI Japanは「Japanese StableLM Alpha」をリリース 汎用言語モデル「Japanese StableLM Base Alpha 7B」は、日本語と英語のテキスト生成に特化した言語モデル 指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」は、汎用言語モデルに対し追加学習を行い、ユーザーの指示に受け答え可能なモデル Stability AI Japanは、70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」をリリースしました。 汎用言語モデル「Japanese StableLM Base Alpha 7B」は、日本語と英語のテキ
画像生成AI「Stable Diffusion」を開発するStability AIが、日本語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開したと発表しました。入力した画像に対して日本語で説明を生成できる画像キャプション機能や、画像についての質問を日本語で入力すると日本語で回答する機能が搭載されています。 日本語画像言語モデル「Japanese InstructBLIP Alpha」をリリースしました — Stability AI Japan https://ja.stability.ai/blog/japanese-instructblip-alpha stabilityai/japanese-instructblip-alpha · Hugging Face https://huggingface.co/stabilityai/japanese-i
2023/08/12: Windows版のbitsandbytesのインストール方法について追記しました。 2023/08/12: PEFTのインストール方法と、学習後に保存されたLoRAモデルの読み込み方法について追記しました。 導入先日、Stability AI Japanから日本語の大規模言語モデル(LLM)として、70億パラメータの「Japanese StableLM Alpha 7B」が公開されました。 本記事の執筆時点(2023/8/11)で公開されているオープンな日本語モデルの中で、今回公開されたJapanese StableLM Alphaはベンチマークで最も高い精度を出しており、注目を集めています。 詳細については以下を参照してください https://ja.stability.ai/blog/japanese-stablelm-alpha 概要本記事では、Japanes
Japanese InstructBLIP Alpha Model Details Japanese InstructBLIP Alpha is a vision-language instruction-following model that enables to generate Japanese descriptions for input images and optionally input texts such as questions. Usage First install additional dependencies in requirements.txt: pip install sentencepiece einops import torch from transformers import LlamaTokenizer, AutoModelForVision2
Stability AIは日本語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開しました。入力した画像に対して文字で説明を生成できる画像キャプション機能に加え、画像についての質問を文字で入力することで回答することもできます。 Japanese InstructBLIP Alpha「Japanese InstructBLIP Alpha」は、先日公開された日本語向け指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を拡張した、画像を元にしたテキストが生成されるモデルです。 「Japanese InstructBLIP Alpha」は、高いパフォーマンスが報告されている画像言語モデルInstructBLIPのモデル構造を用いております。少ない日本語データセットで高性能なモデルを構築するために、モデルの一部を大規模な
「Google Colab」で「Japanese StableLM Alpha + LlamaIndex」の QA を試したのでまとめました。 【注意】Google Colab Pro/Pro+ のA100で動作確認しています。 1. 使用モデル今回は、「japanese-stablelm-instruct-alpha-7b」(8bit量子化)と埋め込みモデル「multilingual-e5-large」を使います。 3. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」で「GPU」の「A100」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install llama-index !pip install transformers accelerate bit
「Google Colab」で「Japanese StableLM Alpha」を試したので、まとめました。 【最新版の情報は以下で紹介】 1. Japanese StableLM Alpha「Japanese StableLM Alpha」は、「Stability AI Japan」が開発した70億パラメータの日本語LLMです。ベンチマーク「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開されている日本語向けモデルで最高の性能を発揮しています。 2. Japanese StableLM Alphaのモデル「Japanese StableLM Alpha」では、次の2種類のモデルが提供されています。 ・stabilityai/japanese-stablelm-base-alpha-7b : ベースモデル ・stabilityai/ja
Japanese-StableLM-Base-Alpha-7B "A parrot able to speak Japanese, ukiyoe, edo period" — Stable Diffusion XL Model Description japanese-stablelm-base-alpha-7b is a 7B-parameter decoder-only language model pre-trained on a diverse collection of Japanese and English datasets which focus on maximizing Japanese language modeling performance and Japanese downstream task performance. For an instruction-f
画像生成AI「Stable Diffusion」やその高性能版「SDXL」などで知られるAI開発企業・Stability AIが、日本語向けの汎用言語モデル「Japanese StableLM Base Alpha 7B」と、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を発表しました。 日本語言語モデル「Japanese StableLM Alpha」をリリースしました — Stability AI Japan https://ja.stability.ai/blog/japanese-stablelm-alpha 「Japanese StableLM」は2023年4月に発表されたオープンソース大規模言語モデル「StableLM」の日本語版にあたります。 Stability AIがオープンソースで商用利用も可能な大規模言語モデル「Stable
Stability AI Japan は70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を一般公開しました(略して「JSLM」)。これらのモデル はベンチマークスイート「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開されている日本語向けモデルで最高の性能を発揮しています。 汎用言語モデル「Japanese StableLM Base Alpha 7B」「Japanese StableLM Base Alpha 7B」はウェブを中心とした大規模なデータを用いてテキスト生成を学習したモデルです。学習データは主に日本語と英語で、それに加えソースコードが約2%含まれています。学習データに
Stability AI has just announced the release of Stable Code Alpha 3B, its very first LLM generative AI product for coding. This product is designed to assist programmers with their daily work while providing a great learning tool for new developers ready to take their skills to the next level. “a colorful parrot with glasses typing away at a computer, flat icon, vector” – SDXL 0.9 Stable Code Alpha
This post is also available in Español and 日本語. Today we are excited to announce that Cloudflare Snippets is available in alpha. In the coming weeks we will be opening access to our waiting list. What are Snippets?Over the past two years we have released a number of new rules products such as Transform Rules, Cache Rules, Origin Rules, Config Rules and Redirect Rules. These new products give more
AIのChatGPTは、多くの人々にとって興味深く、魅力的なものですが、自分のChatGPTが他の人よりも賢く感じられないと感じる初心者の方もいらっしゃるでしょう。そこで、適切な質問をすることが、ChatGPTを改善する最良の方法であることをご存知でしょうか?そこでFlowGPTでは、ChatGPTに最適な質問をするためのテンプレートを提供しています。 FlowGPTの概要FlowGPTの公式サイトはこちら: ChatGPTに適した質問をする方法を学ぶことは、Prompt engineeringのスキルの1つであり、AIの時代において非常に重要です。初心者の方々は、FlowGPTのテンプレートを直接使っていただけます。FlowGPTでは、ChatGPTの様々なPromptリストを集め、初心者の方々がChatGPTをより賢く使うことができるように支援しています。 https://flowgp
パカッと割れるキーボードでお馴染みのMistel Baroccoシリーズに、60%タイプの新モデル“MD600 Alpha”が登場。分離型メカニカルキーボードのパイオニア的モデルMD600の仕様を踏襲しながら、無線/有線接続両対応に進化を遂げました。以前から要望が多かった、親機をセパレートする“左ユニット”に変更することで、PCゲーマーやクリエーターの左手キーボードとしてもご利用いただけます。 ※注意: ①無線モード時は、左右ユニットをUSBケーブルで連結する必要があります。 ②左右各ユニット別々に無線接続使用することはできません。 ③無線接続時も左ユニットが親機です。キーボードの省電力(スリープ)モードから復帰時は、左ユニットのキーを押下する必要があります。
PikoPikoBits Alphaは、YAMAHAのPSG(SSG)音源IC「YMZ294」と、MIDIインターフェース(in/out)を搭載。Arduinoと組み合わせればチップチューンシンセ音源になる。 YMZ294の同時発音数は3音。MIDIチャンネルは10ch以外の1~16chすべてを受信可能で、MIDI OUTはソフトウェアでTHRUに変更できる。SW2を押すことで10chを受信し、ノイズ音源で作ったドラム音でリズムを演奏できる。 オーディオパワーアンプを搭載しているので、ヘッドホンや小型のスピーカーを接続して直接音を鳴らすことが可能だ。 スイッチサイエンスのオンラインショップにて販売中で、価格は6000円(税込)だ。
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く