Japanese-Starling-ChatV-7B-GGUF GGUF conversion of "Japanese-Starling-ChatV-7B" "Japanese-Starling-ChatV-7B" is a Japanese chat model built on top of "chatntq-ja-7b-v1.0", originally based on Mistral-7B-v0.1. I applied the chat vector acquired by subtracting the weights of Mistral-7B-v0.1 from the weights of "Starling-LM-7B-beta" to this model. このモデルはchatntq-ja-7b-v1.0をベースにした7Bパラメータの日本語チャットモデルです。高
This is a Japanese sentence-BERT model. 日本語用Sentence-BERTモデル(バージョン2)です。 バージョン1よりも良いロス関数であるMultipleNegativesRankingLossを用いて学習した改良版です。 手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。 事前学習済みモデルとしてcl-tohoku/bert-base-japanese-whole-word-maskingを利用しました。 従って、推論の実行にはfugashiとipadicが必要です(pip install fugashi ipadic)。 旧バージョンの解説 https://qiita.com/sonoisa/items/1df94d0a98cd4f209051 モデル名を"sonoisa/sentence-be
傍若無人にふるまう人もいますが。)\n\n上記の文章を読んで、 に入れるのに最も適したものを以下の選択肢から選び、その理由を答えなさい。\n\n- だから\n- また\n- むしろ\n- もちろん"},"output":{"kind":"string","value":"文章中のに適した選択肢は「もちろん」です。\n\nの周辺では自発的な意志によって社会の秩序が保たれているという筆者の主張に対し、「傍若無人にふるまう人もいる」という反論を予想し予め掲げているため、「もちろん」が適切です。"},"eval_aspect":{"kind":"string","value":"- 選択肢を外している場合: -4点\n- 理由が的外れな場合: -2点\n- 理由の説明として(反論を)予想する旨が記述されていない場合: -1点\n"}}},{"rowIdx":7,"cells":{"input":{
Discover amazing ML apps made by the community
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く