タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

LLMに関するseal2501のブックマーク (2)

  • AIのハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。

    長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。 「ハルシネーションを叩くな」終わり。 ①各種LLMの性能比較GPT系の今の性能はゴミクズ。マジで頭悪い。 例をあげよう。 簡単な論理クイズだ。 ###文章### Aさんは自身はCさんとは別人であると主張している。 Bさんは、Cさんの発言を記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。 Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。 ###質問### この文章に矛盾はありますか? 簡単すぎる。もはや論理ですらない。 人間なら一瞬でわかるレベルの矛盾である。小学生でも分かると思う。難しい知識や思考は必要としない。 では、色々なLLMの回答がこちら。 Copilot(旧 bingai)この文章を読む限り、矛盾は存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの

    AIのハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。
    seal2501
    seal2501 2024/03/25
    仮にChatGPTがハルシネーション対策を頑張っていて、Claudeはそうでないのどちらも説も真であれば、数年後にどのモデルが優秀なのか評価できるのが楽しみでしかたない。ちなみに自分は Copilot の答えが正しいと思った
  • NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website

    近年、ChatGPTを始めとする大規模言語モデル*1に大きな注目が集まっておりますが、これらは膨大な知識をモデル内に有することで高い言語処理性能を示す一方、学習に要するエネルギーは、原発1基1時間分の電力量が必要*2とも言われており、また、運用には大規模なGPUクラスタを必要とし様々な業界に特化するためのチューニングや推論にかかるコストが膨大であることから、サステナビリティおよび企業が学習環境を準備するための経済的負担面で課題があります。 NTTでは、これらの課題を解決する研究開発を進め、今回、軽量でありながら世界トップレベルの日語処理性能を持つ大規模言語モデル「tsuzumi*2」を開発しました。「tsuzumi」のパラメタサイズは6~70億と軽量であるため、市中のクラウド提供型LLMの課題である学習やチューニングに必要となるコストを低減します。「tsuzumi」は英語と日語に対応し

    NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website
    seal2501
    seal2501 2023/11/02
  • 1