並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 4 件 / 4件

新着順 人気順

readabilityの検索結果1 - 4 件 / 4件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

readabilityに関するエントリは4件あります。 プログラミング開発機械学習 などが関連タグです。 人気エントリには 『textstatを使用したreadabilityの計算 - Qiita』などがあります。
  • textstatを使用したreadabilityの計算 - Qiita

    はじめに 先日、kaggleのCommonLit Readability Prizeというコンペに参加しました。 このコンペの目的は、 アメリカの教育現場における、3年生から12年生のクラスで使用する読み物の複雑さを評価するアルゴリズムを構築すること というものでした。 現状の課題は以下のように説明されていました(DescriptionをDeepLで翻訳)。 現在、ほとんどの教育用テキストは、伝統的な読みやすさの方法や市販の計算式を使って読者に合わせています。しかし、それぞれに問題があります。Flesch-Kincaid Grade Levelのようなツールは、テキストのデコーディング(単語あたりの文字数や音節数など)や構文の複雑さ(文章あたりの単語数など)の弱い指標に基づいています。そのため、構成要素や理論的妥当性に欠けています。また、Lexileのように市販されている計算式は、コストが

      textstatを使用したreadabilityの計算 - Qiita
    • Code readability

      **The new version is available!** https://gist.github.com/munetoshi/65a1b563fb2c271f328c121a4ac63571 This deck is old version. --- Session 1: Introduction and Principles - https://speakerdeck.com/munetoshi/code-readability?slide=2 Session 2: Naming - https://speakerdeck.com/munetoshi/code-readability?slide=75 Session 3: Comments - https://speakerdeck.com/munetoshi/code-readability?slide=160 Sessio

        Code readability
      • Links of Code readability presentation

        code-readability-links.md Code readability presentation links English version Session 1: Introduction and Principles - https://speakerdeck.com/munetoshi/code-readability-session-1-ver-2-en Session 2: Naming - https://speakerdeck.com/munetoshi/code-readability-session-2-ver-2-en Session 3: Comments - https://speakerdeck.com/munetoshi/code-readability-session-3-ver-2-en Session 4: State - https://sp

          Links of Code readability presentation
        • Kaggle「CommonLit Readability Prize」コンペ25位の振り返りと上位解法まとめ - u++の備忘録

          8月2日に終了したKaggle「CommonLit Readability Prize」コンペにチームで参加し、25位でした。 3682チーム参加で、17位までが金メダル圏内で、もう一歩という結果でした。 コンペ概要 チームでの取り組み 上位解法 全体共通の傾向 1位 2位 3位 4位 5位 6位 9位 12位 13位 14位 15位 16位 コンペ概要 英語の文章の「読みやすさ」の値を-3から3程度の範囲(大きいほど読みやすい)*1で予測する問題でした。 正解の値は、2つの文章の比較結果を利用する「Bradley–Terry model」*2で付けられていたそうです*3。 推論時は文章単体に対してスコアを予測する必要がありました。 データセットのサイズは小さく、学習用データセットが約3000で、評価用データセットが2000*4以下でした。 与えられたデータセットのカラムは、以下の通りです

            Kaggle「CommonLit Readability Prize」コンペ25位の振り返りと上位解法まとめ - u++の備忘録
          1

          新着記事