記事へのコメント2

    • 注目コメント
    • 新着コメント
    misshiki
    misshiki “このページは、巨大な日本語の臨床テキスト(約1億2000万行)で事前トレーニングされたBERTモデルを公開しています。”

    2020/04/30 リンク

    その他
    powerhouse63w
    powerhouse63w 万病辞書

    2020/04/30 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    UTH-BERT: a BERT pre-trained with Japanese clinical text – 医療AI・デジタルツイン開発学講座

    Abstract This page publishes a Bidirectional Encoder Representations from Transformers (BERT) mod...

    ブックマークしたユーザー

    • nabinno2023/01/18 nabinno
    • DummyWitty2021/08/16 DummyWitty
    • nikkie-ftnext2020/05/01 nikkie-ftnext
    • misshiki2020/04/30 misshiki
    • sakito09022020/04/30 sakito0902
    • tuki09182020/04/30 tuki0918
    • xef2020/04/30 xef
    • chess-news2020/04/30 chess-news
    • Hiro_Matsuno2020/04/30 Hiro_Matsuno
    • Gln2020/04/30 Gln
    • ayaniimi2132020/04/30 ayaniimi213
    • masahiko_of_joytoy2020/04/30 masahiko_of_joytoy
    • slay-t2020/04/30 slay-t
    • shogo_okamoto2020/04/30 shogo_okamoto
    • knok2020/04/30 knok
    • lyiase2020/04/30 lyiase
    • powerhouse63w2020/04/30 powerhouse63w
    • yag_ays2020/04/29 yag_ays
    すべてのユーザーの
    詳細を表示します

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事