minotonminoton のブックマーク 2019/10/29 11:53

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding - Qiita

    BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingNLP言語モデル 概要 Transformer を用いた双方向言語モデルを提案 Bidirectional Encoder Representation from Transformer (...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう