記事へのコメント7

    • 注目コメント
    • 新着コメント
    misshiki
    misshiki “「他のサイトの解説は難しすぎる」「もっと直感的に理解したい」という方々の役に立てるように解説”

    2023/02/24 リンク

    その他
    l-_-ll
    l-_-ll “RNNを使用した従来モデルには、二つの大きな問題点がありました。「長期記憶が苦手」、「並列処理ができない」”

    2023/02/23 リンク

    その他
    airhealthy
    airhealthy 適当にまとめているから結構間違ったこと書いてない?

    2023/02/23 リンク

    その他
    yottsusan
    yottsusan 最後のすっ飛ばし感がすごいと思ったけど、transformerだけに要約密度が高くなってしまったということか。

    2023/02/23 リンク

    その他
    tanority
    tanority 興味があったので解説はありがたい

    2023/02/23 リンク

    その他
    yarumato
    yarumato “機械学習で有名な BERT(Google開発、テキストの分類、要約)、GPT-3(OpenAI開発、自然な文章の生成)などの大規模モデルはTransformerをベースに進化し続けている。従来の逐次処理から並列処理で学習時間を大幅に短縮”

    2023/02/23 リンク

    その他
    kotesaki
    kotesaki 最近は初学者向けの解説記事でるから嬉しい。これもOpenAIのお陰かな

    2023/02/22 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM

    始めに こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです!...

    ブックマークしたユーザー

    • lefsy2024/01/11 lefsy
    • thaturn2023/06/20 thaturn
    • matsukaz2023/04/28 matsukaz
    • makaya22023/04/11 makaya2
    • c_mutoh2023/04/07 c_mutoh
    • qinmu2023/03/30 qinmu
    • serihiro2023/03/22 serihiro
    • bongkura2023/03/22 bongkura
    • makaya2023/03/16 makaya
    • devicex2023/03/15 devicex
    • takatama2023/03/14 takatama
    • s_ryuuki2023/03/01 s_ryuuki
    • Akineko2023/02/27 Akineko
    • mathtonica2023/02/27 mathtonica
    • kackii2023/02/27 kackii
    • koma_g2023/02/25 koma_g
    • midas365452023/02/25 midas36545
    • miguchi2023/02/24 miguchi
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事