次の単語を予測するのはTransformerではなくGPTの学習方法。Transformerの中のSelf Attentionはある単語との関連が大きい単語に重み付けしているだけ。

sek_165sek_165 のブックマーク 2024/04/17 12:34

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される

    さまざまな数学的トピックをムービー形式で解説するサイト「3Blue1Brown」において、ChatGPTに代表されるAIを形作っている「Transformer」構造の心臓部「Attention(アテンション)」についての解説が行われていま...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう