タグ

ブックマーク / note.com/hamachi_jp (2)

  • オーディオ超解像技術 AudioSR を試す|はまち

    低解像度の音声データを超解像化をする拡散ベースの生成モデル AudioSR が公表されていました。リンク先に変換サンプルなどもあり、音声や自然音、音楽など幅広いジャンルの例が示されています。高い再現度であるようなので、さっそく試してみました。 インストール!pip install git+https://github.com/haoheliu/versatile_audio_super_resolution実行!GPUメモリを16GBくらい消費します。Google Colab無料枠だとメモリが足らなくて動かない感じでした。 !audiosr -i /content/kurumi.wav変換例変換前(サンプリングレート8kHz)

    オーディオ超解像技術 AudioSR を試す|はまち
  • RNNとTransformerの要素を組み合わせた新しいアーキテクチャ: RWKVとは?|はまち

    自分の勉強のために、RWKVの論文前半の仕組みの解説部分を、要約してみました。Transformerの考え方を踏襲しつつ、RNNのアイデアを取り入れたRWKVについて雰囲気をお伝えできれば幸いです。 なお、大事な論点の書き忘れ、認識間違いなどぜひコメントください。 背景・概要トランスフォーマー技術は、ほぼ全ての自然言語処理(NLP)タスクを革新しましたが、取り扱うトークン数が長くなるほど、計算量・メモリへの負担が二乗に比例して急増する問題点がありました。 これに対して、従来の再帰型ニューラルネットワーク(RNN)技術は、文章の長さに関わらず一定の計算量の増加で済むものの、並列化が難しいことや、スケーラビリティの制限から、性能はトランスフォーマーに比べて、劣っていました。 今回提案された、Receptance Weighted Key Value(RWKV)は、トランスフォーマーの高性能と、

    RNNとTransformerの要素を組み合わせた新しいアーキテクチャ: RWKVとは?|はまち
    kns_1234
    kns_1234 2023/05/28
  • 1