タグ

ディープラーニングと自然言語処理とBERTに関するmisshikiのブックマーク (4)

  • 自然言語処理の最新モデル 日本語版ELECTRAを公開しました | 株式会社シナモン(シナモンAI)

    こんにちは。シナモンAI広報担当です。 シナモンAIでは自然言語処理技術を用いたプロダクトAurora Clipper(オーロラ・クリッパー)を展開しており、特定の文脈を持つ日付や人物名の取得、長い文章からの要点抽出、テキストの分類など様々な用途で用いられる製品を提供しております。 弊社では100名程度のAIリサーチャーを抱えており、その中でも自然言語処理に特化したチームではAurora Clipperの基礎となるAIモデルも日々改善しています。記事では、自然言語処理技術に関わる研究の成果として日語版ELECTRAを公開したため、弊社のPMが概要をご紹介いたします。 自然言語処理の課題 自然言語処理はその名の通り、言葉を数値情報として取り扱うことで、言葉の持つ意味を解析します。 この技術が特に注目されるようになったのは、Google Brainが2018年5月にBERT (Bidire

    自然言語処理の最新モデル 日本語版ELECTRAを公開しました | 株式会社シナモン(シナモンAI)
    misshiki
    misshiki 2020/09/11
    “BERTの後継となるアルゴリズムです。 ELECTRAは、これまで画像認識の分野で利用されてきたGAN (敵対的生成ネットワーク:Generative Adversarial Network)のアイデアを、言語モデルの学習に適用したものとなります。”GitHubで公開。
  • Qiitaのスパム狩りをしたらAutoMLに仕事を奪われた件 - Qiita

    知っている人は知っていると思うが、Qiitaではたびたび大量のスパム記事が投稿されている。 深夜24~26時頃に記事一覧を確認してみて欲しい。 スパム記事がわんさか出てくるはず。 登録したてのQiitaユーザは不安よな。1 ———— @dcm_chida 動きます🧐 はじめに これはNTTドコモサービスイノベーション部AdventCalendar2019の1日目の記事です。 我々の部署では日頃から「KDDCUP2」や「論文読み会」に取り組んでおり、若手から中堅社員まで最先端の技術取得に励んでいます。 そうした活動をもっと外部へと発信していこうと始めたのがこのAdventCalendarです。社員一人一人が書いた記事を通して、少しでも多くの方に興味を持って頂ければ幸いです。 さて、僕は4年目社員ですがプログラミング初心者の頃から現在に至るまで、Qiitaにはかなりお世話になりました。 自分

    Qiitaのスパム狩りをしたらAutoMLに仕事を奪われた件 - Qiita
  • BERT解説:自然言語処理のための最先端言語モデル | AI専門ニュースメディア AINOW

    著者のRani Horev氏はイスラエル出身で、イスラエル国防省のデータサイエンス・チームリーダーを務めたこともあるAI研究者です。同氏が英語長文記事メディアMediumに投稿した記事では、Googleが2018年10月に発表した自然言語処理モデルであるBERTの特徴が解説されています。 Google AI Languageチームが2018年10月に発表されたBERTは、質疑応答や自然言語推論といった様々な自然言語処理のタスクにおいて先行する言語モデルを凌駕する性能を実現しました(BERTのベンチマークテストに関する詳細は記事末尾の(※註7)を参照)。近年の言語AIモデルのベンチマークになっているタスクは、未知の文字列に対して適切な関係にある単語あるいは文字列を予測するという予測問題を解くことと同義となります。例えば質疑応答タスクにおいては、南カリフォルニアの略称を問う質問を意味する文字

    BERT解説:自然言語処理のための最先端言語モデル | AI専門ニュースメディア AINOW
  • BERT(バート)とは?次世代の自然言語処理の凄さやできること・書籍を紹介 | AI専門ニュースメディア AINOW

    最終更新日: 2022年4月11日 現在、「BERT」というモデルが自然言語処理の分野で幅広く使用されています。 しかし、BERTと聞いても何のことかよくわからないという人がほとんどなのではないでしょうか。 そこで記事では、BERTとはなにか、BERTの仕組みや特徴、活用事例などを紹介していきます。 BERTとは BERTとは、Bidirectional Encoder Representations from Transformersを略したもので、「双方向Transformerによる汎用的な言語表現モデル」として、2018年10月11日にGoogleによって公開されました。 これは、「双方向Transformer」によって言語モデルを事前学習することで汎用性を獲得し、さらに転移学習させることで8個のベンチマークタスクで最先端の結果を達成しました。 つまり、一つの言語モデルを一度事前学

    BERT(バート)とは?次世代の自然言語処理の凄さやできること・書籍を紹介 | AI専門ニュースメディア AINOW
  • 1