並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 190件

新着順 人気順

NLPの検索結果1 - 40 件 / 190件

  • 【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM

    始めに こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです! 突然ですが、BERT、GPT-3、PaLMを使ったことはありますか?Transformerはこれらの最先端のモデルに使用されている、現代のNLPモデルには欠かせないモデルです。おそらくBERTやGPT-3でTransformerを知った、このページに来たという人も多いのではないでしょうか。機械学習、特にNLPの勉強をしている方々は、Transformerの概要は知っておいた方が良いと思います。 ただ多くのサイトは、いきなり細かい仕組みの解説をする中級者以上向けの記事が多いですよね。 そこで、このページでは、Transformerの入門〜中級までの解説をしていきます!まず入門として、「Transformerの使い道」「Transformerの何が凄いのか?」を先に解説します。その上で「T

      【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM
    • 5分でわかる 天才をインストールする「実践心理学NLP」を簡単図解

        5分でわかる 天才をインストールする「実践心理学NLP」を簡単図解
      • 『ポートピア連続殺人事件』にAIを搭載した技術デモが4月24日にPC(Steam)で無料配信決定。現在のNLP(自然言語処理)とはどのようなものかを体験できる内容に

        スクウェア・エニックスは4月24日(月)にNLP(自然言語処理)アドベンチャー『SQUARE ENIX AI Tech Preview: THE PORTOPIA SERIAL MURDER CASE』を公開すると発表した。プラットフォームはPC(Steam)となり、価格は無料で配信される。 本作は1983年に当時のエニックスから発売されたアドベンチャーゲーム『ポートピア連続殺人事件』を題材に、AI技術のひとつ「自然言語処理」という技術を構成する「自然言語理解(NLU)」について体験できるソフトウェアと位置付けられている。 原作の『ポートピア連続殺人事件』当時のアドベンチャーゲームはコマンド入力式と呼ばれ、プレイヤーが自由に文字列を入力することでキャラクターの行動を決定し、物語を進めていくというシステムだった。 この方法はプレイヤーに大きな自由度を与えられる一方で、とるべき行動が分かってい

          『ポートピア連続殺人事件』にAIを搭載した技術デモが4月24日にPC(Steam)で無料配信決定。現在のNLP(自然言語処理)とはどのようなものかを体験できる内容に
        • 文章のなかの地理空間 - 地理空間情報科学(GIS)と自然言語処理(NLP)の融合へ向けて -

          MIERUNE Meetup mini #4( https://mierune.connpass.com/event/257222/ )で使用した発表スライド(一部修正版)

            文章のなかの地理空間 - 地理空間情報科学(GIS)と自然言語処理(NLP)の融合へ向けて -
          • NLPに学ぶ「目標達成脳」の作り方!目標達成の5つの極意とは

              NLPに学ぶ「目標達成脳」の作り方!目標達成の5つの極意とは
            • Generative AI for Everyoneから、古のNLPエンジニアの心に刺さったこと8選|べいえりあ

              Generative AI for Everyoneについてこちらの講義は機械学習やAI教育についての第一人者と言っても過言ではない、Andrew Ng先生のLLMの応用についての講義になります。 タイトルにはGenerative AIとありますが、画像生成AIなどはほぼほぼ登場せず、基本的にはLLMをどう使うのかについての講義となっています。また、Everyoneとあるように機械学習の専門家やエンジニア以外でも分かる内容になっているかと思います。Andrew Ngは言語化が非常に上手いので、機械学習の専門家が見ても知識を整理する上で有用なんじゃないかと思います。 古のNLPエンジニア?自分がNLPを始めたのは2013~2014年くらいのちょうど深層学習がNLP業界に本格的に入ってきた時期です。10年程度で古のNLPエンジニアを名乗って良いのかは諸説あると思うのですが、その辺は温かい目で見

                Generative AI for Everyoneから、古のNLPエンジニアの心に刺さったこと8選|べいえりあ
              • 今年読んだNLP系論文で面白かった5つ - 株式会社ホクソエムのブログ

                ホクソエムサポーターの白井です。学生時代は自然言語処理の研究をしていました。 「今年読んだ論文、面白かった5つ」というテーマで、自然言語処理(NLP)の論文を紹介します。 主にACL anthologyに公開されている論文から選んでいます。 はじめに 今年のNLP界隈の概観 1. Text Processing Like Humans Do: Visually Attacking and Shielding NLP Systems 面白いと思った点 2. Errudite: Scalable, Reproducible, and Testable Error Analysis 面白いと思った点 3. Language Models as Knowledge Bases? 面白いと思った点 余談 4. A Structural Probe for Finding Syntax in Word

                  今年読んだNLP系論文で面白かった5つ - 株式会社ホクソエムのブログ
                • 実践者の1冊『コーチング1on1で成果を最大化する心理学NLP』ポイント解説

                    実践者の1冊『コーチング1on1で成果を最大化する心理学NLP』ポイント解説
                  • 新卒NLPエンジニアが取り組んだ音声合成システムにおける句境界予測モデルの導入

                    LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog はじめに こんにちは、2020年4月に新卒としてLINE株式会社に入社した二又 航介です。テキスト音声合成システムの研究開発を担当するAI開発室 Voiceチームに所属し、音声合成システムにおけるテキスト処理部の研究開発やチームの機械学習基盤構築に取り組んでいます。 学生時代は機械翻訳や同時通訳に関連する研究に取り組んでいました。研究以外の活動としては、アルバイト・インターンでの対話システムや機械翻訳システムの研究開発、個人活動としてwebアプリケーション開発などを行っていました。このような活動を通じて、数多くのユーザーに利用される自然言語処理技術を活かしたサービスに携わりたいという思いからLINEを志望しました。学生時代は専

                      新卒NLPエンジニアが取り組んだ音声合成システムにおける句境界予測モデルの導入
                    • コーチングとは? | NLPプロコーチ認定コース | 米国NLP&コーチング研究所公認

                      コーチングとは、「コミュニケーションを通じて変化を作りだし、クライアントの目標達成や問題解決をサポートするプロセス」をいいます。また米国NLP&コーチング研究所では、「企業や個人がより早く、より効率的に、目標達成や問題解決をする助けになること」と定義し、人生を大きく変えることができるものと教えてくれます。 コーチングの基本は「現状とゴール」の間にある差異を埋めることです。差異とは、クライアントが目標達成のためにクリアすべき問題です。「この差異を埋めるためにどうしたらいいか?」と考え、課題や解決策を明確にし、具体的なアクションに落とし込んでいきます。

                        コーチングとは? | NLPプロコーチ認定コース | 米国NLP&コーチング研究所公認
                      • オープンソースとしての形態素解析器Sudachi / WAP NLP Tech Talk #4

                        https://github.com/WorksApplications/Sudachi WAP NLP Tech Talk#4 Sudachi ユーザーLT大会 - connpass *** スライド中に登場したリンク 法律版のGoogle、正式ローンチしたLegalscapeがめざす「法のインフラ」とは何か? | Coral Capital 日本語における評価用データセットの構築と利用性の向上(JED2022) | NLP2022 Workshop on Japanese Evaluation Dataset 自然言語系AIサービスと著作権侵害 | STORIA法律事務所 Sudachi プラグインのチュートリアル Rustによる自然言語処理ツールの実装: 形態素解析器「sudachi.rs」 - Qiita 日本語形態素解析の裏側を覗く!MeCab はどのように形態素解析しているか

                          オープンソースとしての形態素解析器Sudachi / WAP NLP Tech Talk #4
                        • 自然言語処理とVision-and-Language / A Tutorial on NLP & Vision-and-Language

                          2022年度人工知能学会全国大会(第36回) チュートリアル講演資料

                            自然言語処理とVision-and-Language / A Tutorial on NLP & Vision-and-Language
                          • スクエニが研究している次世代アドベンチャーゲーム「NLPアドベンチャー」とは何か 人工知能を使った原点かつ最先端の新感覚ADV

                            ゲーム開発者向け技術イベント「CEDEC+KYUSHU 2022」では、スクウェア・エニックスの森友亮(もり ゆうすけ)氏より「自然言語処理技術による新世代コマンド入力式アドベンチャーゲームの制作手法」という講演が行われた。 森友亮氏はスクウェア・エニックスのAI部に所属する人工知能を研究する「AIリサーチャー」として活動している人物だ。「自然言語処理」の技術をエンターテイメントにおいて応用するための研究開発に従事している。 「自然言語」とは人間が日常的に使っている言葉のことで、さらに「自然言語処理」とはこうした人間の普段の言葉をコンピューターで解析して抽出する技術のことだ。人工知能の一分野でもあり、たとえばGoogle翻訳など現代ではなじみ深いサービスに応用されている。 さて、今回の講演ではこの自然言語処理(Natural Language Processing、略してNLP)を使った、

                              スクエニが研究している次世代アドベンチャーゲーム「NLPアドベンチャー」とは何か 人工知能を使った原点かつ最先端の新感覚ADV
                            • flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録

                              自然言語処理に限らず、機械学習関連のプロジェクトではスタート時は、なるべく複雑なコーディングをせずにシンプルなベースラインモデルを低コストで作成し、そこからデータの傾向やタスクの複雑さを把握することが重要です。 ところが自然言語処理では前処理のコストが高く、最低限でも単語分割、ベクトル化、深層学習を用いる場合は事前学習された埋め込みベクトルを準備する必要があります。その後は他のタスクと同様にモデルの保存方法や、予測のパイプラインで悩みポイントを抱えることが多いと思います。 最近はAutoMLを始めとした機械学習の自動化が進歩し、初手から高性能なモデルをブラウザ上で数クリックで作成できますが、中身がブラックボックスである故に前述のデータの傾向やタスクの複雑さを把握することを目的とした場合には適切とは言えない側面があります。 本記事では自然言語処理を対象にモデルの中身が参照可能でかつ少ないコー

                                flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録
                              • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

                                TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日本語Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

                                  日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
                                • RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog

                                  Amazon Prime 一ヶ月無料 Seq2seqからBERTまでのNLPモデルの歴史をざっとまとめる。 DNNは知ってるけどTransformerってなんだかわからない、って人におすすめです。 Abst. 画像認識にもTransformerが使われることが多く、DeepRLやGPT-3といったNLPモデルも身近になってきています。"Attention is 何?"と言えなくなってきたので勉強しました。 Feedforward NetworksからSeq2Seq, Attention機構からTransformer登場、そしてBERT GPTといった最新モデルまでの流れを広く浅く記述する予定。 またKaggle NLPコンペの上位解法から利用例を探る。 Tl;DR TransformerはSelf-Attentionという機構でデータ内の時系列的特徴を抽出でき、従来のRNNを始めとするNN

                                    RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog
                                  • GitHub - taishi-i/awesome-japanese-nlp-resources: A curated list of resources dedicated to Python libraries, LLMs, dictionaries, and corpora of NLP for Japanese

                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                      GitHub - taishi-i/awesome-japanese-nlp-resources: A curated list of resources dedicated to Python libraries, LLMs, dictionaries, and corpora of NLP for Japanese
                                    • 固有表現抽出のアノテーションデータについて - NLP太郎のブログ

                                      自然言語処理技術のなかでも固有表現抽出(Named Entity Recognition; NER)は情報抽出の処理をやろうとするときにとても役立つ。 応用は幅広く、会社名や個人名などの情報抽出処理、個人情報除去などのような抽出した情報に対する処理、代名詞の解析(照応解析・共参照解析)のような文脈解析処理などに用いられる。 最も簡単なNERの方法としては、辞書や形態素解析結果や正規表現などに基づくルールを用いて、単語列にラベリングする方法があるが、会社名など判断が難しいケースについては機械学習によってNERを行うことが有効なことが多い。機械学習ベースの既存の固有表現抽出器を使ってみたい場合には、GiNZAやKNPのようなNERモデルが同梱されているツールを使用してみるのがよい。 しかし公開モデルの性能では満足いかない場合に自分でモデルを構築しようとしても、公開データセットが見つけにくかった

                                        固有表現抽出のアノテーションデータについて - NLP太郎のブログ
                                      • GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜

                                        GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜

                                          GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
                                        • NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language

                                          DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム チュートリアル講演資料 Part2: Vision-and-Language

                                            NLPとVision-and-Languageの基礎・最新動向 (2) / DEIM Tutorial Part 2 Vision-and-Language
                                          • 楽しく生きる方法~私の人生が劇的に変化した実践心理学NLPの学び~

                                              楽しく生きる方法~私の人生が劇的に変化した実践心理学NLPの学び~
                                            • 深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ

                                              ホクソエムサポーターの白井です。今回はICLR2020 の論文を紹介します。 The International Conference on Learning Representations (ICLR) は機械学習の中でも特に深層学習 を専門とした国際会議です。 OpenReview.net によるopen peer reviewを採用しているので、submitされた論文はだれでも閲覧可能です。(ICLR2020 open review) 2020年はエチオピアで開催予定でしたが、COVID-19の影響でvirtual conferenceとなりました。 今回はNLP系の論文について5本紹介します。 すでに日本語ブログ記事で紹介されているような論文もありますが、自分が興味を持った部分を中心としてざっくりと紹介したいと思います。 以降、とくに記載がない場合、図は論文またはブログからの引用で

                                                深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ
                                              • BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈

                                                Google が 2018 年に発表した深層モデル BERT は、自然言語処理 (NLP) の多くのタスクでブレイクスルーを起こしました。性能面で進歩がある一方で、公平性に関するガイドラインが総務省から発表される等、産業界では解釈可能な AI を求める声が大きくなってきています。そこで本セッションでは、このギャップを埋めるために Microsoft Research が開発している、interpret-text と呼ばれる機械学習ライブラリをご紹介します。BERT を含む、様々な自然言語処理モデルを解釈するための 2 つの方法について解説し、簡単なデモをお見せします。 Deep Learning Digital Conference - connpass https://dllab.connpass.com/event/178714/

                                                  BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
                                                • nlp-survey

                                                  BERT後の自然言語処理についてのサーベイ

                                                    nlp-survey
                                                  • NLPとVision-and-Languageの基礎・最新動向 (1) / DEIM Tutorial Part 1: NLP

                                                    DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム チュートリアル講演資料 Part1: NLP

                                                      NLPとVision-and-Languageの基礎・最新動向 (1) / DEIM Tutorial Part 1: NLP
                                                    • ML and NLP Research Highlights of 2020

                                                      The selection of areas and methods is heavily influenced by my own interests; the selected topics are biased towards representation and transfer learning and towards natural language processing (NLP). I tried to cover the papers that I was aware of but likely missed many relevant ones—feel free to highlight them in the comments below. In all, I discuss the following highlights: Scaling up—and down

                                                        ML and NLP Research Highlights of 2020
                                                      • トップカンファレンスへの論文採択に向けて(NLP研究分野版)/ Toward paper acceptance at top conferences (NLP research field version)

                                                        トップカンファレンスへの論文採択に向けて(NLP研究分野版)/ Toward paper acceptance at top conferences (NLP research field version)

                                                          トップカンファレンスへの論文採択に向けて(NLP研究分野版)/ Toward paper acceptance at top conferences (NLP research field version)
                                                        • KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜

                                                          BERTopic は、Transformersを用いて文書のトピックモデリングを行うためのPythonライブラリです。本記事では、自分がKaggleコンペの初手EDAによく使うコードをまとめました。 入出力のイメージ 入力: 文章のリスト (例:["I am sure some bashers of Pens fans ...", "My brother is in the market for a high-performance video card that supports VESA local bus with 1-2MB RAM. Does anyone hav...", ...]) 出力: 各文書の関係性を表した2次元座標図 ソースコード 以下にもあります Github Google colab import pandas as pd from umap import UMA

                                                            KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜
                                                          • 『ドラクエ』堀井雄二×『倉庫番』今林宏行×『かまいたちの夜』我孫子武丸:鼎談<未来展望編>人工知能時代へ向けて「NLPアドベンチャー」の可能性を探索する

                                                            過去の探求が未来への展望を切り拓く。アドベンチャーゲームの新たな展開は、過去を踏まえつつAIの進化によって次なる局面へと進化しようとしている。ゲーム史が刻む足跡のひとつひとつが、私たちを新たな時代へと導いている。 前編となる<過去探求編>では、往年の「コマンド入力式ADV」の経験談や洞察、そして問題提起といった興味深い対話に耳を傾けた。後編の<未来展望編>では、AIがもたらす可能性や課題、自然言語処理(NLP)を活用した次世代ADV「NLPアドベンチャー」の現状に焦点を当てていく。往年の「コマンド入力式ADV」が、AIによってNLPアドベンチャーとして生まれ変わり、どのようなゲームデザインが求められているのか。 引き続き『ポートピア連続殺人事件』、『ドラゴンクエスト』の堀井雄二氏、『倉庫番』、『道化師殺人事件』の今林宏行氏、『かまいたちの夜』の我孫子武丸氏に登場してもらおう。さらにスクウェ

                                                              『ドラクエ』堀井雄二×『倉庫番』今林宏行×『かまいたちの夜』我孫子武丸:鼎談<未来展望編>人工知能時代へ向けて「NLPアドベンチャー」の可能性を探索する
                                                            • 自然言語処理と情報検索について(NLP AND IR)

                                                              友人たちとの勉強会で作成した資料 内容の正確性については保証しません。

                                                                自然言語処理と情報検索について(NLP AND IR)
                                                              • 機械学習、NLP論文の書き方(英語)

                                                                はじめに Kotoba Technologies, Inc. Co-Founder/CTO、Toyota Technological Institute at Chicago, Research Assistant Professorの笠井淳吾です。これまで自然言語処理(NLP)、機械学習の国際学会(ACL、ICLR、NeurIPS、EMNLP、ICCVなど)にて、投稿や発表を積み重ねてきましたが、一度自分なりに論文を書く際に考えていること、留意点、コツのようなものを言語化して共有したいと思います。個人の好みによるところも多々あるかと思いますので、取捨選択していただいて、皆さんの論文執筆の一助になることを願っています。 全体のストラクチャー まずは全体の流れから考えていきます。基本的に、論文を書く際には(多くの場合そもそもプロジェクトを始める前に)、タイトルをイメージしていきます。タイトル

                                                                  機械学習、NLP論文の書き方(英語)
                                                                • GitHub - nlp-with-transformers/notebooks: Jupyter notebooks for the Natural Language Processing with Transformers book

                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                    GitHub - nlp-with-transformers/notebooks: Jupyter notebooks for the Natural Language Processing with Transformers book
                                                                  • AIはまだ文の意味を理解していない——NLPの欠陥が突きつける課題

                                                                    米オーバーン大学の研究者らは、言語理解能力を測定するテストで高得点の自然言語システムが、文中の単語の順序の入れ替えに気づかないことを発見した。こうしたシステムは、文中のいくつかのキーワードを拾い上げてテストの課題を処理しているだけであり、人間のように文の意味を理解しているわけではない。 by Will Douglas Heaven2021.01.22 46 58 21 25 言語を理解しているように見える人工知能(AI)の多くは、一般的な言語理解の課題において人間より高い得点を出している。ところが、文中の単語が並べ替えられても、そのことに気づくことができない。つまり、AIは実際にはまったく言語を理解していないのだ。問題の原因は、自然言語処理(NLP)システムが訓練される方法にある。この問題はまた、どのようにして自然言語処理システムを改善すればよいかを指し示している。 アラバマ州オーバーン大

                                                                      AIはまだ文の意味を理解していない——NLPの欠陥が突きつける課題
                                                                    • 2021年のKaggle NLPコンペソリューションの共通戦略から学ぶ - Qiita

                                                                      この記事について この記事は Kaggleアドベントカレンダー の21日目の記事です。 昨日は u++ さんの【Weekly Kaggle News 2周年】クリック記事ランキング2021 でした。Transformer 強し。明日は @wokassis さんのワナビーからKagglerに〜コンペ所感〜です。 本記事では、2021年の NLP コンペの上位ソリューションから共通して使われている手法や方針を紹介します。 新しくNLPコンペに取り組む際に、基本的なことは試して次に何をすればよいかわからない、といった初学者向けに初期方針として参考になるかと思います。ある程度コンペに参加している人には「当たり前やろ〜」といった内容かもしれません。 2021年 NLP コンペ概要 2021年に終了したコンペは Coleridge Initiative - Show US the Data, Comm

                                                                        2021年のKaggle NLPコンペソリューションの共通戦略から学ぶ - Qiita
                                                                      • コンピュータはどうやって言葉を認識しているのか? 自然言語処理(NLP)を基礎から解説

                                                                        自然言語処理(NLP)を用いた読解タスクにおいて、人間の性能をAIが上回るケースが増えてきていることを皆さんはご存じでしょうか? 自然言語処理という言葉自体がメジャーというわけではないため、そもそも自然言語処理で何ができるの? という方も多いと思います。 そんな方でも、日常生活で一度は「Google翻訳」などの機械翻訳を利用したことがあると思います。また、Appleの「Siri」やスマートスピーカーの「Alexa」のようなバーチャルアシスタントは、音声認識や自然言語処理の技術で成り立っているため、近年の自然言語処理はすでに普及しているのです。 本連載は、以下の3部構成になっています。 自然言語処理とはどのようなものなのか 自然言語処理の一連の流れ センター試験英語の読解問題にチャレンジ この連載で扱うのは、難しい自然言語処理技術のほんの一部分になります。「自然言語処理って何に使えるの?」と

                                                                          コンピュータはどうやって言葉を認識しているのか? 自然言語処理(NLP)を基礎から解説
                                                                        • 【入門編】自然言語処理(NLP)とは | 意味・仕組み・活用例・課題 | Ledge.ai

                                                                          サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                                                                            【入門編】自然言語処理(NLP)とは | 意味・仕組み・活用例・課題 | Ledge.ai
                                                                          • 【実践NLPマネジメント 感謝とご報告(9部門で第1位)】

                                                                              【実践NLPマネジメント 感謝とご報告(9部門で第1位)】
                                                                            • The Super Duper NLP Repo

                                                                              Colab notebooks for various tasks in NLP

                                                                                The Super Duper NLP Repo
                                                                              • Evolutionary Optimization of�Model Merging Recipes (2024/04/17, NLPコロキウム)

                                                                                Evolutionary Optimization of�Model Merging Recipes (2024/04/17, NLPコロキウム)

                                                                                  Evolutionary Optimization of�Model Merging Recipes (2024/04/17, NLPコロキウム)
                                                                                • GitHub - megagonlabs/jrte-corpus: Japanese Realistic Textual Entailment Corpus (NLP 2020, LREC 2020)

                                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                    GitHub - megagonlabs/jrte-corpus: Japanese Realistic Textual Entailment Corpus (NLP 2020, LREC 2020)