並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 746件

新着順 人気順

NLPの検索結果1 - 40 件 / 746件

  • 形態素解析ツールの比較 (NLP2018) - Qiita

    NLP2018のワークショップに行ってきたのですが、そこで聞いてきたことのうち、形態素解析ツールに関することを大雑把にまとめておきます。聞いたことをまとめることが目的なので、詳細は各ツールのWebサイトやgithubページへ行ってください。 間違っている部分、追加したい内容があればコメントでお願いします。 追記: 2018/04/02 nlp2018の発表資料が公開されました。 Juman++ (リンク) MeCab (リンク) KyTea (リンク) Unidic (リンク) https://sites.google.com/view/nlp2018ws/ NLP2018 形態素解析の今とこれから 趣旨: どういう手法・ツールをどのようなタスクに対して使うべきかを選べるように、各ツールの開発者の発表を基に比較してもらうこと。 さまざまな発表がありましたが、形態素解析ツールに焦点を当ててま

      形態素解析ツールの比較 (NLP2018) - Qiita
    • ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning

      Introduction of Deep Reinforcement Learning, which was presented at domestic NLP conference. 言語処理学会第24回年次大会(NLP2018) での講演資料です。 http://www.anlp.jp/nlp2018/#tutorialRead less

        ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
      • Deep LearningとNLPの最新論文の情報を集める方法 - あおのたすのブログ

        (5/29 追記:Deep Learning のGoogleグループコミュニティを追加) (6/8 追記:松尾研究室の勉強会ページを追加) (6/13 追記:neural language notesを追加) はじめまして。@aonotas(あおのたす)です。 Deep Learningと自然言語処理に興味があります。 好きなフレームワークはChainerです。 さて、Deep Learningが自然言語処理のタスクでも応用されています。 ACLやEMNLPなど国際会議でもタイトルに「Neural」が入ったものが多いですが、arxivにも査読前の論文がよくアップロードされています。 (スピードが早くて追いつくの大変ですよねorz) そこで最新のDeep Learningの論文の集め方を紹介したいと思います。(あくまで私個人の方法です。皆さんどうしてるか教えてもらえると嬉しいです。) 面白い

          Deep LearningとNLPの最新論文の情報を集める方法 - あおのたすのブログ
        • 文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)

          言語処理学会第20回年次大会(2014/3)のチュートリアル講義資料です。 - 要旨 - 文法圧縮とは,入力テキストをよりコンパクトな文脈自由文法(CFG)に変換する圧縮法の総称である. 文法圧縮の強みは圧縮テキストを展開すること無く,検索等のテキスト処理を効率よく行える点にある. 驚くべきことにその処理速度は,元テキスト上での同じ処理を理論的に,時には実際にも凌駕する. また近年,ウェブアーカイブやログ,ゲノム配列等の大規模実データを高効率に圧縮できることで注目を集めている. しかしながら,文法圧縮についての初学者向けの解説資料はまだまだ少ない. そこで本チュートリアルでは,文法圧縮の歴史的背景から最新動向までを幅広く紹介する. 具体的には文法変換アルゴリズム,圧縮テキスト上での文字列パターン検索,文法圧縮に基づく省メモリデータ構造等の解説を行う.Read less

            文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
          • 【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM

            始めに こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです! 突然ですが、BERT、GPT-3、PaLMを使ったことはありますか?Transformerはこれらの最先端のモデルに使用されている、現代のNLPモデルには欠かせないモデルです。おそらくBERTやGPT-3でTransformerを知った、このページに来たという人も多いのではないでしょうか。機械学習、特にNLPの勉強をしている方々は、Transformerの概要は知っておいた方が良いと思います。 ただ多くのサイトは、いきなり細かい仕組みの解説をする中級者以上向けの記事が多いですよね。 そこで、このページでは、Transformerの入門〜中級までの解説をしていきます!まず入門として、「Transformerの使い道」「Transformerの何が凄いのか?」を先に解説します。その上で「T

              【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM
            • 【決定版】年間1万人が学ぶ「心理学NLPとは?」NLPが仕事、人生、人間関係で使える理由

                【決定版】年間1万人が学ぶ「心理学NLPとは?」NLPが仕事、人生、人間関係で使える理由
              • 5分でわかる 天才をインストールする「実践心理学NLP」を簡単図解

                  5分でわかる 天才をインストールする「実践心理学NLP」を簡単図解
                • 『ポートピア連続殺人事件』にAIを搭載した技術デモが4月24日にPC(Steam)で無料配信決定。現在のNLP(自然言語処理)とはどのようなものかを体験できる内容に

                  スクウェア・エニックスは4月24日(月)にNLP(自然言語処理)アドベンチャー『SQUARE ENIX AI Tech Preview: THE PORTOPIA SERIAL MURDER CASE』を公開すると発表した。プラットフォームはPC(Steam)となり、価格は無料で配信される。 本作は1983年に当時のエニックスから発売されたアドベンチャーゲーム『ポートピア連続殺人事件』を題材に、AI技術のひとつ「自然言語処理」という技術を構成する「自然言語理解(NLU)」について体験できるソフトウェアと位置付けられている。 原作の『ポートピア連続殺人事件』当時のアドベンチャーゲームはコマンド入力式と呼ばれ、プレイヤーが自由に文字列を入力することでキャラクターの行動を決定し、物語を進めていくというシステムだった。 この方法はプレイヤーに大きな自由度を与えられる一方で、とるべき行動が分かってい

                    『ポートピア連続殺人事件』にAIを搭載した技術デモが4月24日にPC(Steam)で無料配信決定。現在のNLP(自然言語処理)とはどのようなものかを体験できる内容に
                  • スタンフォード大学の自然言語処理(NLP)の授業公開っぷりがとてつもない件 - Unchained Life

                    以前からMITのOCWを中心にアメリカの大学の授業のビデオや資料などが公開されているのは知っていたが、今日知ったスタンフォード大学の授業公開っぷりがものすごい。 http://see.stanford.edu/SEE/lecturelist.aspx?coll=63480b48-8819-4efd-8412-263f1a472f5a 授業のビデオだけではなく、なんと授業のtranscript、つまり授業中に先生がしゃべったことがテキストに書き起こされているのだ。 MITなどでも授業のビデオは公開されていたが、当然授業の内容を理解するには授業資料がある場合にせよ、何をしゃべっているかを自分で聞き取るほか無く、リスニング力が低い僕には結構ネックだった。 それが今回しゃべる内容がテキストになっているということで聞き取れなくてもテキストを見ればよいし、リスニングの勉強にもなる。 しかも公開されてい

                      スタンフォード大学の自然言語処理(NLP)の授業公開っぷりがとてつもない件 - Unchained Life
                    • 文章のなかの地理空間 - 地理空間情報科学(GIS)と自然言語処理(NLP)の融合へ向けて -

                      MIERUNE Meetup mini #4( https://mierune.connpass.com/event/257222/ )で使用した発表スライド(一部修正版)

                        文章のなかの地理空間 - 地理空間情報科学(GIS)と自然言語処理(NLP)の融合へ向けて -
                      • GitHub - rakuten-nlp/rakutenma: Rakuten MA - morphological analyzer (word segmentor + PoS Tagger) for Chinese and Japanese written purely in JavaScript.

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                          GitHub - rakuten-nlp/rakutenma: Rakuten MA - morphological analyzer (word segmentor + PoS Tagger) for Chinese and Japanese written purely in JavaScript.
                        • 仕事、人間関係、恋愛で使える心理学NLPとは?人生のステージを変えるための心理学

                            仕事、人間関係、恋愛で使える心理学NLPとは?人生のステージを変えるための心理学
                          • NLPに学ぶ「目標達成脳」の作り方!目標達成の5つの極意とは

                              NLPに学ぶ「目標達成脳」の作り方!目標達成の5つの極意とは
                            • NLP 100 Drill Exercises - 東北大学 乾研究室 / Inui Lab, Tohoku University

                              言語処理100本ノックについて † 言語処理100本ノックは,言語処理を志す人を対象とした,プログラミングのトレーニング問題集です. 乾・岡崎研の新人研修勉強会の一つであるLearning Programmingで使われています. このトレーニングは,以下の点に配慮してデザインされています. 自然言語処理の研究を進める上で,一度は書いておいた方がよいプログラム 統計,機械学習,データベースなどの便利な概念・ツールを体験する 実用的で,かつワクワクするようなデータを題材とする 研究を進めるうえで重要なプログラミングのルール・作法を身につける モジュール性や組み合わせを考慮しつつ,短くてシンプルなプログラムを書く プログラムの動作を確認(デバッグ)しながらコーディングする 労力を節約する(既存のツール/プログラム/モジュールが使えるときは流用する) 計算資源(メモリ・実行時間)を無駄にしない方

                              • 最近のDeep Learning (NLP) 界隈におけるAttention事情

                                Neural Network with Attention Mechanism for Natural Language Processing: survey

                                  最近のDeep Learning (NLP) 界隈におけるAttention事情
                                • 自分が感動した人生、NLP、機械学習に関連したプレゼンテーションとブログ記事 - Topics Related to Computers and NLP

                                  自分の一年と少しという短い研究期間で最も気に入っているプレゼンテーションやブログ記事を何点か挙げる。 全部技術的な発表や記事ではなく、自分の心に深い部分に何かを語りかけたモノを挙げていく。 1.パターン認識と機械学習入門 パターン認識と機械学習入門 タイトルからして「うわ、、数式一杯やだな」と思うかもしれないが、これは人が人生を送るうえでやっていることを、機械学習の世界に絡めたプレゼンテーションである。数式は一切ない。 自分が特に気に入っているのは「みにくいアヒルの子定理」の直観的解説の部分。これは「人は自分の価値基準(=事前知識orコスト関数と自分は解釈)を用いないと、最適かどうかを判断できなくなる」と自分は解釈している。あなたが人生で何を大切にするのか?を考えないと、現実でも機械学習の世界でも何も判断できないよ、というメッセージが自分の心に刻み込まれた。 2013年6月15日追記: 上

                                    自分が感動した人生、NLP、機械学習に関連したプレゼンテーションとブログ記事 - Topics Related to Computers and NLP
                                  • Deep Learning for NLP Best Practices

                                    Deep Learning for NLP Best Practices Neural networks are widely used in NLP, but many details such as task or domain-specific considerations are left to the practitioner. This post collects best practices that are relevant for most tasks in NLP. This post gives an overview of best practices relevant for most tasks in natural language processing. Update July 26, 2017: For additional context, the Ha

                                      Deep Learning for NLP Best Practices
                                    • Generative AI for Everyoneから、古のNLPエンジニアの心に刺さったこと8選|べいえりあ

                                      Generative AI for Everyoneについてこちらの講義は機械学習やAI教育についての第一人者と言っても過言ではない、Andrew Ng先生のLLMの応用についての講義になります。 タイトルにはGenerative AIとありますが、画像生成AIなどはほぼほぼ登場せず、基本的にはLLMをどう使うのかについての講義となっています。また、Everyoneとあるように機械学習の専門家やエンジニア以外でも分かる内容になっているかと思います。Andrew Ngは言語化が非常に上手いので、機械学習の専門家が見ても知識を整理する上で有用なんじゃないかと思います。 古のNLPエンジニア?自分がNLPを始めたのは2013~2014年くらいのちょうど深層学習がNLP業界に本格的に入ってきた時期です。10年程度で古のNLPエンジニアを名乗って良いのかは諸説あると思うのですが、その辺は温かい目で見

                                        Generative AI for Everyoneから、古のNLPエンジニアの心に刺さったこと8選|べいえりあ
                                      • GiNZA - Japanese NLP Library

                                        Skip to the content. GiNZAの公開ページ What’s new! ja_ginza_bert_largeのβ版を公開中 cl-tohoku/bert-large-japanese-v2をベースモデルに採用 精度が大幅に向上(LAS=0.938, UAS=0.949, UPOS=0.983, ENE=0.708) CUDAに対応し8GB以上のRAMを搭載したGPU環境、または、M1・M2などApple Silicon環境の利用を推奨 GiNZA v5.1.3 spaCy v3.2 ~ v3.6に対応 GiNZA v5.1 spaCy v3.2とSudachi.rs(SudachiPy v0.6.2)に対応 バッチ解析処理をGPU環境で50〜60%・CPU環境で10〜40%高速化 ginzaコマンドの並列実行オプション(ginza -p {n_process}およびgi

                                        • 研究者流 コーディングの極意 言語処理学会第19回年次大会(NLP2013) チュートリアル資料(岡崎担当分)

                                          言語処理学会第19回年次大会 (NLP2013) チュートリアル資料(岡崎担当分) 岡崎 直観 東北大学大学院情報科学研究科 okazaki at ecei.tohoku.ac.jp http://www.chokkan.org/ @chokkanorg 研究者流 コーディングの極意 1 研究におけるコーディングの極意? • 今回のチュートリアルをきっかけにサーベイ – ソフトウェアエンジニア向けの指南書は存在 – でも,研究者向けの資料は数少ない • 自分が修士課程の頃は完全に我流だった – 複数文書自動要約のプログラムをすべてC++で実装 – *NIXを使うスキルはなく,すべてWindows上で実行 – 今から考えると,無駄だらけの実験作法だった • ほとんどの大学では実験の講義があるが… – 研究のためのコーディング作法は教えてくれない 2 繰り返される残念な光景 • 論文の締切前日

                                          • 自然言語処理(NLP) - 星の本棚

                                            自然言語処理 [NLP : natural language processing] 自然言語処理(NLP)に関してのマイノートです。 特に、ニューラルネットワーク、ディープラーニングによる自然言語処理(NLP)を重点的に取り扱っています。 今後も随時追加予定です。 尚、ニューラルネットワークに関しては、以下の記事に記載しています。 yagami12.hatenablog.com 又、より一般的な機械学習に関しては、以下の記事に記載しています。 yagami12.hatenablog.com 目次 [Contents] 自然言語処理(NLP) one-hot encode と one-hot ベクトル 埋め込みベクトル [embedding vector] と埋め込み行列 [embedding matrix] 言語モデル [LM : Language model] N グラム言語モデル ニ

                                              自然言語処理(NLP) - 星の本棚
                                            • 今年読んだNLP系論文で面白かった5つ - 株式会社ホクソエムのブログ

                                              ホクソエムサポーターの白井です。学生時代は自然言語処理の研究をしていました。 「今年読んだ論文、面白かった5つ」というテーマで、自然言語処理(NLP)の論文を紹介します。 主にACL anthologyに公開されている論文から選んでいます。 はじめに 今年のNLP界隈の概観 1. Text Processing Like Humans Do: Visually Attacking and Shielding NLP Systems 面白いと思った点 2. Errudite: Scalable, Reproducible, and Testable Error Analysis 面白いと思った点 3. Language Models as Knowledge Bases? 面白いと思った点 余談 4. A Structural Probe for Finding Syntax in Word

                                                今年読んだNLP系論文で面白かった5つ - 株式会社ホクソエムのブログ
                                              • GitHub - megagonlabs/ginza: A Japanese NLP Library using spaCy as framework based on Universal Dependencies

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - megagonlabs/ginza: A Japanese NLP Library using spaCy as framework based on Universal Dependencies
                                                • 実践者の1冊『コーチング1on1で成果を最大化する心理学NLP』ポイント解説

                                                    実践者の1冊『コーチング1on1で成果を最大化する心理学NLP』ポイント解説
                                                  • 新卒NLPエンジニアが取り組んだ音声合成システムにおける句境界予測モデルの導入

                                                    LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog はじめに こんにちは、2020年4月に新卒としてLINE株式会社に入社した二又 航介です。テキスト音声合成システムの研究開発を担当するAI開発室 Voiceチームに所属し、音声合成システムにおけるテキスト処理部の研究開発やチームの機械学習基盤構築に取り組んでいます。 学生時代は機械翻訳や同時通訳に関連する研究に取り組んでいました。研究以外の活動としては、アルバイト・インターンでの対話システムや機械翻訳システムの研究開発、個人活動としてwebアプリケーション開発などを行っていました。このような活動を通じて、数多くのユーザーに利用される自然言語処理技術を活かしたサービスに携わりたいという思いからLINEを志望しました。学生時代は専

                                                      新卒NLPエンジニアが取り組んだ音声合成システムにおける句境界予測モデルの導入
                                                    • NLP論文ネタ一覧

                                                      by Graham Neubig 「言語処理を研究したいけれど、ネタが思いつかない」という人は世の中にいるかと思います。 このように困っている人を助けるべく、以下の論文ネタを1,000本分考えました*。 面白そうなものがあったら、ぜひご自由に研究してください**。 翻訳別アクセス 割込における複合語構文の分析と自動評価 外国語ネット時間の効果の訳文に関する考察 発話講義のための文の自動評価と文脈の変化方法の評価 京都機械翻訳の曖昧性検証 大規模コーパスを話動画抽出文ふさわし支援システム 画像情報を対象とした文行為発表語の抽出 医薬・半教師条件対訳辞書非対話における日本語単語用辞書ANASYS推定 Web検索エンジンを用いた推論曖昧性知識の構築 解説クラスタリング辞書と構築に対する反義を考慮した類別発言 言い動詞・評価者の上位判定に着目した評価語彙いデータ基盤方法 日英統計翻訳における複数の

                                                      • コーチングとは? | NLPプロコーチ認定コース | 米国NLP&コーチング研究所公認

                                                        コーチングとは、「コミュニケーションを通じて変化を作りだし、クライアントの目標達成や問題解決をサポートするプロセス」をいいます。また米国NLP&コーチング研究所では、「企業や個人がより早く、より効率的に、目標達成や問題解決をする助けになること」と定義し、人生を大きく変えることができるものと教えてくれます。 コーチングの基本は「現状とゴール」の間にある差異を埋めることです。差異とは、クライアントが目標達成のためにクリアすべき問題です。「この差異を埋めるためにどうしたらいいか?」と考え、課題や解決策を明確にし、具体的なアクションに落とし込んでいきます。

                                                          コーチングとは? | NLPプロコーチ認定コース | 米国NLP&コーチング研究所公認
                                                        • オープンソースとしての形態素解析器Sudachi / WAP NLP Tech Talk #4

                                                          https://github.com/WorksApplications/Sudachi WAP NLP Tech Talk#4 Sudachi ユーザーLT大会 - connpass *** スライド中に登場したリンク 法律版のGoogle、正式ローンチしたLegalscapeがめざす「法のインフラ」とは何か? | Coral Capital 日本語における評価用データセットの構築と利用性の向上(JED2022) | NLP2022 Workshop on Japanese Evaluation Dataset 自然言語系AIサービスと著作権侵害 | STORIA法律事務所 Sudachi プラグインのチュートリアル Rustによる自然言語処理ツールの実装: 形態素解析器「sudachi.rs」 - Qiita 日本語形態素解析の裏側を覗く!MeCab はどのように形態素解析しているか

                                                            オープンソースとしての形態素解析器Sudachi / WAP NLP Tech Talk #4
                                                          • NLP関係のリソースまとめ - nokunoの日記

                                                            先日オープンソースのtrieライブラリについてまとめましたが、それ以外にも家での開発に使えるリソースが増えてきました。 コーパス WikipediaコーパスTwitterコーパスBaiduコーパスWebコーパスWikipedia対訳コーパスオープンソース対訳コーパスMS-IMEコーパス 辞書 WikipediaタイトルはてなキーワードIPAdicUnidicalt-cannadicSKK評判辞書

                                                            • 自然言語処理とVision-and-Language / A Tutorial on NLP & Vision-and-Language

                                                              2022年度人工知能学会全国大会(第36回) チュートリアル講演資料

                                                                自然言語処理とVision-and-Language / A Tutorial on NLP & Vision-and-Language
                                                              • スクエニが研究している次世代アドベンチャーゲーム「NLPアドベンチャー」とは何か 人工知能を使った原点かつ最先端の新感覚ADV

                                                                ゲーム開発者向け技術イベント「CEDEC+KYUSHU 2022」では、スクウェア・エニックスの森友亮(もり ゆうすけ)氏より「自然言語処理技術による新世代コマンド入力式アドベンチャーゲームの制作手法」という講演が行われた。 森友亮氏はスクウェア・エニックスのAI部に所属する人工知能を研究する「AIリサーチャー」として活動している人物だ。「自然言語処理」の技術をエンターテイメントにおいて応用するための研究開発に従事している。 「自然言語」とは人間が日常的に使っている言葉のことで、さらに「自然言語処理」とはこうした人間の普段の言葉をコンピューターで解析して抽出する技術のことだ。人工知能の一分野でもあり、たとえばGoogle翻訳など現代ではなじみ深いサービスに応用されている。 さて、今回の講演ではこの自然言語処理(Natural Language Processing、略してNLP)を使った、

                                                                  スクエニが研究している次世代アドベンチャーゲーム「NLPアドベンチャー」とは何か 人工知能を使った原点かつ最先端の新感覚ADV
                                                                • 社内でNLP2017 & DEIM2017読み会を開催しました - Hatena Developer Blog

                                                                  こんにちは。ウェブアプリケーションエンジニアのid:syou6162です。 はてな社内で機械学習や自然言語処理に興味のあるエンジニアが集まる機械学習サブ会という技術グループがあるのですが、その機械学習サブ会が主催で言語処理学会第23回年次大会(NLP2017)と第9回データ工学と情報マネジメントに関するフォーラム(DEIM2017)の論文読み会を行ないました。このエントリでは、その中でも特に面白かった論文を簡単にレポートしていきたいと思います。なお、論文PDFは各学会ページで公開されているものを参照しています。 ニュース制作に役立つtweetの自動抽出手法 疑似データの事前学習に基づくEncoder-decoder型日本語崩れ表記正規化 データ拡張による感情分析のアスペクト推定 文体の類似度を考慮したオンライン小説推薦手法の提案 機械学習を用いた航空会社の業務支援システムの開発 このユーザ

                                                                    社内でNLP2017 & DEIM2017読み会を開催しました - Hatena Developer Blog
                                                                  • NLP2017 NMT Tutorial「ゼロから始めるニューラルネットワーク機械翻訳」

                                                                    Toshiaki NakazawaResearcher of Japan Science and Technology Agency (JST) at Kyoto University

                                                                      NLP2017 NMT Tutorial「ゼロから始めるニューラルネットワーク機械翻訳」
                                                                    • flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録

                                                                      自然言語処理に限らず、機械学習関連のプロジェクトではスタート時は、なるべく複雑なコーディングをせずにシンプルなベースラインモデルを低コストで作成し、そこからデータの傾向やタスクの複雑さを把握することが重要です。 ところが自然言語処理では前処理のコストが高く、最低限でも単語分割、ベクトル化、深層学習を用いる場合は事前学習された埋め込みベクトルを準備する必要があります。その後は他のタスクと同様にモデルの保存方法や、予測のパイプラインで悩みポイントを抱えることが多いと思います。 最近はAutoMLを始めとした機械学習の自動化が進歩し、初手から高性能なモデルをブラウザ上で数クリックで作成できますが、中身がブラックボックスである故に前述のデータの傾向やタスクの複雑さを把握することを目的とした場合には適切とは言えない側面があります。 本記事では自然言語処理を対象にモデルの中身が参照可能でかつ少ないコー

                                                                        flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録
                                                                      • 【書評】『マンガでわかる! すぐに使えるNLP』 | ライフハッカー・ジャパン

                                                                        そんなときにこそ「NLP」が有効だと主張しているのは、『マンガでわかる! すぐに使えるNLP』(藤川とも子著、日本実業出版社)の著者。かつて心理学を学ぶ過程において、産業カウンセラー資格を取得。その延長線上で、2002年にNLPに出会ったという人物です。 人とコミュニケーションをする際に、発話と文字がありますが、発話の中には、たくさんのメッセージが含まれています。 低い声、小さい声、あるいは、ゆっくりとした話ぶりやそれぞれの個性のある話し方、そして振る舞いなどからのメッセージを、できる限り正確に受け取る方法と発信する方法が、NLPにはあります。(「まえがき」より) はたしてNLPとはなんなのでしょうか? 序章「これだけは知っておきたいNLPの基礎知識」に焦点を当て、基本的な考え方などを確認してみたいと思います。 NLPの成り立ちを知ろうNLPは“Neuro Linguistic Progr

                                                                          【書評】『マンガでわかる! すぐに使えるNLP』 | ライフハッカー・ジャパン
                                                                        • NLP学び方ガイド(NLPとは)|資格セミナー総合情報サイト|協会 公式

                                                                          NLPを知り、学ぶことで何が得られるのか・・・? NLPは「脳の取り扱い説明書」と言われ 目標の実現法や問題や悩みの解決に役立てられています。 そして最強のコミュニケーションスキルとして 仕事や家庭などの人間関係の構築や修復にも活用されています。 例えば、、、 自分らしく充実した人生を生きることができる 自分のパターンを変えることで人生を豊かにする 仕事でより高い結果が出せる 人間関係がより良くなる 悩みやコンプレックスを解消することができる あなたはこの中で、特にどの項目を実現したいですか? NLPはこれらを実現して行く実践心理学です。 では、そのNLPとはどのようなものなのか、詳しくご紹介していきましょう! 「NLPとは?」の続きはこちらへ

                                                                            NLP学び方ガイド(NLPとは)|資格セミナー総合情報サイト|協会 公式
                                                                          • 言語処理学会第17回年次大会(NLP2011)ワークショップ 「自然言語処理における企業と大学と学生の関係」

                                                                            本ワークショップは終了いたしました。ご協力いただいた皆様、どうもありがとうございました。 twitterのまとめ。 twitterのハッシュタグは #gengo2011ws です。 自然言語処理に関係した企業と大学と学生の関係が変化しています。 自然言語処理に関する大学での研究内容と企業での応用が非常に近くなって来ています。 企業がデータを大学等に提供し、その研究成果が社会に還元される仕組みができつつあります。 多くの学生は大学での研究活動の後に企業に入り、研究所や事業部での活躍が期待されています。 企業はより優秀な頭脳を集めるために、これまでの枠に捕われない採用姿勢をとる傾向が強まっています。 インターン制度により学生が企業の中身を事前に知ることができるようになっていますが、範囲は限定されています。 本ワークショップでは、企業、大学、学生の3者の間での相互理解を目的に、それぞれの 立場や

                                                                            • GitHub - taishi-i/awesome-japanese-nlp-resources: A curated list of resources dedicated to Python libraries, LLMs, dictionaries, and corpora of NLP for Japanese

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - taishi-i/awesome-japanese-nlp-resources: A curated list of resources dedicated to Python libraries, LLMs, dictionaries, and corpora of NLP for Japanese
                                                                              • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

                                                                                TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日本語Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

                                                                                  日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
                                                                                • RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog

                                                                                  Amazon Prime 一ヶ月無料 Seq2seqからBERTまでのNLPモデルの歴史をざっとまとめる。 DNNは知ってるけどTransformerってなんだかわからない、って人におすすめです。 Abst. 画像認識にもTransformerが使われることが多く、DeepRLやGPT-3といったNLPモデルも身近になってきています。"Attention is 何?"と言えなくなってきたので勉強しました。 Feedforward NetworksからSeq2Seq, Attention機構からTransformer登場、そしてBERT GPTといった最新モデルまでの流れを広く浅く記述する予定。 またKaggle NLPコンペの上位解法から利用例を探る。 Tl;DR TransformerはSelf-Attentionという機構でデータ内の時系列的特徴を抽出でき、従来のRNNを始めとするNN

                                                                                    RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog