並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 63 件 / 63件

新着順 人気順

GPT-2の検索結果41 - 63 件 / 63件

  • 画像の半分から残りを生成、オープンAIがGPT-2を応用

    オープンAIは、機械学習技術を利用して、画像の半分から残り半分を予測し、1つの画像を完成させられるAIシステムを開発した。以前に開発した驚くほど自然な「フェイクニュース」を量産できる文章作成ツールの画像版だ。 by Karen Hao2020.07.22 24 18 6 6 サンフランシスコに拠点を置く非営利の研究機関オープンAI(OpenAI) は2019年2月、もっともらしい英語の文章を書ける人工知能(AI)システムを発表した。「GPT-2」と呼ばれるこのAIシステムに文章や段落の冒頭部分を入力すると、AIが文章の続きを勝手に考えてくれるというものだ。GPT-2はエッセー程度の長さの文章まで生成でき、その内容はまるで人間が書いた文章のように一貫性がある。 そして今、オープンAIは、GPT-2と同じアルゴリズムに、画像の一部を与えたら何が起きるのかを探っている。重大な影響力と可能性に満ち

      画像の半分から残りを生成、オープンAIがGPT-2を応用
    • AI-Generated Magic: The Gathering Cards with GPT-2

      Generate custom Magic: The Gathering cards from an AI using GPT-2 GPT-2 MTG is disabled, but you can access a more-up-to-date, faster version in this Colab Notebook. A more robust Magic: The Gathering AI that allows card generation is in the pipeline! Made by Max Woolf using gpt-2-simple and gpt-2-cloud-run. Inspired by RoboRosewater and DroidRosewater. This website has no affiliation with Wizards

      • 【自然言語処理】日本語GPT-2モデルをファインチューニングして文章生成をやってみる

        はじめに 2022年11月にOpenAIが公開したchatGPTの反響が凄いですね。 公開6日目にして100万人がユーザー登録したとか。 今のところは、無料で使うことができますが、いずれは利用が制限されるかもしれませんね。 ここでは、chatGPTよりは精度が落ちますが、無料で使うことができて、日本語に特化した事前学習済みモデルもあるGPT-2を採り上げ、文章生成にチャレンジしたいと思います。 具体的にはrinna社が開発したGPT-2モデルを使用します。 事前学習済みモデルだけでもそれなりの文章を生成できますが、せっかくなので、特定のドメインでファインチューニングさせてみて、文章生成をしていきたいと思います。 rinna社の日本語GPT-2の特徴 言語モデルは、会話や文章の「人間が使う言葉」を確率としてモデル化したものです。優れた言語モデルとは、確率を正確に推定できるものを指します。例え

          【自然言語処理】日本語GPT-2モデルをファインチューニングして文章生成をやってみる
        • Huggingface Transformers 入門 (27) - rinnaの日本語GPT-2モデルの推論|npaka

          「rinna」の日本語GPT-2モデルが公開されたので、推論を試してみました。 ・Huggingface Transformers 4.4.2 ・Sentencepiece 0.1.91前回 特徴は、次のとおりです。 ・学習はCC-100のオープンソースデータ。 ・Tesla V100 GPUで70GBの日本語テキストを約1カ月学習。 ・モデルの性能は約18 perplexity。2. rinnaの日本語GPT-2モデルの推論(1) Huggingface TransformersとSentencePieceをインストール。 # Huggingface Transformersのインストール !pip install transformers==4.4.2 # Sentencepieceのインストール !pip install sentencepiece==0.1.91(2) 日本語GPT

            Huggingface Transformers 入門 (27) - rinnaの日本語GPT-2モデルの推論|npaka
          • GPT-2: 6-month follow-up

            We’re releasing the 774 million parameter GPT-2 language model after the release of our small 124M model in February, staged release of our medium 355M model in May, and subsequent research with partners and the AI community into the model’s potential for misuse and societal benefit. We’re also releasing an open-source legal agreement to make it easier for organizations to initiate model-sharing p

              GPT-2: 6-month follow-up
            • sangmin.eth @ChoimiraiSchool on Twitter: "これはすごい!ソースコードを解析しあらゆる言語のオートコンプリートを提供するのが、TabNine 。新しいリリースでは、 ①GitHubにある2万本以上のファイルを分析 ②GPT-2で次に予想されるコードを提案(Pythonの例… https://t.co/fxDJBqBYa4"

              これはすごい!ソースコードを解析しあらゆる言語のオートコンプリートを提供するのが、TabNine 。新しいリリースでは、 ①GitHubにある2万本以上のファイルを分析 ②GPT-2で次に予想されるコードを提案(Pythonの例… https://t.co/fxDJBqBYa4

                sangmin.eth @ChoimiraiSchool on Twitter: "これはすごい!ソースコードを解析しあらゆる言語のオートコンプリートを提供するのが、TabNine 。新しいリリースでは、 ①GitHubにある2万本以上のファイルを分析 ②GPT-2で次に予想されるコードを提案(Pythonの例… https://t.co/fxDJBqBYa4"
              • GitHub - guillaume-be/rust-bert: Rust native ready-to-use NLP pipelines and transformer-based models (BERT, DistilBERT, GPT2,...)

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - guillaume-be/rust-bert: Rust native ready-to-use NLP pipelines and transformer-based models (BERT, DistilBERT, GPT2,...)
                • 東京都が業務にチャットGPT 23日に全庁導入 5万人が利用へ

                  チャットGPTの画面を開き「全庁導入」に向けた取り組みを加速する都職員=7月12日午後2時47分、都庁(外崎晃彦撮影) 自動で文章を作り出すなどの高い利便性で利用が急拡大する生成AI(人工知能)の「チャットGPT」について、東京都は23日から学校職員を含む約5万人の都職員が業務で使えるようにする。文書の作成や要約などに活用し、仕事の効率化やサービス向上を目指す。都民からは情報漏洩などの懸念の声も上がるが、都はセキュリティー配慮や研修などを徹底し、慎重な運用を目指す。 「都民の生活をよくするために、デジタル技術を使って行政を進めている部署です。デジタル技術を使うことで、サービスの質がとてもよくなります」 これは都のデジタルサービス局が、都庁を見学などに訪れた小学生向けに、局の業務を分かりやすく説明する文章の作成をチャットGPTに指示した際の回答だ。業務効率向上のため、チャットGPTの活用の在

                    東京都が業務にチャットGPT 23日に全庁導入 5万人が利用へ
                  • 【論文解説】OpenAI 「GPT-2」を理解する

                    今回は、LINEによる汎用的な超巨大言語モデルの開発の話題もあり、GPT-2以上に話題になっているOpenAI GPT-3について解説したいと思います。 結構長い論文ですが、論文の最後の方の内容も非常 ... まず、GPT-2論文の背景を説明しておきます。 2018年以降、ULMFiT、ELMo、OpenAI GPT、BERTと大規模な言語コーパスを使って教師なし学習で事前学習を行い、そのあとに特定のタスクについて教師あり学習でファインチューニングする手法により、目覚ましい成果があげられています。 しかしながら、これらのモデルもまだ数千や数万といった教師ありデータでファインチューニングしなければなりません。 人間については、そんなに大量のデータで学習しなくても、少しの追加の学習や手引きがあればタスクを解くことができます。 そこでGPT-2では、より人間に近い、汎用的に使えるモデルを構築する

                      【論文解説】OpenAI 「GPT-2」を理解する
                    • 日本語で学習させたGPT2でGPT3っぽいことを試してみた | ソフトウェア開発のギークフィード

                      こんにちは。音声認識エンジンの研究開発をしている大橋です。 今回はGPT3の一世代前のアーキテクチャであるGPT2を使ってGPT3ライクなクエリを試してみました。 GPT3とは ディープラーニング界の今年一番の発表は何と言ってもGPT3でしょう。 GPT3はパラメータ数175Bという超巨大アーキテクチャにスクレイピングしまくったウィキペディアのダンプが小さく見える超巨大データを約5億円とも6億円とも言われる費用をクラウドGPUに突っ込んで学習させたモデルです。 GPT3って何?っていう方は前回のブログを参照して頂けますでしょうか。 以前GPT3については多少触れましたが、一番の面白さはその使い方です。どんなデータをインプットするかによって、アウトプットされる型が変わります。インプットするデータの形式を工夫することで一つのモデルで文章生成、要約、質問に対してイエス/ノーで回答、質問に対して文

                        日本語で学習させたGPT2でGPT3っぽいことを試してみた | ソフトウェア開発のギークフィード
                      • パラメタ数1.5Bのgpt2-XLを学習した話

                        この度、gpt2論文を参考に最大サイズのgpt2の日本語版モデルを学習し公開いたしました。 この記事では学習にあたり工夫した点や問題点等を書き連ねます。シングルノードですが比較的大きなモデルを学習しているので知見などを共有できればと思います。 なお学習はA100(40gb)8枚のノードを使って合計70日程かけて学習しました。 現在公開されているdecoder系モデルのうち今回作成したモデルに近い規模のモデルは知る限り2つあり、こちらはgpt3論文を参考にパラメタ設定をしていると考えられ、今回作成したモデルとは層の深さと隠れ層の次元が異なります。 https://huggingface.co/rinna/japanese-gpt-1b https://huggingface.co/yellowback/gpt-neo-japanese-1.3B rinna/japanese-gpt-1bは生

                          パラメタ数1.5Bのgpt2-XLを学習した話
                        • GitHub - jaymody/picoGPT: An unnecessarily tiny implementation of GPT-2 in NumPy.

                          Accompanying blog post: GPT in 60 Lines of Numpy You've seen openai/gpt-2. You've seen karpathy/minGPT. You've even seen karpathy/nanoGPT! But have you seen picoGPT??!? picoGPT is an unnecessarily tiny and minimal implementation of GPT-2 in plain NumPy. The entire forward pass code is 40 lines of code. picoGPT features: Fast? ❌ Nah, picoGPT is megaSLOW 🐌 Training code? ❌ Error, 4️⃣0️⃣4️⃣ not foun

                            GitHub - jaymody/picoGPT: An unnecessarily tiny implementation of GPT-2 in NumPy.
                          • Huggingface Transformers 入門 (28) - rinnaの日本語GPT-2モデルのファインチューニング|npaka

                            「rinna」の日本語GPT-2モデルが公開されたので、ファインチューニングを試してみました。 ・Huggingface Transformers 4.4.2 ・Sentencepiece 0.1.91 【最新版の情報は以下で紹介】 1. rinnaの日本語GPT-2モデルのファインチューニング(1) 「Colab Pro」のメニュー「編集 → ノートブックの設定」で「GPU」の「ハイメモリ」を選択。 ファインチューニングは大量のメモリを消費するので、この設定が必須になります。 (2) データの永続化 # データの永続化 from google.colab import drive drive.mount('/content/drive') !mkdir -p '/content/drive/My Drive/work/' %cd '/content/drive/My Drive/work

                              Huggingface Transformers 入門 (28) - rinnaの日本語GPT-2モデルのファインチューニング|npaka
                            • 最新のニューラル会話モデルでおしゃべりしよう! - GPT-2でチャットボット作成 - チャットボットひろば

                              >>> import transformers >>> tokenizer = transformers.GPT2Tokenizer.from_pretrained("gpt2") >>> tokenizer.tokenize("お腹が空いた") ['ãģ', 'Ĭ', 'è', 'ħ', '¹', 'ãģĮ', 'ç', '©', 'º', 'ãģĦ', 'ãģŁ'] 日本語はスペースで単語が分けられていないため、トークナイザは文「お腹が空いた」を一単語として認識し、その後あらかじめ学習しておいたトークン単位に分割しています。 バイト単位での分割のため、入力した文字数よりも多くのトークンが出現していることもわかります。 このような観点から、GPT-2 を日本語で使おうとしたとき、 日本語用のトークナイザに変更する その上で、GPT-2 を事前学習する 必要があります。 以上を踏まえて、

                              • The Annotated GPT-2

                                Introduction Prerequisites Language Models are Unsupervised Multitask Learners Abstract Model Architecture (GPT-2) Model Specifications (GPT) Imports Transformer Decoder inside GPT-2 CONV1D Layer Explained FEEDFORWARD Layer Explained ATTENTION Layer Explained Scaled Dot-Product Attention Multi-Head Attention GPT-2 Model Architecture in Code Transformer Decoder Block Explained The GPT-2 Architectur

                                • めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート(アスキー) - Yahoo!ニュース

                                  「Spreadsheets are all you need.ai」というウェブサイトでは、Excelのスプレッドシートを使って、LLM(GPT2)がどのように動作するかを再現している。 【もっと写真を見る】 OpenAIの「ChatGPT」やマイクロソフトの「Copilot」、グーグルの「Gemini」など、対話型AIの心臓部である大規模言語モデル(LLM)。だがその仕組を理解するにはプログラミングの知識が不可欠だ。 「Spreadsheets are all you need.ai」というウェブサイトでは、驚くことにExcelのスプレッドシートを使って、LLM(GPT2)がどのように動作するかを再現している。 GPT-2をローカルで再現 同サイトで提供されている「Spreadsheets-are-all-you-need」は、大規模言語モデル(LLM)の動きを再現するExcelシートだ

                                    めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート(アスキー) - Yahoo!ニュース
                                  • OpenGPT-2: We Replicated GPT-2 Because You Can Too

                                    Aaron Gokaslan*, Vanya Cohen*, Ellie Pavlick, Stefanie Tellex | Brown University IntroductionRecently, large language models like BERT¹, XLNet², GPT-2³, and Grover⁴ have demonstrated impressive results in generating text and on multiple NLP tasks. Since Open-AI has not released their largest model at this time (but has released their 774M param model), we seek to replicate their 1.5B model to allo

                                      OpenGPT-2: We Replicated GPT-2 Because You Can Too
                                    • openai-community/gpt2 · Hugging Face

                                      GPT-2 Test the whole generation capabilities here: https://transformer.huggingface.co/doc/gpt2-large Pretrained model on English language using a causal language modeling (CLM) objective. It was introduced in this paper and first released at this page. Disclaimer: The team releasing GPT-2 also wrote a model card for their model. Content from this model card has been written by the Hugging Face tea

                                        openai-community/gpt2 · Hugging Face
                                      • 日本語GPT-2を強化学習(Policy Gradient)でfine-tuningする - Qiita

                                        概要 本記事では言語モデルであるGPT-2を強化学習でfine-tuningしていきます.学習済みのGPT-2は分け隔てない大量の文章で学習されているため,標準的な文章の出力を行うように学習されています.この出力を我々が設定した価値関数などを使って,望む出力に歪められるのではないでしょうか? 具体的に本記事では,日本語版のGPT-2をネガティブな文章ばかり出力するように報酬を設定した強化学習でファインチューニングしていきたいと思います! 関連事項 Transformerベースの自己回帰型の言語モデルで,言語の生成モデルです.自己回帰モデルは単語に対して次の単語を予測する処理を繰り返すことで,文章を生成することができます.単語予測にはGreedySearchやBeamSearch,サンプリングが使用されます.今回はこちらの学習済みモデルを使用させていただいております. 本記事では強化学習の中

                                          日本語GPT-2を強化学習(Policy Gradient)でfine-tuningする - Qiita
                                        • rinna、日本語に特化したGPT-2の大規模言語モデルをオープンソース化

                                          rinnaは4月7日、日本語に特化したGPT-2の大規模言語モデルを構築し、オープンソースとして公開した。 同社はMicrosoftのAI&リサーチ部門でAIチャットボットの研究を行なっていたチームがスピンアウトして2020年6月に設立したAI開発企業。文脈に応じた会話文を自動生成して人間と自然に会話する「共感チャットモデル」、AIが話し声や歌声で豊かな感情表現を可能にする「音声合成システム」などの技術を発表。AIチャットボット「りんな」や、会話内容や音声表現をカスタマイズしてキャラクター性を持たせたAIチャットボット「AIキャラクター」の開発に応用されている。 新たに製品開発のための自然言語処理(NLP)の実験過程で、日本語に特化したGPT-2の大規模言語モデル(機械学習をもとにした会話や文章の「人間が使う言葉らしさ」を確率としてモデル化したもの)を構築。日本語のNLP研究コミュニティー

                                            rinna、日本語に特化したGPT-2の大規模言語モデルをオープンソース化
                                          • 図解 GPT-2|npaka|note

                                            以下の記事が面白かったので、ざっくり翻訳しました。 ・The Illustrated GPT-2 (Visualizing Transformer Language Models) はじめに今年は、機械学習の素晴らしい応用が見られました。「GPT-2」は、「言語モデル」が作り出せると予想していたものをはるかに超える、首尾一貫した情熱的なエッセイを書きました。「GPT-2」は特に目新しいアーキテクチャではありませんでしたが、大規模なデータセットで学習された、非常に大規模なTransformerベースの「言語モデル」でした。 【パート1】  GPT-2と言語モデル1-1. 言語モデル「言語モデル」は、文章の一部を見て次の単語を予測するモデルです。最も有名な「言語モデル」は、スマートフォンのキーボードアプリの現在入力を元に次の単語を提案してくれる機能です。 「GPT-2」も、基本的にこの次の単語

                                              図解 GPT-2|npaka|note
                                            • [自然言語処理][GPT2]GPT2で日本語文章生成 - Qiita

                                              はじめに 今回はrinnaのjapanese-gpt-mediumを用いた文章生成を行なっていきます。 また、芥川龍之介の小説のデータを用いてfine-tuningを行って見るところまでをしてみようと思います!果たして、芥川っぽい小説が完成するのか楽しみですね、、、! 開発環境

                                                [自然言語処理][GPT2]GPT2で日本語文章生成 - Qiita
                                              • GitHub - microsoft/Megatron-DeepSpeed: Ongoing research training transformer language models at scale, including: BERT & GPT-2

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - microsoft/Megatron-DeepSpeed: Ongoing research training transformer language models at scale, including: BERT & GPT-2