並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 592件

新着順 人気順

machine_translationの検索結果1 - 40 件 / 592件

  • ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ

    2022年11月にChatGPTが公開され、たった1週間で100万ユーザーを超えたのをきっかけに、GoogleのBardやMicrosoftのBing AI Chatなど、大規模言語モデルを利用したチャットAIが続々とリリースされています。チャットAIを研究しているセバスティアン・ラシュカさんが、チャットAIが実用化されるまでの研究の軌跡を重要な論文24個に絞って要約しています。 Understanding Large Language Models - by Sebastian Raschka https://magazine.sebastianraschka.com/p/understanding-large-language-models ◆目次 ・主要なアーキテクチャとタスク ・スケーリングと効率性の向上 ・言語モデルを意図した方向へ誘導する ・人間のフィードバックによる強化学習(

      ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ
    • This is The Entire Computer Science Curriculum in 1000 YouTube Videos

      This is The Entire Computer Science Curriculum in 1000 YouTube Videos In this article, we are going to create an entire Computer Science curriculum using only YouTube videos. The Computer Science curriculum is going to cover every skill essential for a Computer Science Engineer that has expertise in Artificial Intelligence and its subfields, like: Machine Learning, Deep Learning, Computer Vision,

        This is The Entire Computer Science Curriculum in 1000 YouTube Videos
      • GoogleとMicrosoft AI技術と検索 まとめ (2023/02) - SEMリサーチ

        2023年2月7日のMicrosoft発表イベント、および同8日のGoogle発表イベントの内容をまとめています。いずれも検索エンジンに搭載されるAIサービスに関する新プロダクトが発表されました。 このページは随時更新しています。 Microsoft、AIを搭載した新しいBingと Edgeブラウザを発表 Microsoftイベントの発表内容(日本時間 2023年2月8日午前3時〜) 従来の検索サービスは複雑な質問の回答に適していない 従来の検索結果画面とAIチャットウインドウ GPT-4相当の技術を搭載 ChatGPTよりも自然で意図にあった回答をするデモを披露 違法行為を促進しないための安全システム 新しいBingのデモ画面 AIを搭載した新しいBingの概要(Microsoft公式発表資料より) Bing Webmaster Guidelines 会話型検索に関する記述 Google

          GoogleとMicrosoft AI技術と検索 まとめ (2023/02) - SEMリサーチ
        • 機械学習の全体像をまとめてみた

          教師あり学習 概要 入力値から何かしらの予測をしたい場合を考えます. 予測する対象の正解データが事前に得られる場合、 入力値から正解データを出力するモデルを学習する手法を教師あり学習と言います. 主なタスク 何を入力して、何を出力するかでタスクが分類されます. 代表的なものに以下が挙げられます 時系列予測: 現在以前の時系列データ ⇒ 未来の時系列データ 画像分類: 画像 ⇒ ラベル 物体検出: 画像 ⇒ 物の位置と種類 セグメンテーション: 画像をピクセル単位で分割 文章分類: 文章 ⇒ ラベル 機械翻訳: ある言語の文章 ⇒ 別の言語の文章 時系列予測 現在以前のデータから将来のデータを予測します. 実用例 株価予測 災害予測 自動車の事故防止システム 主要なアルゴリズム 自己回帰モデル(AR・MA・ARMA・ARIMA) 時系列間の関係を数学的に定量化、モデル化する. 周期性のあるデ

            機械学習の全体像をまとめてみた
          • ChatGPTを探す旅に出させていただきます | DevelopersIO

            文書の数が多い場合、単語の種類(ボキャブラリ)も多くなり単語の次元が大幅に増えていきます。 一方、一つの文書に含まれる単語の数には限りがあるため、これは全体として疎行列になります。 また、単語が各次元として扱われますが、文書ごとの出現順序など、単語間での関連性を示す情報は抜け落ちたものとなります。 それに対して低次元(通常数百次元程度)の密な行列で単語の意味を定義する方法があります。 これは、「分散表現」や「埋め込み表現」と言われるものになっております。 この表現を獲得するため手法は様々なものがありますが、ここではWord2Vecを紹介します。 元論文 : Efficient Estimation of Word Representations in Vector Space 具体的な実装についての解説 : word2vec Parameter Learning Explained Wor

              ChatGPTを探す旅に出させていただきます | DevelopersIO
            • 歴代チャットボットと最近のLLMのまとめ - Qiita

              LLMs The History of Chatbots ELIZA (1966) 初期の人工知能プログラムのひとつ。 ルールベースの簡単なパターンマッチングで返答していた。 心理療法士の会話を模したELIZA(DOCTOR)が有名。 PARRY (1972) PARRYは偏執病的統合失調症患者をシミュレートしようとしたもの。 ELIZA(DOCTOR)と通信し話題となった。 Jabberwacky (1982, 1988, 1997) ユーモラスな人間同士の自然な会話をシミュレートすることを目的としていた。 ユーザーとの会話の大規模なデータベースを構築し、言語と文脈を学習することができた。 プロジェクト自体は1982年から開始されていたが、当初は学習機能は有していなかった。 ローブナー賞を2005年(George)、2006年(Joan)に受賞している。 ローブナー賞(Loebner P

                歴代チャットボットと最近のLLMのまとめ - Qiita
              • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

                こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 本記事の対象読者としては、以下のようになりま

                  ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
                • Deep Learning ideas that have stood the test of time

                  Deep Learning is such a fast-moving field and the huge number of research papers and ideas can be overwhelming. The goal of this post is to review ideas that have stood the test of time. These ideas, or improvements of them, have been used over and over again. They’re known to work. If you were to start in Deep Learning today, understanding and implementing each of these techniques would probably

                  • 【AI最新論文】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita

                    <目次> はじめに 第1回:コンピュータビジョン編 第2回:自然言語処理編 第3回:強化学習編 第4回:実務応用編 次回予告 1. はじめに GAN(敵対的生成ネットワーク)講座 現場で使える XAI(Explainable AI)講座 現場で使える自然言語処理実践講座 ディープラーニング最新論文対策講座 スキルアップAIでは、上記の4講座を始めとして、現在、そしてこれから注目されるであろう最先端の機械学習/ディープラーニング技術に関する講座を開講しております。このような講座を開講していく中で、スキルアップAIの講師陣が注目している最先端技術をぜひ知りたいというお声を多くいただきました。 そこで、自動機械学習(AutoML)を専門としICMLなどのトップカンファレンスへの論文採択経験もある斉藤と、需要予測・異常検知など様々な分野で機械学習/ディープラーニングの産業応用に取り組んできた小縣が

                      【AI最新論文】2022年に読むべき「機械学習/ディープラーニングの最新論文」30選 - Qiita
                    • 1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

                      徳永拓之(LeapMind(株)) 1bit LLMの時代が来る? 2024 年2 月,The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits¹⁾ というタイトルの論文がarXiv上で公開され,にわかに話題となりました.“1.58 Bits” という表現はあまりなじみがありませんが,log₂(3) = 1.58 . . . ということで,パラメーターを三値にした場合の情報量を示しているようです.この論文(以下b1.58 論文とする)は,同じ著者グループによる文献2)を少し拡張したもので,大規模言語モデル(LLM)の効率化についての研究です. 本稿の前半ではこれらの論文の主張を解説し,後半ではその主張の妥当性について検討します. なお,これらの2本の論文は,本稿執筆時点では,査読を経たものではありませんのでご注意くだ

                        1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」
                      • Mozillaがオフラインでも使える翻訳ツール「Firefox Translations」を公開

                        ウェブブラウザ「Firefox」を開発するMozillaが、ローカルで動作するFirefox用機械翻訳アドオン「Firefox Translations」を公開しました。Google翻訳やDeepL翻訳などの翻訳サービスとは異なり、翻訳はクライアントサイドで実行され、データが完全にプライベート化されるのが特徴です。 Firefox Translations – Firefox (ja) 向け拡張機能を入手 https://addons.mozilla.org/ja/firefox/addon/firefox-translations/ Mozilla releases local machine translation tools as part of Project Bergamot https://blog.mozilla.org/en/mozilla/local-translatio

                          Mozillaがオフラインでも使える翻訳ツール「Firefox Translations」を公開
                        • PyCon JP 2019で見たセッションの聴講記録20個分 / 資料・動画・関連リンクなど - フリーランチ食べたい

                          2019年9月16日/17日に開催されたPyCon JP 2019で自分が直接/YouTubeで聴講したセッションについてのまとめです。主に下記の内容を書いています。 スピーカーURL 配信動画 スライド 発表内で出てきたライブラリなどのURL 自分の感想 「あのセッションで話していたライブラリなんだっけ」と思い出したい方やざっくり内容が知りたい方に読んでいただければ幸いです。PyCon JPに自分も発表者としても参加し、スタッフとして参加し、Webサイトの開発もしたので、それについては改めて書きたいと思います。 pycon.jp PythonとAutoML / 芝田 将 スピーカー: https://twitter.com/c_bata_ 動画: https://www.youtube.com/watch?v=Whkwu46DgBs スライド: https://www.slideshar

                            PyCon JP 2019で見たセッションの聴講記録20個分 / 資料・動画・関連リンクなど - フリーランチ食べたい
                          • RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog

                            Amazon Prime 一ヶ月無料 Seq2seqからBERTまでのNLPモデルの歴史をざっとまとめる。 DNNは知ってるけどTransformerってなんだかわからない、って人におすすめです。 Abst. 画像認識にもTransformerが使われることが多く、DeepRLやGPT-3といったNLPモデルも身近になってきています。"Attention is 何?"と言えなくなってきたので勉強しました。 Feedforward NetworksからSeq2Seq, Attention機構からTransformer登場、そしてBERT GPTといった最新モデルまでの流れを広く浅く記述する予定。 またKaggle NLPコンペの上位解法から利用例を探る。 Tl;DR TransformerはSelf-Attentionという機構でデータ内の時系列的特徴を抽出でき、従来のRNNを始めとするNN

                              RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog
                            • 自動作曲AI Music Transformerの衝撃 - Qiita

                              〜AIが名曲を生み出す〜 この音楽を聴いてみてください。 See the Pen MusicTransformerDemo by NayuSato (@nayusato) on CodePen. 埋め込みが見られない場合はここ これはGoogleの自動作曲Music Transformerが生み出した曲の1つです。 入力は、最初の6秒だけ。 クラシックのドビュッシー「月の光」の冒頭6秒だけを与えて、その続きを全て作らせるというタスクを行わせています。 十分聴き入って感動できるような曲に仕上がっています。 ケチをつけられる点がないとは言わないけれど、「人の作った曲です」と言われても識別できないほどの精度になっています。 「Music Transformer」 2018年Googleが発表した自動作曲のAI。 自然言語処理のアルゴリズムであるTransformerを音楽に適用することにより、そ

                                自動作曲AI Music Transformerの衝撃 - Qiita
                              • リサーチインターンの成果がトップカンファレンスであるKDD2019に論文として採択されるまで - Gunosyデータ分析ブログ

                                こんにちは。研究開発チームインターンの北田 (shunk031) です。今回は可愛い我が子(研究のことです)について書きます。 この度、私と研究開発チームの関さんで取り組んでいた研究がデータマイニングに関する国際会議KDD2019のApplied Data Science Trackにて採択されました。 gunosy.co.jp 発表した論文は "Conversion Prediction Using Multi-task Conditional Attention Networks to Support the Creation of Effective Ad Creatives"というタイトルで、テキストにフォーカスした広告クリエイティブ作成支援のためのコンバージョン予測がメインの研究です。 arxiv.org 今回はこうした研究がスタートしたきっかけや、インターン中にどのように研究を

                                  リサーチインターンの成果がトップカンファレンスであるKDD2019に論文として採択されるまで - Gunosyデータ分析ブログ
                                • Firefoxにローカルで動作する自動翻訳機能が追加される

                                  by 200 Degrees MozillaがFirefoxに自動翻訳機能の実装を進めていることが明らかになりました。先行しているChromeの自動翻訳機能はインターネット経由でサービスが提供されていますが、Firefoxの翻訳機能はブラウザ単体で機能することができるとのことです。 Bergamot Project: Mozilla und Europäische Union bringen maschinelle Übersetzungen ohne Cloud in Firefox https://www.soeren-hentzschel.at/firefox/bergamot-project-maschinelle-uebersetzungen-ohne-cloud/ Mozilla working on native Firefox translation feature - g

                                    Firefoxにローカルで動作する自動翻訳機能が追加される
                                  • グーグルGemini、法人/デベロッパー向けに展開 サードパーティの最新分析が示すGeminiの実力とは? | AMP[アンプ] - ビジネスインスピレーションメディア

                                    大規模言語モデルのランドスケープとグーグルGeminiの位置付け 2023年は、コンシューマ領域における生成AIの利用が爆発的に増えた年となった。同年11月時点の情報によると、OpenAIが展開するChatGPTのアクティブユーザー数は1週間あたり1億人に達したとされる。 これに続き2024年はエンタープライズ(法人)領域における利用が増える見込みだ。 ブルームバーグは2024年1月12日OpenAIのブラッド・ライトキャップCOOの話として、同社が2023年8月に法人向けにリリースした「ChatGPT for Enterprise」に関して、現在260社の顧客がおり、15万人のユニークユーザーが利用していると伝えた。OpenAIはブルームバーグの取材で、法人顧客の具体的な社名には言及していないが、自社ブログでCanva、PwC、Zapierなどの多くの有力企業が利用していることを明らかに

                                      グーグルGemini、法人/デベロッパー向けに展開 サードパーティの最新分析が示すGeminiの実力とは? | AMP[アンプ] - ビジネスインスピレーションメディア
                                    • 深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ

                                      ホクソエムサポーターの白井です。今回はICLR2020 の論文を紹介します。 The International Conference on Learning Representations (ICLR) は機械学習の中でも特に深層学習 を専門とした国際会議です。 OpenReview.net によるopen peer reviewを採用しているので、submitされた論文はだれでも閲覧可能です。(ICLR2020 open review) 2020年はエチオピアで開催予定でしたが、COVID-19の影響でvirtual conferenceとなりました。 今回はNLP系の論文について5本紹介します。 すでに日本語ブログ記事で紹介されているような論文もありますが、自分が興味を持った部分を中心としてざっくりと紹介したいと思います。 以降、とくに記載がない場合、図は論文またはブログからの引用で

                                        深層学習系のトップ会議ICLR2020のNLP系論文についてざっくり紹介 - 株式会社ホクソエムのブログ
                                      • ML and NLP Research Highlights of 2020

                                        The selection of areas and methods is heavily influenced by my own interests; the selected topics are biased towards representation and transfer learning and towards natural language processing (NLP). I tried to cover the papers that I was aware of but likely missed many relevant ones—feel free to highlight them in the comments below. In all, I discuss the following highlights: Scaling up—and down

                                          ML and NLP Research Highlights of 2020
                                        • 100+ Best GitHub Repositories For Machine Learning

                                          There are millions of github repos and filtering them is an insane amount of work. It takes huge time, efforts and a lot more. We have done this for you. In this article we’ll share a curated list of 100+ widely-known, recommended and most popular repositories and open source github projects for Machine Learning and Deep Learning. So without further ado, Let’s see all the hubs created by experts a

                                            100+ Best GitHub Repositories For Machine Learning
                                          • Deep Learningの各種タスクにおけるベンチデータセットとデータ数をまとめた - Qiita

                                            ABEJAアドベントカレンダー2020の19日目の記事です。 この記事は何? 結局AIって何個データ必要なの?ってよく聞かれると思います。 そんなん知るか この記事では、ある程度精度が出ている既存のタスクにおいて、どんなデータを、どのくらいの量与えているかを調べた結果です。ちなみに、僕自身、すべてのタスクを扱ったことがあるわけでは無いので、ほぼ一部適当な部分もあるかと思いますが、ご容赦ください。あと、このデータが入ってないよ!ってツッコミも歓迎です。 あと、技術は常に進んでいるので、ちゃんと最新技術を追っておけば、より少ないデータで良い結果を出すことが出来ないこともない。が、最新技術とはいえ銀の弾丸ではないのが通常で、例えlightweightGANがでたからと言って、100枚で学習できます!とか勝手に広がると困っちゃう。色んなタスクにおいて、まぁ大体どんなタスクも一般的にはこんなもんよっ

                                              Deep Learningの各種タスクにおけるベンチデータセットとデータ数をまとめた - Qiita
                                            • NVIDIAが対話型AIのフレームワーク「Jarvis」の提供を開始

                                              2021年4月12日、NVIDIAが、対話型AIの構築が可能になるソフトウェアフレームワーク「Jarvis」の提供を開始したことを発表しました。Jarvisは膨大なデータによってトレーニングされているとのことで、「開発者は高精度な自動音声認識や言語理解能力を備えた対話型AIエージェントを開発可能になる」とNVIDIAは述べています。 NVIDIA Announces Availability of Jarvis Interactive Conversational AI Framework | NVIDIA Newsroom https://nvidianews.nvidia.com/news/nvidia-announces-availability-of-jarvis-interactive-conversational-ai-framework NVIDIA Jarvis: Worl

                                                NVIDIAが対話型AIのフレームワーク「Jarvis」の提供を開始
                                              • Web Neural Network API

                                                Web Neural Network API W3C Candidate Recommendation Draft, 5 May 2024 More details about this document This version: https://www.w3.org/TR/2024/CRD-webnn-20240505/ Latest published version: https://www.w3.org/TR/webnn/ Editor's Draft: https://webmachinelearning.github.io/webnn/ Previous Versions: https://www.w3.org/TR/2024/CRD-webnn-20240503/ History: https://www.w3.org/standards/history/webnn/ Im

                                                • 機械学習、NLP論文の書き方(英語)

                                                  はじめに Kotoba Technologies, Inc. Co-Founder/CTO、Toyota Technological Institute at Chicago, Research Assistant Professorの笠井淳吾です。これまで自然言語処理(NLP)、機械学習の国際学会(ACL、ICLR、NeurIPS、EMNLP、ICCVなど)にて、投稿や発表を積み重ねてきましたが、一度自分なりに論文を書く際に考えていること、留意点、コツのようなものを言語化して共有したいと思います。個人の好みによるところも多々あるかと思いますので、取捨選択していただいて、皆さんの論文執筆の一助になることを願っています。 全体のストラクチャー まずは全体の流れから考えていきます。基本的に、論文を書く際には(多くの場合そもそもプロジェクトを始める前に)、タイトルをイメージしていきます。タイトル

                                                    機械学習、NLP論文の書き方(英語)
                                                  • Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita

                                                    subcharacterに関しては,BERTやELMoといった文脈情報を扱える言語モデルでの検証はまだ少ないようで,さっと調べた感じだと見つけられませんでした。 論文間にまたがって分割単位が同じ部分がわかるように,分割ごとに色合いを変えた図を作成しました(見易さを優先し,作成した図の次元サイズ等は簡略化しています)。 論文リンクは下部の参考文献に記載しています。 1.Sub-character Neural language Modeling in Japanese (Nguyen et al.) 漢字の表現方法を部首(shallow)・さらに部首より小さい単位(deep)に分解。 言語モデルは単方向のLSTM 言語モデルのパープレキシティーの良さの順は,shallow > deep > baselineとなった。 論文内で紹介されている漢字の4つのデータセットを見ると,同じ漢字でもそれぞ

                                                      Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita
                                                    • AI Paper Recommendations from Experts

                                                      See part two with new experts here. After the 'top AI books' reading list was so well received, we reached out to some of our community to find out which papers they believe everyone should have read! All of the below papers are free to access and cover a range of topics from Hypergradients to modeling yield response for CNNs. Each expert also included a reason as to why the paper was picked as we

                                                        AI Paper Recommendations from Experts
                                                      • 40+ Modern Tutorials Covering All Aspects of Machine Learning - DataScienceCentral.com

                                                        Home » Uncategorized40+ Modern Tutorials Covering All Aspects of Machine Learning CapriGranville733December 10, 2019 at 3:30 am This list of lists contains books, notebooks, presentations, cheat sheets, and tutorials covering all aspects of data science, machine learning, deep learning, statistics, math, and more, with most documents featuring Python or R code and numerous illustrations or case st

                                                          40+ Modern Tutorials Covering All Aspects of Machine Learning - DataScienceCentral.com
                                                        • What developers need to know about generative AI

                                                          EngineeringEnterpriseOpen SourceWhat developers need to know about generative AIGenerative AI has been dominating the news lately—but what exactly is it? Here’s what you need to know, and what it means for developers. By now, you’ve heard of generative artificial intelligence (AI) tools like ChatGPT, DALL-E, and GitHub Copilot, among others. They’re gaining widespread interest thanks to the fact t

                                                            What developers need to know about generative AI
                                                          • 【記事更新】私のブックマーク「言語処理分野におけるAdversarial Example」 – 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                                            佐藤 元紀 (株式会社Preferred Networks) はじめに ニューラルネットワークは、時として僅かな入力の違いによって大きく異なる挙動になることが知られています。 図1 画像分野におけるAdversarial Example の(出典 : [Goodfellow et al.]より抜粋) 有名な例に [Goodfellow et al.] の図1があります。 左側の画像 x に対して、微小なノイズ(Adversarial Perturbation; 敵対的摂動)を足し合わせた結果が、右側の画像になっています。 左側の画像をCNNによる画像認識器に入力した時には正しく「パンダ (“panda”)」と予測されるものの、右側の画像を入力すると「テナガザル (“gibbon”)」と予測されています。 同じ見た目の画像にもかかわらず、ニューラルネットワークが誤認識するこのような事例は A

                                                            • チームの公用語を英語にした話 A story about making English our team's official language - ANDPAD Tech Blog

                                                              See below for the English version. この記事はANDPAD Advent Calendar 2023 22日目の記事です。 こんにちは、リアーキテクティングチームの白土(@kei_s)です。今回は、我々のチームの公用語を英語にしたお話のご紹介です。 リアーキテクティングチームとは ANDPADシステムでの複数のドメインに横断した問題に対応するため、「リアーキテクティングチーム(略称: リアーキチーム)」という名前の専任チームを組織し開発課題に対応しています。現在主に Rails アプリケーションに関連する改善を行っています。ブログやイベントで取り組みをいくつかご紹介しているので、興味があればぜひご覧ください! Kaigi on Rails 2022 「実践 Rails アソシエーションリファクタリング」で伝えきれなかったこと - ANDPAD Tech B

                                                                チームの公用語を英語にした話 A story about making English our team's official language - ANDPAD Tech Blog
                                                              • Parti: Pathways Autoregressive Text-to-Image Model

                                                                Research paper GitHub repository Introduction We introduce the Pathways Autoregressive Text-to-Image model (Parti), an autoregressive text-to-image generation model that achieves high-fidelity photorealistic image generation and supports content-rich synthesis involving complex compositions and world knowledge. Recent advances with diffusion models for text-to-image generation, such as Google’s Im

                                                                • Open challenges in LLM research

                                                                  [LinkedIn discussion, Twitter thread] Never before in my life had I seen so many smart people working on the same goal: making LLMs better. After talking to many people working in both industry and academia, I noticed the 10 major research directions that emerged. The first two directions, hallucinations and context learning, are probably the most talked about today. I’m the most excited about num

                                                                    Open challenges in LLM research
                                                                  • Understanding Large Language Models

                                                                    Large language models have taken the public attention by storm – no pun intended. In just half a decade large language models – transformers – have almost completely changed the field of natural language processing. Moreover, they have also begun to revolutionize fields such as computer vision and computational biology. Since transformers have such a big impact on everyone’s research agenda, I wan

                                                                      Understanding Large Language Models
                                                                    • 2000種類以上ものアフリカの諸言語を機械翻訳可能にするオープンソースプロジェクト「Masakhane」

                                                                      by World Bank Photo Collection アフリカ大陸で使われる言語は英語やフランス語、アラビア語の方言など一般に知られているものだけでなく、アフリカの部族が昔から使ってきた言語も非常に多く使われています。一説によるとアフリカ大陸に存在する言語は2000個を超え、さまざまな言語に分かれていることはコミュニケーションおよび商取引の障害にもなり得ます。そこで2019年、アフリカのAI研究者やエンジニアらは「Masakhane」というオープンソースプロジェクトを作成し、「機械翻訳を使ってアフリカの諸言語を翻訳する壮大な試み」をスタートしました。 Masakhane https://www.masakhane.io/ The Masakhane project wants machine translation and AI to transform Africa | Vent

                                                                        2000種類以上ものアフリカの諸言語を機械翻訳可能にするオープンソースプロジェクト「Masakhane」
                                                                      • ACL 2019 参加レポート - Preferred Networks Research & Development

                                                                        PFNでは自然言語処理(NLP)による研究開発にも取り組んでいます。 自然言語は人にとって最も身近なインターフェースのうちの一つです。 弊社ではこれまでにもロボットへの言語指示(ICRA 2018, CEATEC 2018)などの研究開発の成果を発表してきました。 先日7/28-8/2にイタリアのフィレンツェにて、自然言語処理のトップ国際会議ACL 2019が開催され、弊社からも佐藤元紀と小林颯介が参加しました。今回はその様子を論文紹介とともにお伝えしたいと思います。本記事は2名で協力し執筆しています。 (写真:会場となったバッソ要塞) また、佐藤元紀が東北大学の鈴木潤氏・清野舜氏と執筆した論文 “Effective Adversarial Regularization for Neural Machine Translation” を口頭発表しました。この論文についても紹介します。 ※佐

                                                                          ACL 2019 参加レポート - Preferred Networks Research & Development
                                                                        • 自然言語処理の必須知識 Transformer を徹底解説!

                                                                          はじめに 自然言語処理(Natural Language Processing: NLP)の文脈から誕生したTransformerはそのモデルのシンプルさにもかかわらず、大きな成果をあげることに成功しました。そのため、その後NLPにブレイクスルーをもたらしたBERTやGPT-2などのモデルはTransformerをもとにつくられています。現在(2020年)では、DETRなど最新の物体検出モデルにも使われるようになり、Transformerは機械学習を学ぶ上では避けて通ることができないモデル・アイディアであるといえるでしょう。 今回は、近年の最重要モデルといえるTransformerについて発表論文「All you need is attention」を中心に、その誕生背景からモデル概念まで一から解説したいと思います。 なお、今回の内容は以下の二つに大別されます。 .Transformerが

                                                                            自然言語処理の必須知識 Transformer を徹底解説!
                                                                          • AudioCraft: A simple one-stop shop for audio modeling

                                                                            AudioCraft consists of three models: MusicGen, AudioGen, and EnCodec. MusicGen, which was trained with Meta-owned and specifically licensed music, generates music from text-based user inputs, while AudioGen, which was trained on public sound effects, generates audio from text-based user inputs. Today, we’re excited to release an improved version of our EnCodec decoder, which allows for higher qual

                                                                              AudioCraft: A simple one-stop shop for audio modeling
                                                                            • 記事「最近のIUT界隈」(しぶんぎ社)に関するコメント|Reiya Tachihara

                                                                              執筆者:立原 礼也 公開日:2024年6月8日 再公開日:2024年6月11日 記事の非公開に至った経緯については,別の 記事 「記事非公開の理由(特に,記事のある側面に関するお詫び)と今後の対応|Reiya Tachihara (note.com)」をご参照ください. 今後も記事を非公開にすることがあるかも知れませんが,予告なく記事が非公開になった場合には,編集ののち,予告なく記事は再公開される予定です. 編集履歴は記事の最後に移植しました. 日本語のわかる方はこの英語は読み飛ばしてください(すぐ下に日本語で同じことが書いてあります). Note: To avoid malicious editing or selective quoting, please ensure that the content of this article is shared by explicitly i

                                                                                記事「最近のIUT界隈」(しぶんぎ社)に関するコメント|Reiya Tachihara
                                                                              • Introduction | English | DeepL API Docs

                                                                                Welcome to the new and (we hope) improved documentation for the DeepL API! Have feedback about the new docs? We'd love to hear from you. Please share your thoughts in our developer community in Discord. The DeepL API provides programmatic access to DeepL’s machine translation technology, making it possible to bring high quality translation capabilities directly to your websites and applications. F

                                                                                  Introduction | English | DeepL API Docs
                                                                                • Metaが200の言語で機能するAI翻訳モデルをオープンソース化、 メタバースで世界中の人々が交流できることを目指す

                                                                                  メタバース事業に注力するMetaは、すべての言語をリアルタイムで翻訳するAI「Babelfish(バベルフィッシュ)」を開発中と2022年2月に発表していましたが、同様のプロジェクトの一環として、最新のAIモデル「NLLB-200」を公開しました。NLLB-200は200種類におよぶ言語翻訳のテクノロジー全体の品質を平均44%向上させることが可能と発表されており、他の研究者が翻訳ツールを改善して作業を強化できるように、AIをトレーニングするコードやデータセットを再作成するためのコードなどを含めて開発者向けにオープンソース化しています。 New AI Model Translates 200 Languages, Making Technology Accessible to More People | Meta https://about.fb.com/news/2022/07/new-m

                                                                                    Metaが200の言語で機能するAI翻訳モデルをオープンソース化、 メタバースで世界中の人々が交流できることを目指す