サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Appleイベント
storialaw.jp
【連載】生成AIと著作権~文化審議会著作権分科会法制度小委員会「考え方」を踏まえて~ 本連載は、2024年3月15日に文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」(以下「考え方」」といいます)が公表されたことを受けて、2024年4月時点でのAIと著作権に関する法的論点とその基本的な考え方について網羅的に整理したものです。 本連載の作成にあたっては、「考え方」をベースに、関連する各書籍や論文等を参照し、かつ私自身が実務で経験したことを最大限盛り込んでいます。 特に「上野達弘・奥邨弘司(編)「AIと著作権」勁草書房、2024年」は、2024年時点の最新の論点について、理論的・実務的な観点から極めて詳細な検討がされている書籍であり、本連載作成に際しても大いに参考にしています。 本連載では、網羅的、かつ最新の知見を盛り込みつつも、学説の対立の紹介は最小限にとどめて、で
個人情報保護法施行規則(以下「個情法規則」)の改正により、2024年4月1日以降、一定の漏えい等発生時に義務づけられている、個人情報保護委員会への報告と本人への通知(あわせて以下「報告等」)の対象が、「個人データ」から「一部の個人情報」まで拡大されます。 この個情法規則改正によって、プライバシーポリシーなど、事業者に生じる影響を説明します。 現行法は「個人データ」の漏えい等を規制対象としている 現行の個人情報保護法(個情法)が一定の場合に報告等を義務づけているのは、「個人情報」ではなく一定の「個人データ」の漏えい等1です。 前提として、個人情報と個人データの違いを整理します。セミナー会場で来場者に配る紙アンケートを例にすると、氏名等を含むアンケート用紙に記入された情報が「個人情報」(法2条1項)、アンケート用紙の記入情報をもとに作成したデータベース(スプレッドシート等)が「個人情報データベ
1 はじめに 2024年1月15日に文化審議会著作権分科会法制度小委員会(第6回)が開催され、そこで「AIと著作権に関する考え方について(素案)令和6年1月15日時点版」(以下これを単に「素案」といいます。また、以下素案の該当頁を示す際には同素案の「見え消し版」の頁数を示します)が公開されました。 同素案は、現行著作権法の解釈指針を示すものに過ぎず、最終的な司法判断に代わるものでは当然ありませんが(素案3頁)、内容的にはかなり詳細かつ踏み込んだものとなっており、また、文化庁が作成・公表したものであるため、実務に非常に強い影響を及ぼすと思われます。 AIと著作権については重要論点はいくつもありますが、素案はそれらの論点を丁寧に網羅・解説しています。 各論点に関する素案の記載内容については概ね賛同しますが、素案には大規模言語モデルの開発・提供に非常に強い萎縮的効果をもたらす部分があり、その部分
1 はじめに 2023年12月20日に文化審議会著作権分科会法制度小委員会(第5回)が開催され、そこで文化庁が「AIと著作権に関する考え方について(素案)」を公表しました(以下「素案」といいます。) 本記事では、素案のうち、まずは「(1) 学習・開発段階」について、私なりに検討をしたいと思います。 なお、2024年1月15日に文化審議会著作権分科会法制度小委員会(第5回)が開催され、そこでさらにバージョンアップされた素案が公表されますので、本記事はそれまでの暫定的な検討ということになります。 ということで、短命な?記事ですが、早めに公開することにも意味があるだろうと思い、公開します。 以下、素案を適宜分割し、引用した上で当該引用部分についてのコメントを記載していきます。また、適宜見出しを付けていきます。 2 素案についての考察 (1) 導入部分 AIと著作権に関する考え方について(素案)
第1 はじめに FAQシステムやチャットボットなど「何か知りたいこと(検索文・質問文)」を入力して検索や回答生成を行うに際して、検索や回答精度を向上させたり、回答根拠を明示させるために、LLM技術と外部データを組み合わせたシステムの研究開発や実装が急速に進んでいます。 LLMが外部データを参照できるようにするには、LLMそのものをFine-tuningする方法、プロンプトで情報を与える方法、RAGによって外部データを保存したデータベース (Data Base; 以下DB) から呼び出す方法の3つがあります。 ここでいう「外部データ」とは、「LLMの外部にあるデータ」という意味でして、その中には社内文書や、書籍・ウェブページ上のデータなどが含まれます。当該「外部データ」の中には、他人が著作権を持つ著作物(以下「既存著作物」といいます)も含まれるため、それら既存著作物を外部データとして利用する
生成AIへのプロンプト入力時に問題となる個人情報保護法の論点をまとめました。 本稿作成時点(2023年9月1日)における見解であり、今後、個情委が公表する内容等によって内容はアップデートする可能性がある点についてご留意ください。 プロンプト入力時における個人情報保護法論点フローチャート 生成AIにプロンプトを入力するにあたり、個人情報保護法(個情法)上問題となり得る点をフローチャートにしてみました。 白色の帰結は、個情法に抵触せずに利用できる可能性が高い場合です。他方でグレーの帰結は、個情法に抵触するか(目的外利用)、本人(プロンプトに含まれる個人情報の主体)からの同意取得が必要になるため、適法に利用するためには一定の困難が生じる可能性がある場合です。以下、①から順番に解説していきます。 ①入力するプロンプトは個人情報か 入力するプロンプトが個人情報にあたらなければ、原則として個情法の問題
生成AIを用いた社内情報検索システムなどで、RAGという手法が用いられる例が増えています。前回のSTORIA事務所ブログでは、LLMを利用したRAG(Retrieval Augmented Generation)と著作権侵害について柿沼弁護士が解説しましたが、本稿では、RAGと個人情報保護法の論点(RAGと個人データの第三者提供該当性)について検討します。 RAGとは「ナレッジベースの外部化」 RAG(Retrieval Augmented Generation)とは RAGとは、一言でいえば「ナレッジベースの外部化」です1。 LLM(大規模言語モデル)は、主としてWeb上にある膨大なデータを学習用データとして用いているため、ある会社の内部規程について質問したり、Webで公開されていない専門知識について質問したりしても、答えることができないか、的外れな出力がされます。 上記のような通常のL
本記事は「【連載】法規制、契約、知的財産の観点から見るAI医療機器開発」の第2回目の記事です。 【連載】法規制、契約、知的財産の観点から見るAI医療機器開発 第1 【第1回】AI医療機器の開発からサービス提供までの流れと法規制・契約 第2 医療データ収集段階の規制と契約 1 【第2回】AI医療機器開発のための医療データ収集と個人情報保護法 2 【第3回】AI医療機器開発に関する臨床研究・医学系研究関連規制 第3 AI医療機器開発・ハードウェア製造段階の規制と契約 第4 治験・薬事承認・保険収載段階の規制と契約 第5 サービス提供段階の規制と契約 本記事では、AI医療機器開発のためのデータ収集と個人情報保護法をテーマに解説します。 連載第1回目の記事の図でいうと、本記事のテーマは以下の箇所に該当します。 はじめに 高精度なAIを開発するためには、高品質なデータを大量に収集することが重要であり
1 はじめに 近時、LLMを利用し、社内外の文書データを用いた精度の高いチャットボットを構築するために、RAG(Retrieval Augmented Generation)という手法が注目されています。 LLMをそのまま利用してチャットボットの構築を行うと、通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができないか、あるいは正しくない回答を返してしまいます。 この問題を解決する手法として注目されているのがRAGです。 この手法は、あらかじめ社内外の文書データをデータベース(DB)として準備しておき、ユーザからの質問がなされた場合には、当該質問と関連性が高い文書データを検索し、その文章データを質問文に付加してLLMに入力することで、精度が高い、かつ実際の文書データに紐付いた回答を生成することができるというものです。 ここで、プロンプトに入力するためにDBとして
はじめに~この議論が影響する範囲はかなり大きい~ 「生成AIと著作権侵害」に関する論点は、ざっくりいうと「生成AIを作ること(機械学習)と著作権侵害」「生成AIを利用してAI生成物を生成・利用することと著作権侵害」に分かれます。 この論点には、これまであまり論じられていなかった部分も含まれており、文化庁がセミナーや資料を公開するなど非常に盛り上がっています。 一方、「生成AIと著作権侵害」は、特に画像生成AIに関して論じられることが多いからか、ChatGPTなどの文章生成AIをビジネスに用いることにどのような影響を及ぼすかはあまり認識されていないようにも思います。 しかし、実際には、この論点は、画像生成AIはもちろんのこと、ChatGPTなどの文章生成AIをビジネスに用いることにも大きな影響を及ぼします。 たとば、ビジネスにおいて独自ドメインでの精度向上のために、独自データでファインチュー
著名な現代芸術家である村上隆さんの作品をパクったとして、神戸アニメストリートの公式ロゴを巡る騒ぎが発生しているようです。 神戸市長田区の「神戸アニメストリート」の公式「目玉ロゴ」をめぐって、現代芸術家・村上隆さんが自らの作品に似ているとして、「権利侵害の申し立て」をしたことに対し、ネット上では「似ていない」「言いがかりだ」と、村上さんへの反発が起こっている。 ライブドアニュース(2015年12月8日)より 両者が似ているか、と聞かれれば「似ている。しかし・・・・・」という感想を持つ人が大半かもしれません。 東京五輪エンブレムを巡っても同じような騒動が起きており、デザイナーが「パクリ」と言われないために知っておくべき3つの裁判例を紹介したいと思います。 ■ 著作権侵害かどうかは「依拠」+「類似性」があるかどうかで決まる 「何となく似ている」というのと「著作権侵害」であるというのは全く異なりま
この記事では、個人情報保護法の規制を取扱場面ごとにヴィジュアル化して簡潔に整理します。 2019年に同様の記事を公開しましたが、その後、法改正や講演等の度に手元資料の改訂を重ねており、この記事はその一部を抜粋するものです。 個人情報保護法の規律 (個人情報保護委員会「個人情報保護法の基本」(R4.8)より) 個人情報保護法の規律は、概ね上図のとおり、個人情報・個人データ・保有個人データという情報類型に対応する形で規律されています。 もっとも、日々多くの事業者の方から相談を受ける中で皆様が気にされていることは「この手元のデータをどのように取り扱うことができるのか」ということが中心です(上図でいうと右側部分)。 その際、個人情報保護法上、現在検討している取扱場面に適用される規律はなにかという観点から、個人情報のライフサイクルに応じた次のような図を用いて整理することが有益です。 なお、本稿のスコ
Webサービス・アプリといったオンラインサービスを提供する事業者の多くが対象となる、改正電気通信事業法(外部送信規律)の施行が2023年6月16日に迫っています。 2023年5月18日、「電気通信事業における個人情報保護に関するガイドライン及びその解説の改正案」へのパブリックコメントに対する総務省の考え方(いわゆるパブコメ返し)にあわせて、同ガイドライン解説の改正版が公表されました。 総務省「電気通信事業における個人情報保護に関するガイドライン及びその解説の改正案に対する意見募集の結果」(2023年5月18日) 本ブログでは、パブリックコメントとガイドライン解説改正版のうち重要と考えるいくつかのポイントを取り上げて説明します。 改正電気通信事業法(外部送信規律)とは Webサービスやアプリ等のオンラインサービスでは、利用者(ユーザー)が認識していない状態で、スマートフォン等の端末やブラウザ
第1 本手引きについて 1 本手引きの利用目的 本手引きは以下の目的に利用されることを想定しています。 ① 生成AIサービスの導入を検討している企業の経営陣・セキュリティ部門・法務部門が導入に際しての法的リスク評価や、社内独自の生成AI利用ガイドラインを作成する際の参考にする。 ② フリーランスの方や、所属する会社・機関に生成AI利用ガイドラインがない方が、生成AIサービス利用の際の注意事項を把握する。 ③ 生成AIサービスを開発・提供する事業者がサービス・システム設計の参考にする。 2 本手引きが対象とする生成AIサービス ChatGPTのようなLLM(大規模言語モデル)を利用した文章生成AIサービスを主たる対象としますが、画像生成AIサービスについても必要な限度で触れます。 3 本手引きの構成 生成AIサービスは、いずれのサービスも基本的に「ユーザーが何らかのデータを入力して何らかの処
1 はじめに 日本著作権法30条の4は、AI開発という観点では日本にとっての大きなアドバンテージになるということは何度かお伝えしていますが、最近の生成AIの猛烈な進化に伴って「2018年の30条の4制定段階で生成AIがこれほどまで発展することは想定されていなかった(だから30条の4は見直すべきだ)」という議論を見るようになりました。 この点についての論点を整理し、私の意見をお伝えしようと思います。 2 30条の4と、AI創作物による著作権侵害は無関係 まずはっきりさせておきたいのは、30条の4はあくまで学習段階の著作物の利用を適法化するものであって、AI創作物による著作権侵害を適法化するものではない、ということです。 つまりAI創作物による著作権侵害(学習用データと同一・類似の生成物が出力された場合の著作権侵害)については、著作権侵害の要件である「類似性」「依拠性」があるかどうかの問題であ
第1 はじめに 前回の記事で大規模言語モデル(LLM)に関するビジネスは3つのレイヤーに分けると理解しやすいというお話をしました。 このうち、レイヤー1は「大規模データセットや大規模言語モデルを自ら開発して公開・提供するレイヤー」です。 このレイヤーに関する最近の話題としては、自民党が公表したホワイトペーパー(案)や、OpenAIのサム・アルトマンCEO来日+日本への7つの提言などがありますね。 【関連リンク】 ▼ 自民党AIの進化と実装に関するプロジェクトチーム ▼ 来日したOpenAIのアルトマンCEO、日本へ7つの提案–自民党の塩崎議員が明かす 今回の記事は、このレイヤー1に取り組む際の法的な留意点について解説をしたいと思います。 レイヤー1に関する論点の全体構造は以下のとおりですが、全部を解説するとボリュームが大きくなりすぎるため、とりあえず最も良く問題となる①に絞ります。 ① デ
ChatGPTにとって日本は”機械学習パラダイス”なのか ~LLM(大規模言語モデル)にとっての個人情報保護法とGDPR~ ChatGPTを提供する米OpenAI社のCEOが来日したことが話題になっています。 「ChatGPT」CEO来日、個人データ保護「政府に協力」(日本経済新聞・20230411) 上記記事によれば、OpenAIのCEOは「自ら日本に足を運ぶことで、オープンAIへの支持を広げる狙いがあったとみられる」「日本に拠点を設ける考えも示唆した」とあり、OpenAIは日本を市場として重視しようとしていることが伺われます。 OpenAIにとって、なぜ日本の市場は魅力的なのでしょうか。その理由のひとつとして、GDPR(欧州一般データ保護規則)をはじめとする主要な海外個人データ保護法制よりも、日本の個人情報保護法が機械学習にとって対応しやすいことが挙げられます。 実は日本における著作権
OpenAIのChatGPT、MicrosoftのBing、GoogleのBardなど、言語系のAIサービスが急速に普及し始めました。1ちなみに記事冒頭のアイキャッチ画像は, 会社のロゴ風画像で「GPT」という文字をなんとか表示させようと画像生成AIで1時間悪戦苦闘したが結局、意味不明の文字列しか出てこなかったロゴ」です これらのサービスは、いずれも大規模言語モデル(Large Language Models; LLMs)をベースにしているという共通点があり、社会や産業に極めて大きなインパクトを与えると予想されています。 そこで、このような大規模言語モデル(LLM)に関連するビジネスを展開する際に留意すべき法規制・知的財産権・契約について、何回かに分けてまとめてみようと思います。 今回は、まずは総論部分として「大規模言語モデル(LLM)に関連するビジネス3つの領域」と「それぞれの領域におい
1 画像生成AIを含む生成系AIとビジネス ビジネス領域において、画像生成AIを含む生成系AI技術が利用される場面は大きく分けると2つあるように思います。 1つはユーザー側で利用する場面、つまり「生成系AIを利用して生成したコンテンツを自社プロダクトで用いる場合」、もう1つはベンダ側で提供する場面、つまり「生成系AIのモデルそのものや当該モデルをベースとするアプリケーションを開発・提供する場合」の2つです。 もちろん、企業によっては「自社で生成系AIツールを開発し、当該ツールを用いて生成したコンテンツを自社プロダクトで用いる」ということもあるでしょう。その場合は2つの領域双方にまたがった検討が必要です。 (1) 生成系AIのモデルそのものや当該モデルをベースとするアプリケーションを開発・提供する場合 生成系AIのモデルそのものや、当該モデルをベースとするアプリケーションをベンダ・サービサー
サイト売買で必ず作成することになるのが契約書。 以下ではサイト売買契約書の雛形を示し、各条項について詳しい説明を加えています。作成に関するご相談は当事務所までお問い合わせください。 【注意事項】 ・ 自己又は自社内でのビジネスのための利用は問題ありませんが、それ以外の利用及び第三者への転送を禁止します。 ・ 契約書雛型についてSTORIAはいかなる保証もおこなわず、雛型の利用に関し一切の責任を負いません。 ・ 雛型に関する著作権その他の一切の権利はSTORIAに帰属しており、雛型の利用の許諾はかかる権利の移転を意味するものではありません。 ウェブサイト事業譲渡契約書 ●●(以下「甲」という)と△△(以下「乙」という)とは,甲が保有するWEBサイト事業を乙へ譲渡することに関し,以下の通り契約(以下「本契約」という)を締結する。 これは契約の「前文」と呼ばれるものです。前文の目的は,①契約の当
前回記事「Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権」は、おかげさまで沢山の方に読んで頂き、いろいろな意見や御質問や取材を頂きました。 それらの意見・御質問や取材を通じて、自分の中で新たな整理ができたので、続編の記事を書きたいと思います。 第1 どのような場合に著作権侵害になるのか みなさんの興味関心が強いトピックとして「画像自動生成AIを利用して画像を自動生成し、既存著作物の類似画像が生成された場合に著作権侵害に該当するか」があります。 前回の記事では「学習に用いられた画像と同一の画像が『偶然』自動生成された場合、著作権侵害に該当するか」について解説をしましたが、今回の記事では、もう少し多くのパターンについて検討をしたいと思います。 まず、その前提として「著作権侵害の要件」と「著作権侵害の効果」について説明をします。 この「要件」と「
ホーム ブログ 人工知能(AI)、ビッグデータ法務 Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権|知… はじめに Midjourney、Stable Diffusion、mimicなど、コンテンツ(画像)自動生成AIに関する話題で持ちきりですね。それぞれのサービスの内容については今更言うまでもないのですがMidjourney、Stable Diffusionは「文章(呪文)を入力するとAIが自動で画像を生成してくれる画像自動生成AI」、mimicは「特定の描き手のイラストを学習させることで、描き手の個性が反映されたイラストを自動生成できるAIを作成できるサービス」です(サービスリリース後すぐ盛大に炎上してサービス停止しちゃいましたが)。 で、この手の画像自動生成AIのようなコンテンツ自動生成AIですが、著作権法的に問題になる論点は大体決ま
1 はじめに 大学発スタートアップを含む研究開発型スタートアップは、有望な技術シーズを持ち大きく成長する可能性を秘めています。 一方、研究開発型スタートアップ(以下長いので「研究開発型SU」といいます)特有の事情として、① 研究開発やその後の事業化に際して、大企業や大学との間での技術提携(共同研究開発等)・事業提携(ライセンス契約、共同事業契約、販売契約等)を行うことが必須である、② 研究開発に多額の資金を要し深く長い赤字を掘る必要性があるため外部投資家から資金調達を受けるニーズが高いという特徴があります。 いずれの特徴との関係でも、研究開発型SUが自らの技術シーズ・知的財産を生かしつつ確実に生き残り、成長するためには、自らの強みを生かし大企業や大学、投資家としたたかに契約交渉をしなければなりません。 そこで、「研究開発型スタートアップ・大学発スタートアップのための知財・契約戦略」というテ
研究開発型スタートアップ・大学発スタートアップが押さえておくべき政府系ガイドライン・報告書・モデル契約(2022.5時点) ご存じの方も多いと思うのですが、政府は、研究開発型スタートアップ・大学発スタートアップ向けのガイドライン・手引き・報告書・モデル契約などを精力的に作成・公表しています。 現場の声を丹念に拾い上げたもの、高い専門性を持つ有識者が精魂込めて作成したもの、行政としてかなり踏み込んだ見解を記載したものなど様々です。 ただ、残念なのは、各省庁がバラバラに(私が知らないだけかもしれませんが)公表しているが故に、それらを一元的に確認することが難しい点です。 誰かがまとめてくれないかなと思っていましたが、ゴールデンウィークで時間があったので、自分でまとめてみました。 時間をかけて、できる限り網羅的に調査をしましたが、もしかしたら漏れがあるかもしれません。 「これ漏らしちゃダメでしょ」
アプリ開発者(デベロッパー)にとって、App StoreやGoogle Playストア等から突然アプリが削除されたり、アカウントが停止されたりすると死活問題になります。 2021年2月に施行されたデジタルプラットフォーム取引透明化法(以下「透明化法」)を正しく理解しておけば、このような問題に対処できる可能性が広がると考えるため、今回はアプリ開発者が知っておくべき透明化法のポイントを解説します。 デジタルプラットフォーム取引透明化法をまとめると 【透明化法を簡潔にまとめると】 ▶アプリストアやオンラインモールといったデジタルプラットフォーム(DPF)の透明性や公正性の向上、デベロッパーや出品者との間の相互理解の促進等を目的として2021年2月1日に施行された法律 ▶すべてのDPFを規律対象とするのではなく、国内流通総額が一定額以上の特定デジタルプラットフォーム(特定DPF)のみを規律対象とす
はじめに AI技術を利用した文章や画像・音楽等の自動生成技術及び同技術を利用したビジネスは日進月歩のスピードで進化しています。 特に人物肖像の自動生成については、その技術が高度化し、実在の人物の肖像とほとんど区別がつかない人物肖像を自動生成できるようになってきています。 そのため、それらの人物生成肖像の生成・利用に関する様々なビジネス(AI技術を利用して人物肖像を自動生成できるサービスやAI自動生成肖像を販売するサービスなど)や、AI自動生成肖像の利用場面(印刷物、ウェブサイト、漫画、映像、ゲームキャラ等)が急速に拡大してきています。 A Style-Based Generator Architecture for Generative Adversarial Networks(https://arxiv.org/pdf/1812.04948.pdfより) 上記で引用した人物肖像は、一見す
▼ 旭川医科大学による訴訟提起 旭川医科大学は平成23年3月16日に旭川地裁に訴訟を提起しました。 旭川医科大学は、NTT東日本に対し、新システム導入失敗に伴う逸失利益として約19億4000万円を請求し、他方、NTT東日本は、旭川医科大学に対し、不当な受領拒絶でリース料を受け取れなくなったとして約22億8000万円を請求しました。 ▼ 地裁判決(旭川地判平成28年3月29日) 旭川地裁は、ユーザ・ベンダの過失割合を2:8(ユーザ:ベンダ)としたうえでユーザ・ベンダの両請求とも一部認容し、実質、旭川医科大学からNTT東日本へ約1800万円の支払いを命じる判決をしました。 双方ともに控訴をし、舞台は札幌高裁に移りました。 ▼ 高裁判決(札幌高判平成29年8月31日) 札幌高裁は、ユーザ・ベンダの過失割合を10:0(ユーザ:ベンダ)に変更した上で、ベンダの請求を認容、ユーザの請求を棄却し、旭川医
はじめに 流行っていますね、NFT。 もう沢山事例が紹介されているのでここでは触れませんが、いくつかのNFTが超高額で取引されたというニュースが巷にあふれています。 NFTって何なのでしょうか。 NFTはNon-Fungible Token(非代替性トークン)の略称ですが、何の略称かがわかったからといって、その内容がちっともわからないのが第一の特徴です。 また、NFTに関して「NFT化」「NFTの保有」「NFTの売買」という表現が使われるとき、それは法的に見ると一体どういう意味なのでしょうか。そこが明らかでないと、NFTの取引に関するトラブルが頻発しそうな気がします。 そこで、本記事では、まずNFTについて法的に分析しやすいように定義を行い、その上で「NFTで可能になること」をちらっと紹介した上で、メイン論点として「NFTの取引において実際には何が行われているか」を法律的な面から分析してみ
第1 はじめに 自然言語処理技術の発展に伴い、自然言語AIを利用したサービスが大変盛り上がっています。 たとえば、検索、要約、翻訳、チャットボット、文章の自動生成、入力補完などのサービスで、近いところで有名なのは、2020年にOpenAIが発表した「GPT-3」ですかね。これは約45TBにおよぶ大規模なテキストデータを学習し、あたかも人間が書いたような文章を自動で生成することが可能な自然言語モデルです。 【参考リンク】 自然言語処理モデル「GPT-3」の紹介 進化が止まらない自然言語処理技術ですが、事業者が自然言語AIを利用したサービス(*ここでは、データの処理がクラウド上で自動的に行われるサービスを前提とします)を提供する際に検討しなければならないことは、大きく分けると、学習済みモデルの構築フェーズの問題と、モデルを利用したサービス提供フェーズに関する問題に分かれます。 このうち、モデル
次のページ
このページを最初にブックマークしてみませんか?
『知的財産・IT・人工知能(AI)・ウェブビジネスの法律相談なら【STORIA法律事務所】』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く